Știri
Știri din categoria Inteligență artificială

Platforma Rent-A-Human permite agenților AI să plătească oameni pentru a îndeplini sarcini în lumea reală, precum ridicarea de colete sau livrarea de flori, într-un sistem asemănător aplicației TaskRabbit, dar unde „șeful” este un algoritm. Conform GizChina, ideea aparține inginerului Alexander Liteplo și s-a lansat discret înainte de a deveni virală pe rețelele sociale. Peste 81.000 de persoane s-au înregistrat deja ca „oameni de închiriat”, dar doar 82 de agenți AI sunt activi pe platformă.
Toate plățile se fac exclusiv prin criptomonede, fără opțiuni tradiționale sau măsuri de protecție pentru lucrători. Platforma nu oferă verificare a identității pentru cei care postează sarcinile și nu garantează rambursări.

Odată acceptată o plată în Ethereum sau stablecoin, aceasta nu mai poate fi anulată. În plus, site-ul este dezvoltat prin așa-numitul „vibe coding” – un proces de creare de software fără audit serios, bazat pe ajustări ulterioare realizate de modele AI.
Mai mulți specialiști se întreabă dacă Rent-A-Human este un proiect serios sau doar o satiră criptată a economiei digitale. Cu slogane precum „roboții au nevoie de trupul tău”, lipsa ironiei ridică semne de întrebare. Cu toate acestea, adepții criptomonedelor consideră platforma un pas logic spre o economie autonomă, unde AI și oamenii colaborează direct. Alții, însă, avertizează asupra pericolelor legate de lipsa reglementărilor, securitatea muncii și riscul de fraudă.
Momentan, Rent-A-Human rămâne o inițiativă controversată și nesigură. Pentru cei tentați să se înscrie, recomandarea este clară: prudență maximă până când se clarifică dacă avem de-a face cu o glumă elaborată sau cu începutul unei piețe de muncă digitalo-fizice în care algoritmii decid ce fac oamenii.
Recomandate

OpenAI ar urma să parieze până la 1,5 miliarde de dolari pe un vehicul dedicat clienților corporate , printr-o structură de tip joint venture care promite randamente fixe investitorilor și ar accelera adoptarea instrumentelor sale în companii, potrivit IT之家 , care citează Financial Times. Informația indică o mutare cu miză operațională și financiară: OpenAI ar intenționa să investească până la 1,5 miliarde de dolari (aprox. 6,9 miliarde lei) într-o entitate nouă, descrisă ca fiind „intern” numită DeployCo , creată împreună cu mai multe firme de investiții de tip private equity (fonduri care cumpără și finanțează companii nelistate). Cum ar arăta tranzacția și de ce contează pentru piața enterprise Conform materialului, OpenAI ar urma să înceapă cu o injecție de capital de 500 milioane de dolari în acțiuni, iar DeployCo ar putea ajunge la o evaluare de 10 miliarde de dolari într-o rundă de finanțare așteptată să se încheie la începutul lunii mai. DeployCo este descrisă ca o societate cu răspundere limitată înregistrată în statul Delaware (SUA), iar scopul ei ar fi să grăbească utilizarea pe scară largă a instrumentelor de birou ale OpenAI, fiind prezentată drept o piesă centrală în strategia de extindere pe piața de inteligență artificială pentru companii. Structura de finanțare: randament anual „promis” și control prin drepturi de vot În aceeași relatare, investitorii de private equity ar urma să facă o investiție pe cinci ani, iar OpenAI ar fi angajat un randament anualizat de 17,5% pentru aceștia. Totodată, OpenAI ar urma să dețină acțiuni cu drepturi de vot „superioare” (super voting), un mecanism care îi poate păstra controlul asupra deciziilor chiar și în prezența unor finanțări mari din exterior. Pe lângă suma inițială, OpenAI ar mai putea alege să adauge încă 1 miliard de dolari, iar investitorii – menționați ca incluzând TPG, Bain Capital, Thoma Bravo, Brookfield și Goanna Capital – ar urma să contribuie separat cu 4 miliarde de dolari. Context: competiția pentru bugetele companiilor IT之家 notează că Reuters a relatat în martie că OpenAI și rivalul Anthropic caută activ parteneriate cu fonduri de private equity, care controlează portofolii mari de clienți corporate și influențează deciziile de cheltuieli în software și AI. În același timp, OpenAI ar intensifica investițiile în zona enterprise, unde percepția din piață ar fi că Anthropic are un avans, cu o acoperire mai largă în rândul clienților companii. Informațiile sunt prezentate ca „surse” și „persoane familiarizate cu subiectul”, ceea ce înseamnă că detaliile pot suferi modificări până la confirmări oficiale. [...]

OpenAI își extinde generatorul de imagini în ChatGPT cu două moduri, dintre care unul este rezervat abonaților plătitori , într-o mișcare care poate conta direct în competiția pentru utilizatori și venituri recurente înaintea unei posibile listări la bursă, potrivit Gizmodo . Noul model, numit „ ChatGPT Images 2.0 ”, a fost prezentat într-un livestream, iar compania îl descrie drept un salt major față de versiunile anterioare. În materialul promoțional difuzat înaintea evenimentului, OpenAI îl numește o „renaștere” a generării de imagini, iar CEO-ul Sam Altman a susținut că progresul ar fi comparabil cu „trecerea de la GPT-3 la GPT-5 dintr-odată”. Ce se schimbă operațional: două moduri și acces diferențiat Modelul vine cu două moduri de utilizare: „Instant” : un mod rapid, descris ca o versiune revizuită a unui generator tipic de imagini; este disponibil „acum” pentru toți utilizatorii ChatGPT și pentru utilizatorii de API. „Thinking” : un mod mai complex, disponibil doar pentru abonații Plus, Pro și Business . OpenAI susține că noul model are capabilități multilingve, „inteligență vizuală” mai bună și o atenție mai mare la detalii. Cercetătorii companiei au afirmat că greșelile de tipar sunt „foarte rare”. De ce contează pentru business: utilizatori, abonamente și o posibilă IPO Gizmodo leagă lansarea de eforturile OpenAI de a-și îmbunătăți profilul financiar înaintea unei IPO despre care se spune că ar putea avea loc chiar în acest an. Publicația notează că firma ar fi încă departe de profitabilitate, în pofida creșterii cheltuielilor, și menționează că OpenAI a trecut la o structură de „public benefit corporation” cu scop lucrativ și ar fi renunțat la generatorul video Sora pentru a reduce costurile. În acest context, un nou val de popularitate pentru generarea de imagini ar putea ajuta ChatGPT să crească indicatori urmăriți de investitori, precum utilizatorii activi. OpenAI a anunțat în februarie că ChatGPT a depășit 900 de milioane de utilizatori activi săptămânal , iar Gizmodo sugerează că Images 2.0 ar putea împinge cifra spre pragul de 1 miliard . Miza competitivă: presiune din partea Google și Anthropic Articolul plasează lansarea și în logica rivalității cu Google și Anthropic. Gizmodo amintește că Google și-a actualizat anul trecut generatorul de imagini „Nano Banana Pro” și a lansat Gemini 3, iar OpenAI ar fi declarat intern „cod roșu” după reacția pozitivă la aceste produse. În paralel, Anthropic ar fi câștigat teren cu modele „agentice” (capabile să execute sarcini mai autonom), precum Claude Cowork și Claude Code. În plus, Gizmodo menționează un raport The Wall Street Journal (fără a oferi link în textul extras) potrivit căruia și CEO-ul Nvidia, Jensen Huang, ar fi îngrijorat de poziția OpenAI pe piață; un succes al noului generator de imagini ar putea reduce aceste temeri. Limitări și semne de întrebare Deși OpenAI promovează acuratețea, Gizmodo notează că imagini atribuite modelului apărute pe platforme de testare ar fi inclus și erori evidente, precum o hartă a lumii cu țări inventate și capitale plasate greșit (de exemplu, Nairobi poziționat în Arabia Saudită). OpenAI ar fi confirmat în livestream că modelul fusese testat pe platforme terțe sub nume de cod diferite. Pentru utilizatori și companii, diferența practică imediată rămâne accesul: capabilitățile avansate sunt împinse în zona de abonament, ceea ce poate transforma generatorul de imagini într-un instrument de conversie către planurile plătite, nu doar într-o funcție „virală”. [...]

YouTube extinde „likeness detection” către industria de divertisment, mărind capacitatea de a bloca deepfake-uri cu fețe de celebrități , într-o mișcare cu impact operațional direct asupra modului în care platforma gestionează conținutul generat de inteligență artificială, potrivit TechCrunch . Tehnologia funcționează similar cu sistemul Content ID (folosit pentru identificarea materialelor protejate de drepturi de autor), dar este orientată către „fețe simulate”: scanează videoclipurile încărcate pentru a găsi potriviri vizuale cu chipul unei persoane înscrise în program și permite inițierea unor acțiuni de eliminare sau raportare. Cine intră în program și cum se folosește YouTube spune că instrumentul devine disponibil pentru actori din industria de divertisment, inclusiv: agenții de talente, companii de management, celebritățile pe care acestea le reprezintă. Compania afirmă că are sprijinul unor agenții majore precum CAA, UTA, WME și Untitled Management, care au oferit feedback pentru noul instrument. Un detaliu important operațional: utilizarea instrumentului nu cere ca entertainerii să aibă propriul canal de YouTube. Ce opțiuni au cei vizați când apare un „match” După detectarea unei potriviri, utilizatorii pot: solicita eliminarea videoclipului pentru încălcarea politicii de confidențialitate, depune o cerere de eliminare pe drepturi de autor, să nu facă nimic. YouTube precizează că nu va elimina automat orice conținut, deoarece regulile platformei permit parodia și satira. Context: extindere treptată și legătură cu reglementarea Tehnologia a fost testată inițial într-un program pilot, disponibil anul trecut pentru un subset de creatori. Ulterior, a fost extinsă mai larg, incluzând în această primăvară politicieni, oficiali guvernamentali și jurnaliști. În paralel, compania susține la nivel federal în SUA inițiativa NO FAKES Act , care ar urma să reglementeze folosirea inteligenței artificiale pentru recreări neautorizate ale vocii și asemănării vizuale ale unei persoane. YouTube mai spune că, pe viitor, tehnologia va include și suport pentru audio. Ce nu se știe încă despre eficiența instrumentului Compania nu a comunicat câte eliminări de deepfake-uri au fost gestionate până acum prin acest instrument. Potrivit TechCrunch, YouTube a menționat în martie că numărul eliminărilor era încă „foarte mic”. [...]

Meta își extinde supravegherea internă a muncii pentru a genera date de antrenare IA , printr-un instrument care va rula pe computerele și aplicațiile interne și va înregistra activitatea angajaților, inclusiv tastele apăsate și clicurile de mouse, potrivit G4Media . Miza operațională este dublă: compania își accelerează dezvoltarea de inteligență artificială folosind date „din producție”, dar crește și presiunea asupra angajaților într-un moment în care sunt așteptate noi reduceri de personal. Instrumentul a fost comunicat angajaților marți și, conform informațiilor din material, va înregistra activitatea din sistemele interne pentru a fi folosită ca set de date la antrenarea tehnologiei de inteligență artificială. BBC a aflat că activitatea angajaților pe un computer Meta ar fi fost accesibilă companiei și înainte, însă utilizarea explicită a urmăririi și înregistrării în scop de instruire și îmbunătățire a instrumentelor IA este elementul nou. Ce se schimbă în practică Din descrierea din articol, noul instrument ar urma să ruleze pe: computerele angajaților Meta; aplicațiile interne ale companiei, și să înregistreze activitatea acestora pentru a o transforma în date de antrenare pentru modele de inteligență artificială. Reacțiile interne citate de BBC indică tensiuni: un angajat care a cerut anonimatul a descris situația drept „foarte distopică”, iar o persoană care a părăsit recent compania a spus că este „doar cea mai recentă modalitate prin care ne impun IA pe gât”. Context: reduceri de personal și înghețarea angajărilor Schimbarea vine pe fondul restructurărilor. Meta a concediat deja aproximativ 2.000 de angajați în acest an, în valuri mai mici, iar angajații se așteaptă la pierderi de locuri de muncă mai mari în lunile următoare, conform articolului. Totodată, luna trecută compania a adoptat o înghețare parțială a angajărilor, care „pare să aibă o amploare mai mare”: site-ul de recrutare folosit de Meta afișa aproximativ 800 de anunțuri în martie, iar acum promovează doar șapte. Un purtător de cuvânt al Meta a refuzat să comenteze eliminarea anunțurilor sau planurile de reduceri, potrivit materialului. De ce contează pentru business Din perspectivă operațională, Meta încearcă să-și alimenteze rapid proiectele de inteligență artificială cu date generate din activitatea internă, într-un moment în care Mark Zuckerberg s-a angajat să crească cheltuielile pentru IA în acest an și să poziționeze compania în fruntea tehnologiei. În același timp, măsura amplifică riscurile de climat intern și de retenție a talentelor, mai ales pe fondul concedierilor și al înghețării angajărilor descrise în articol. [...]

YouTube extinde un instrument de detectare a „asemănării” pentru a limita deepfake-urile cu celebrități , într-o mișcare cu impact operațional direct asupra modului în care platforma gestionează conținutul generat cu inteligență artificială, potrivit Android Authority . Noua extindere le oferă acces la funcție agențiilor de talente, companiilor de management și celebrităților, care vor putea cere eliminarea clipurilor ce le folosesc imaginea fără acord. Miza este reducerea răspândirii videoclipurilor care imită persoane reale prin tehnici de tip deepfake (conținut audio-video generat sau modificat cu ajutorul IA pentru a reproduce chipul ori vocea cuiva). YouTube spune că problema „furtului de identitate” prin IA este în creștere, iar extinderea instrumentului ar putea diminua semnificativ astfel de materiale pe platformă. Cum funcționează „likeness detection” și ce se schimbă pentru utilizatori Instrumentul este descris ca funcționând într-un mod similar cu Content ID (sistemul YouTube care identifică materiale protejate de drepturi de autor), însă în loc să caute potriviri de conținut, scanează platforma după materiale generate de IA care folosesc „asemănarea” unei persoane participante la program. Dacă utilizatorul identifică un videoclip care îi folosește imaginea fără aprobare, poate solicita eliminarea acelui conținut. Extinderea către industria de divertisment înseamnă, practic, că: agențiile de talente , companiile de management , celebritățile vor putea utiliza acest mecanism pentru a depista și raporta clipuri care le folosesc neautorizat chipul sau vocea. Context: extinderi succesive din 2024 până în prezent Funcția a fost anunțată inițial în 2024, când un grup restrâns de utilizatori a primit posibilitatea de a semnala și cere eliminarea conținutului generat de IA care le imită fața sau vocea. Ulterior, „mai devreme anul acesta”, YouTube a extins accesul la instrument și pentru oficiali guvernamentali, jurnaliști și candidați politici . YouTube a comunicat extinderea într-o postare pe blogul companiei, disponibilă aici: YouTube Blog . [...]

YouTube extinde către industria de divertisment un instrument de detectare a feței și vocii, care le permite persoanelor vizate să ceară rapid eliminarea conținutului „deepfake” (falsuri generate cu inteligență artificială), într-o mișcare ce poate schimba modul în care sunt gestionate identitatea digitală și riscurile operaționale pe platformă, potrivit IT之家 . Tehnologia funcționează similar cu sistemul Content ID al YouTube, folosit pentru identificarea muzicii și a fragmentelor video protejate de drepturi de autor. Diferența este că noul instrument nu „scanează” melodii sau secvențe din filme, ci urmărește potriviri legate de trăsături faciale și amprente vocale, pentru a identifica materiale audio-video generate de AI care copiază aspectul sau vocea unei alte persoane. Când sistemul marchează un posibil conținut potrivit, persoana afectată poate verifica materialul și poate solicita eliminarea lui. Miza, în logica platformei, este reducerea dependenței de raportările obișnuite, care tind să fie mai lente, și oferirea unei căi mai directe de protecție pentru „identitatea digitală” a celor vizați. Cine poate folosi instrumentul și ce se schimbă operațional YouTube spune că accesul nu este limitat la creatorii de conținut: actorii, artiștii și alți profesioniști din divertisment pot utiliza instrumentul chiar dacă nu dețin sau nu administrează un canal pe YouTube. Platforma a început să testeze măsura încă din 2024, inițial cu un grup restrâns. Ulterior, la începutul acestui an, utilizarea a fost extinsă și către oficiali guvernamentali, candidați politici și jurnaliști. Parteneriate pentru calibrarea sistemului Pentru optimizarea instrumentului, YouTube a lucrat cu mai multe agenții și firme de management din industrie, inclusiv CAA, UTA, WME și Untitled Management, conform aceleiași surse. [...]