Știri
Știri din categoria Inteligență artificială

Modelul chinezesc Seedance 2.0 a stârnit reacții dure la Hollywood, după ce a generat videoclipuri extrem de realiste cu vedete în scene fictive, declanșând acuzații de încălcare a drepturilor de autor și temeri privind impactul asupra industriei filmului. Potrivit CNN, noul instrument dezvoltat de ByteDance, compania cunoscută pentru aplicația TikTok, este considerat unul dintre cele mai avansate modele de generare video cu inteligență artificială lansate până acum.
În ultimele zile, pe rețelele sociale au devenit virale clipuri cu Tom Cruise și Brad Pitt în lupte spectaculoase, Donald Trump în scene de arte marțiale sau Kanye West cântând în mandarină într-un decor imperial chinez. Toate au fost create cu Seedance 2.0, care combină text, imagine, sunet și video pentru a produce rapid secvențe cinematografice cu un grad ridicat de realism.
Reacția studiourilor americane nu a întârziat. Paramount și Disney au transmis notificări oficiale către ByteDance, acuzând utilizarea neautorizată a proprietății intelectuale. Motion Picture Association și sindicatul SAG-AFTRA au condamnat, la rândul lor, folosirea operelor protejate de legislația americană.
Printre principalele temeri se numără:
Un blogger chinez a susținut că aplicația a reprodus fidel vocea sa doar pe baza unei imagini, ceea ce a alimentat discuțiile despre falsuri video și riscuri pentru viața privată. Ulterior, ByteDance a retras funcția și a introdus verificări suplimentare pentru crearea avatarurilor digitale.
Lansarea modelului coincide cu înăsprirea controalelor asupra conținutului generat de inteligență artificială în China. Administrația Spațiului Cibernetic a anunțat recent sancționarea a peste 13.000 de conturi pentru publicarea de materiale generate de inteligență artificială fără etichetare corespunzătoare.
Analiștii spun că Beijingul încearcă să mențină un echilibru între susținerea inovației și controlul strict al conținutului. În același timp, disputa evidențiază rivalitatea tehnologică dintre China și Statele Unite, comparată de experți cu o nouă cursă spațială, de această dată în domeniul inteligenței artificiale.
Presiunile privind accesul la date pentru antrenarea modelelor pot influența evoluția industriei. În timp ce Disney a acuzat ByteDance că a folosit ilegal proprietate intelectuală pentru antrenarea modelului, compania americană a încheiat recent un acord cu OpenAI pentru utilizarea unor personaje celebre în modelul său video.
Miza depășește cazul punctual: ritmul accelerat al inovației ridică întrebări despre limitele tehnologice, protecția drepturilor de autor și capacitatea statelor de a reglementa un domeniu care evoluează mai rapid decât reacția legislativă.
Recomandate

Cheltuielile cu inteligența artificială în Asia-Pacific ar urma să urce la 370 miliarde de dolari în 2029 , de peste cinci ori față de nivelul din 2024, potrivit unei prognoze IDC citate de IT Home . Ritmul implicat este unul accelerat: IDC estimează o rată anuală compusă de creștere (CAGR) de 38,4% pentru perioada până în 2029. Un element cu greutate pentru companii este că aproape jumătate din bugetul total ar urma să fie direcționat către AI generativă (GenAI) — 47,4% din total, adică aproximativ 175 miliarde de dolari (aprox. 805 miliarde lei). Pentru acest segment, IDC indică un CAGR de 68,2%, semnalând că GenAI devine principalul motor al investițiilor, nu doar o extensie a proiectelor existente. Unde se duc banii: infrastructura rămâne cea mai mare linie de cheltuieli Din perspectiva utilizărilor, IDC arată că „furnizarea de infrastructură AI” este cea mai mare componentă individuală, cu circa 39% din cheltuielile totale. Practic, o parte semnificativă din creșterea pieței este susținută de investiții în capacitate tehnică (hardware, centre de date și resurse asociate), necesară pentru rularea și scalarea modelelor. Schimbare de etapă: de la proiecte izolate la ecosisteme la nivel de companie IDC mai apreciază că piața AI din Asia-Pacific intră într-o nouă fază: accentul se mută de la construcția de infrastructură către integrarea platformelor și operarea la scară mai mare. În această logică, organizațiile ar trece de la cazuri de utilizare izolate la ecosisteme integrate, la nivel de întreprindere, iar adoptarea AI s-ar extinde atât ca profunzime, cât și ca arie de utilizare. În ansamblu, prognoza indică o presiune crescândă pe bugetele de tehnologie din regiune, cu două direcții dominante: investiții mari în infrastructură și o accelerare puternică a AI generative, care captează o pondere tot mai mare din cheltuieli. [...]

Spitalele din SUA accelerează implementarea de chatboți medicali proprii , mizând pe faptul că pacienții caută deja răspunsuri la întrebări de sănătate în modele de inteligență artificială, dar fără ca beneficiile clinice să fie încă demonstrate. Tendința, descrisă de Ars Technica , ridică însă probleme operaționale imediate: monitorizare, responsabilitate și riscul ca instrumentele să fie promovate mai repede decât poate fi controlată calitatea răspunsurilor. În logica spitalelor și a furnizorilor de tehnologie, chatboții „de brand” ar urma să fie mai siguri decât variantele comerciale folosite de public, pentru că pot funcționa „în interiorul” sistemului medical, conectate la dosarul pacientului și la echipa de îngrijire. K Health, partener cu Hartford HealthCare (Connecticut), lansează PatientGPT către zeci de mii de pacienți existenți, iar conducerea companiei descrie momentul drept un „punct de inflexiune” în care cererea pacienților pentru astfel de instrumente crește. Cererea există, dar motivele sunt și economice, și de acces Contextul din spatele valului de adopție este un sistem medical american care, deși operează într-o economie foarte bogată, are rezultate mai slabe decât alte țări cu venituri ridicate, inclusiv la speranța de viață și decese evitabile, potrivit unor analize citate în material. În plus, un raport din 2023 indică faptul că aproape o treime dintre americani — peste 100 de milioane de persoane — nu au un medic de familie. Pe acest fond, utilizarea chatboților de inteligență artificială pentru informații medicale a devenit deja un comportament de masă. Un sondaj KFF citat de Ars Technica arată că 1 din 3 adulți a folosit un chatbot AI pentru informații de sănătate, iar dintre cei care au folosit astfel de instrumente, 41% au încărcat informații medicale personale (de exemplu, rezultate de analize). Motivele invocate includ: 19%: nu își permit îngrijirea medicală; 18%: nu au un furnizor medical obișnuit sau nu pot obține o programare; 65%: vor un răspuns rapid. Materialul notează și un element cu impact operațional: mulți utilizatori nu au mers ulterior la medic după „consultația” cu AI, inclusiv 58% dintre cei care au întrebat despre sănătate mintală și 42% dintre cei care au întrebat despre sănătate fizică. Riscul: performanță mai slabă în lumea reală și „halucinații” medicale Ars Technica trece în revistă avertismentele tot mai frecvente despre calitatea răspunsurilor. Un studiu publicat în Nature Medicine, cu aproape 1.300 de participanți, a evaluat acuratețea unor modele (GPT-4o, Llama 3 și Command R+) în interacțiuni „din lumea reală”. Când cercetătorii au furnizat modelelor descrieri standardizate ale unor scenarii medicale, acestea au identificat corect afecțiunea în circa 95% din cazuri și „pasul următor” corect în circa 56% din cazuri. Însă când participanții au formulat singuri întrebările pentru aceleași scenarii, modelele au identificat corect afecțiunea doar în aproximativ o treime din cazuri și au indicat pasul următor potrivit în 43% din cazuri. Un alt risc ține de contaminarea cu informații false: Nature News a relatat recent despre „bixonimania”, o afecțiune inventată de cercetători din Suedia, care a ajuns să fie discutată de modele AI după ce au fost publicate online două studii false (ulterior retrase). Cum arată „industrializarea” chatboților în spitale: PatientGPT și Emmie În ciuda acestor semnale, implementările avansează. PatientGPT a fost lansat în versiune beta luna trecută pentru un grup selectat, iar extinderea către zeci de mii de pacienți urma să continue în această săptămână, potrivit Stat News (citat de Ars Technica). Hartford a publicat și un preprint (studiu ne-evaluat inter pares) pe 75 de participanți, care sugerează că testarea iterativă („red teaming”, adică testare adversarială pentru a găsi erori) a redus rata de eșec în scenarii „cu risc ridicat” de la 30% la 8,5%. Ars Technica notează însă că semnificația practică a acestui rezultat rămâne neclară, inclusiv cât de grave sunt eșecurile rămase. Potrivit descrierii citate, PatientGPT ar funcționa în două moduri: un mod general de întrebări și răspunsuri medicale, care poate incorpora informații despre pacient; un mod de „triaj/înregistrare” („medical intake”), în care pacientul introduce simptome, iar chatbotul urmează fluxuri clinice; după colectarea informațiilor, recomandă un pas următor (programare la medicul de familie sau îngrijire urgentă/urgență). Dacă recomandă urgența, chatbotul se oprește din a mai răspunde. Cheia, din perspectivă operațională, este supravegherea: în pilot, Hartford monitoriza fiecare interacțiune, dar odată cu extinderea va trece la revizuirea umană a 20 de interacțiuni pe zi, în timp ce un alt agent AI va monitoriza restul; în plus, vor fi făcute analize „în lot” la fiecare 1.000 de conversații. Separat, Epic (compania din spatele sistemului de dosare medicale electronice MyChart) lansează Emmie, un asistent AI integrat în portal, implementat treptat de unele sisteme de sănătate, inclusiv Sutter Health (California) și Reid Health (Indiana). În documentația Sutter, Emmie este prezentat ca un instrument care poate răspunde la întrebări generale și poate găsi sau rezuma informații deja vizibile în fișa pacientului, dar cu limitări explicite: nu oferă sfaturi medicale personalizate și nu ia decizii de îngrijire. Ce rămâne de urmărit Dincolo de promisiunea de „acces 24/7” și de direcționare către servicii, materialul subliniază o problemă de fond: experți citați avertizează că nu există încă o bază solidă de dovezi că integrarea chatboților în sistemele medicale îmbunătățește rezultatele pentru pacienți. În paralel, extinderea rapidă a acestor instrumente mută discuția din zona de experiment în cea de operare la scară, unde întrebările despre monitorizare, răspundere și controlul erorilor devin decisive. [...]

Oura integrează un model AI dedicat sănătății femeilor în chatbotul din aplicație , mizând pe răspunsuri „bazate pe dovezi” și pe date biometrice din inel, într-o zonă în care riscurile de confidențialitate și de utilizare greșită a informațiilor medicale rămân sensibile, potrivit CNET . Modelul, lansat inițial în februarie ca primul model AI proprietar al companiei, este disponibil din 8 aprilie în Oura Advisor (chatbotul AI din aplicație), după o perioadă de testare în secțiunea Oura Labs. Scopul declarat este să răspundă la întrebări despre menopauză, ciclul menstrual, fertilitate și alte subiecte de sănătate a femeilor, într-un mod „de sprijin” care să nu minimizeze preocupările utilizatoarelor. Cum funcționează modelul și ce promite utilizatorilor Oura spune că modelul a fost creat de echipa proprie de medici certificați și experți în sănătatea femeilor și că este un „model lingvistic de mari dimensiuni” (un tip de AI antrenat să înțeleagă și să genereze text) construit pe baza componentelor de AI generativ din Oura Advisor, împreună cu algoritmii de monitorizare biometrică ai companiei. În practică, când utilizatoarea pune o întrebare, sistemul ar combina două surse: o bibliotecă „curatoriată” de cercetare despre sănătatea femeilor; datele colectate de Oura Ring , pentru a oferi răspunsuri pe care compania le descrie ca fiind bazate pe dovezi. Un alt obiectiv menționat este utilitatea în pregătirea consultațiilor medicale, prin explicarea a ceea ce este „tipic”, a ceea ce ar putea indica datele purtabilei și a punctelor relevante de discutat cu medicul. Ce spune compania despre confidențialitate Pe partea de date, Oura afirmă că nu va vinde sau închiria datele de sănătate și că nu va partaja informații sensibile fără consimțământul utilizatorului, conform poziției companiei citate în articol. Materialul CNET notează explicit că, dincolo de acces și funcționalitate, utilizatorii ar trebui să fie atenți la aspectele de confidențialitate. [...]

Google.org alocă încă 15 milioane de dolari (aprox. 69 mil. lei) pentru cercetare independentă despre impactul AI , extinzând finanțarea programului Digital Futures Fund și orientând-o spre teme cu efect direct asupra economiei, infrastructurii și guvernanței tehnologiei, potrivit Google Blog . Finanțarea vizează un nou „cohort” (grup) de think tank-uri și instituții academice care să analizeze implicațiile inteligenței artificiale, într-un moment în care deciziile de politici publice și investițiile în infrastructură sunt influențate tot mai mult de ritmul adoptării AI. Ce se finanțează: trei direcții cu miză economică și de politici publice Google.org spune că noul val de cercetări se va concentra pe trei „piloni”: Muncă și economie : impactul AI asupra pieței muncii, transformări pe sectoare (inclusiv producție și sănătate) și politici necesare pentru a crește oportunitățile pentru forța de muncă. Inovație și infrastructură : cerințe de infrastructură și consum energetic pentru a susține dezvoltarea și utilizarea AI, plus legătura cu competitivitatea la nivel național. Securitate și guvernanță : cadre pentru „inovație responsabilă” și evaluarea modului în care AI poate întări securitatea instituțiilor și a companiilor. Dimensiunea programului și organizații incluse Google.org precizează că această extindere duce angajamentul total pentru Digital Futures Fund la peste 35 milioane de dolari la nivel global de la lansare. Între organizațiile menționate ca parte a cohortei 2026 se numără American Compass, The Center for Strategic and International Studies , Urban Institute și Centro Nacional de Inteligencia Artificial (CENIA). De ce contează Accentul pus pe infrastructură, energie, piața muncii și guvernanță indică o direcție în care cercetarea finanțată va alimenta dezbateri și decizii cu impact economic: de la costurile și capacitatea infrastructurii necesare pentru AI, până la politici pentru adaptarea forței de muncă și cadre de securitate. Google.org nu detaliază în material cum vor fi distribuite sumele pe organizații sau proiecte și nici calendarul livrabilelor de cercetare. [...]

Google pune la dispoziția dezvoltatorilor Gemini Robotics-ER 1.6 prin API, mizând pe autonomie mai mare în roboți potrivit Google Blog , care prezintă o versiune actualizată a modelului „reasoning-first” (axat pe raționament) pentru sarcini din lumea reală. Modelul, denumit Gemini Robotics-ER 1.6, este descris ca un upgrade care îmbunătățește „logica spațială” și „înțelegerea multi-view” (capacitatea de a integra mai multe perspective vizuale) pentru a crește autonomia agenților fizici. În termeni practici, Google indică trei zone-cheie pentru robotică: înțelegere vizuală și spațială, planificarea sarcinilor și detectarea reușitei unei sarcini. Ce se schimbă operațional pentru dezvoltatori Începând de astăzi (14 aprilie 2026), Gemini Robotics-ER 1.6 este disponibil dezvoltatorilor prin: Gemini API; Google AI Studio. Această disponibilitate prin canale standard de dezvoltare sugerează o orientare către integrare mai rapidă în aplicații și prototipuri de robotică, fără ca materialul să ofere însă detalii despre prețuri, limite de utilizare sau condiții comerciale. O capabilitate nouă: citirea instrumentelor industriale Google menționează „instrument reading” ca funcție nouă, adică abilitatea roboților de a citi indicatoare și elemente precum manometre și „sight glasses” (vizor/indicator de nivel). Compania spune că această capabilitate a fost identificată în urma unei colaborări cu Boston Dynamics . Siguranță: „cel mai sigur model” de robotică al companiei, conform Google În aceeași prezentare, Google afirmă că Gemini Robotics-ER 1.6 este „cel mai sigur” model de robotică al său de până acum și că demonstrează o conformare mai bună la politicile de siguranță în teste de raționament spațial adversarial (scenarii concepute să forțeze erori). Materialul nu include rezultate numerice sau metodologie de evaluare, astfel că amploarea îmbunătățirilor nu poate fi cuantificată din informațiile publicate. [...]

Evaluarea de 852 mld. dolari (aprox. 3.900 mld. lei) a OpenAI este pusă sub semnul întrebării de unii dintre propriii investitori , pe fondul schimbărilor repetate de strategie și al pivotării către clienți corporate, potrivit The Next Web , care citează Financial Times. Îngrijorările vizează „turbulența” strategică din ultimele luni: OpenAI și-a revizuit de două ori foaia de parcurs a produselor în șase luni, mai întâi sub presiunea competiției cu Google, apoi cu Anthropic , și a renunțat între timp la mai multe inițiative, inclusiv lansarea Sora pentru generare video și un chatbot „adult”. Unii investitori au spus pentru Financial Times că aceste schimbări rapide pot lăsa compania vulnerabilă în fața Anthropic și a unui Google aflat în revenire, în timp ce OpenAI se pregătește pentru o posibilă listare la bursă chiar din trimestrul IV 2026. Un investitor timpuriu a criticat direcția companiei, invocând creșterea ChatGPT și întrebând de ce OpenAI „vorbește despre enterprise și cod”, concluzionând că este „o companie profund nefocusată”. Separat, Jai Das, președintele Sapphire Ventures (care nu investește în OpenAI sau Anthropic), a comparat OpenAI cu „Netscape of AI”, sugerând riscul de a fi depășită într-o piață care se consolidează rapid. Un alt investitor, care a finanțat ambele companii, a spus că pentru a justifica ultima rundă de finanțare ar trebui presupusă o evaluare la IPO de cel puțin 1,2 trilioane de dolari (aprox. 5.500 mld. lei). Răspunsul OpenAI: finanțare record și pondere în creștere a veniturilor enterprise Conducerea OpenAI a respins criticile. Directoarea financiară Sarah Friar a indicat runda de finanțare de 122 mld. dolari (aprox. 560 mld. lei) închisă luna trecută — descrisă drept cea mai mare rundă privată din istoria Silicon Valley — ca dovadă a încrederii investitorilor, între care sunt menționați SoftBank, Amazon, Nvidia, Andreessen Horowitz, Sequoia Capital și Thrive Capital, alături de peste 25 de investitori. „Sugestia că investitorii nu susțin strategia noastră contrazice faptele”, a spus Friar. „Runda noastră, cea mai mare din istorie, a fost suprasubscrisă, închisă în timp record și susținută de un set larg de investitori globali.” Friar a mai declarat pentru CNBC că segmentul enterprise reprezintă acum 40% din veniturile totale ale OpenAI și este pe cale să ajungă la nivelul business-ului de consum până la finalul lui 2026. Miza competitivă: venituri „annualizate” și disputa de contabilizare cu Anthropic În centrul tensiunilor se află ritmul de creștere al veniturilor Anthropic. Potrivit materialului, venitul annualizat (run rate) al companiei care dezvoltă Claude ar fi urcat de la aproximativ 9 mld. dolari la final de 2025 la 30 mld. dolari la final de martie 2026, pe fondul cererii pentru instrumente de programare. OpenAI susține că a atins 25 mld. dolari venit annualizat în februarie. Diferența a declanșat o reacție dură din partea noului director comercial (CRO) al OpenAI, Denise Dresser (angajată în decembrie 2025, venind din rolul de CEO al Slack). Într-un memo intern, Dresser a acuzat Anthropic că și-ar supraevalua run rate-ul cu circa 8 mld. dolari, din cauza unei diferențe de raportare: Anthropic ar înregistra „brut” (gross) veniturile generate prin parteneri de distribuție în cloud (Amazon Web Services și Google Cloud), în timp ce OpenAI ar raporta „net” (după deducerea părții partenerului) veniturile din parteneriatul cu Microsoft. Articolul precizează că ambele abordări sunt permise de standardele contabile americane (US GAAP). Dacă analiza OpenAI ar fi corectă, run rate-ul comparabil al Anthropic ar fi mai aproape de 22 mld. dolari, nu de 30 mld. dolari. Anthropic a contestat interpretarea, iar o persoană apropiată companiei a spus pentru Financial Times că recunoaște veniturile „brut” prin parteneri deoarece este „principalul” în tranzacție, iar partenerii cloud sunt canalul de distribuție. Ce urmează: capacitate de calcul și ofensiva pe enterprise OpenAI vizează 30 gigawați de capacitate de calcul până în 2030 și le-a spus investitorilor că a securizat deja 8 gigawați, susținând că Anthropic nu ar ajunge la acest nivel până la finalul lui 2027. În memo-ul intern, Dresser a recunoscut că focusul Anthropic pe programare i-a oferit un avantaj inițial în enterprise, dar a argumentat că o poziționare îngustă, centrată pe dezvoltatori, poate deveni o vulnerabilitate pe măsură ce utilizarea AI se extinde dincolo de echipele de inginerie. Documentul a enumerat și priorități pentru trimestrul al doilea, inclusiv un nou model cu nume de cod „Spud”, dezvoltarea platformei de agenți „Frontier”, extinderea printr-un parteneriat anunțat cu Amazon și construirea unui „motor de implementare” numit DeployCo. [...]