Știri
Știri din categoria Inteligență artificială

OpenAI va testa reclame în ChatGPT potrivit arstechnica.com, pe fondul presiunilor financiare și al investițiilor masive planificate în infrastructură pentru inteligență artificială. Compania nu se așteaptă să devină profitabilă înainte de 2030 și și-a asumat cheltuieli de aproximativ 1,4 trilioane de dolari pentru centre de date și cipuri.
Conform documentelor financiare obținute în noiembrie de The Wall Street Journal, OpenAI estimează că va „arde” circa 9 miliarde de dolari în 2026, în timp ce ar genera venituri de 13 miliarde de dolari. În același timp, doar aproximativ 5% dintre cei 800 de milioane de utilizatori săptămânali ai ChatGPT plătesc abonamente, ceea ce nu ar acoperi costurile operaționale totale.

Nu toată lumea este convinsă că publicitatea poate rezolva problema. Criticul tech Ed Zitron a scris pe Bluesky că este „extrem de pesimist” în privința produsului de reclame, argumentând că, chiar dacă ar deveni o linie bună de business, costurile serviciilor OpenAI sunt prea mari ca impactul să fie semnificativ.
Inițiativa pare, totodată, în tensiune cu poziții publice anterioare ale CEO-ului Sam Altman, care a vorbit despre un disconfort specific la combinația dintre reclame și inteligență artificială, mai ales dacă presiunea comercială ar ajunge să influențeze răspunsurile chatbotului.
„Când mă gândesc la GPT care îmi scrie un răspuns, dacă ar trebui să mă duc să aflu exact cât din asta e influențat de cine plătește aici ca să influențeze ce mi se arată, nu cred că mi-ar plăcea.”
Din informațiile prezentate, OpenAI încearcă un compromis: reclamele ar urma să fie afișate ca bannere în partea de jos a răspunsurilor, separate de istoricul conversației, pentru a evita apariția conținutului sponsorizat direct în textul generat. Compania susține că ieșirea (răspunsul) asistentului nu va fi influențată de advertiseri.
Din perspectiva utilizatorilor și a eticii, testarea reclamelor ridică o problemă centrală: încrederea că răspunsurile rămân independente și „utile obiectiv”, nu optimizate pentru venituri. Chiar dacă OpenAI promite separarea strictă între publicitate și conținutul generat, simpla introducere a reclamelor poate alimenta suspiciuni privind conflicte de interese, mai ales în situații în care recomandările (produse, servicii, informații) pot avea miză comercială. În acest context, KPI-urile relevante devin nivelul de încredere al utilizatorilor și feedback-ul comunității, care pot indica rapid dacă utilizatorii percep reclamele ca pe o degradare a integrității răspunsurilor sau ca pe un compromis acceptabil pentru finanțarea serviciului.
Recomandate

Cazul Tumbler Ridge pune presiune pe reglementare, după ce OpenAI a ales să nu alerteze poliția deși propriile sisteme au semnalat un risc : Sam Altman a transmis o scrisoare de scuze comunității din British Columbia, iar compania spune că și-a schimbat intern pragurile de raportare, însă măsurile rămân voluntare, într-un context în care Canada nu are o obligație legală pentru firmele de AI de a raporta amenințări identificate pe platformele lor, potrivit The Next Web . Altman afirmă în scrisoare că îi pare „profund rău” că OpenAI nu a alertat autoritățile cu privire la un cont blocat în iunie 2025, după ce sistemele companiei l-au semnalat. Scrisoarea este datată 23 aprilie și a fost făcută publică o zi mai târziu, la 72 de zile după atacul armat din 10 februarie din Tumbler Ridge, descris drept cel mai grav atac armat într-o școală din Canada din 1989 încoace. Ce a știut OpenAI și de ce nu a raportat Conform relatării, detecția automată a OpenAI a semnalat în iunie 2025 contul de ChatGPT al lui Jesse Van Rootselaar, atunci în vârstă de 18 ani. Aproximativ o duzină de angajați au revizuit conversațiile, care descriau scenarii cu violență armată, iar o parte dintre ei au recomandat contactarea poliției canadiene. Conducerea a respins recomandarea, invocând un „prag mai ridicat” pentru raportarea amenințărilor credibile și iminente; contul a fost închis, iar conversațiile au fost păstrate intern. Poliția nu a fost contactată. Atacul a avut loc opt luni mai târziu. Potrivit articolului, opt persoane au fost ucise și 27 rănite; autorul s-a sinucis la școală. OpenAI nu l-a mai detectat după ce acesta și-a făcut un al doilea cont, până când Poliția Călare Regală Canadiană (RCMP) a făcut public numele. Publicația notează că The Wall Street Journal a relatat prima dată disputa internă privind decizia de a nu raporta. Scrisoarea de scuze: fără angajamente concrete În scrisoarea adresată comunității, Altman spune că se gândește la cei afectați și reafirmă un angajament general de a lucra cu guvernele pentru a preveni tragedii similare. În același timp, materialul subliniază că scrisoarea nu include: angajamente de politică publică sau operaționale detaliate; o descriere a schimbărilor pe care OpenAI le-ar face; recunoașterea faptului că angajați au recomandat raportarea și au fost contraziși de conducere. Premierul provinciei British Columbia, David Eby, a numit scuzele „necesare”, dar „grosolan insuficiente” raportat la impactul asupra familiilor. Primarul din Tumbler Ridge, Darryl Krakowka, a confirmat primirea scrisorii și a cerut „grijă și considerație” pentru comunitate în perioada de doliu. Ce spune OpenAI că a schimbat și de ce contează pentru reglementare Angajamentele de politică au venit separat, într-o scrisoare a vicepreședintei pentru politici globale a OpenAI, Ann O’Leary, către miniștri federali canadieni. Compania afirmă că: a coborât pragul de raportare, astfel încât un utilizator nu mai trebuie să discute explicit „ținta, mijloacele și momentul” pentru ca un caz să fie trimis către forțele de ordine; a implicat experți în sănătate mintală și comportament pentru evaluarea cazurilor semnalate; a stabilit un punct de contact direct cu RCMP. O’Leary susține că, în baza politicilor actualizate, interacțiunile lui Van Rootselaar „ar fi fost trimise poliției” dacă ar fi fost descoperite astăzi. Totuși, articolul insistă asupra limitării-cheie: schimbările sunt voluntare, nu sunt obligatorii prin lege și pot fi inversate. „Golul” legal din Canada și ce urmează Potrivit sursei, Canada nu are în prezent o lege care să oblige companiile de inteligență artificială să raporteze amenințări identificate prin platformele lor, iar guvernul federal nu a introdus încă una. Ministrul canadian al AI, Evan Solomon, a spus că angajamentele OpenAI „nu merg suficient de departe”. În paralel, miniștri federali din mai multe portofolii au avut întâlniri cu reprezentanți OpenAI după ce guvernul a convocat conducerea companiei la finalul lunii februarie. Un grup de lucru comun între Innovation, Science and Economic Development Canada și Public Safety Canada analizează protocoale de raportare pentru siguranța AI, cu recomandări preliminare așteptate până în vara lui 2026. Miza, în lectura The Next Web, este una de reglementare și responsabilitate: în lipsa unui standard extern, deciziile de a raporta sau nu rămân la latitudinea companiilor, chiar și atunci când sistemele lor semnalizează potențiale riscuri grave. [...]

Procesul dintre Elon Musk și Sam Altman riscă să complice planurile OpenAI de listare și să pună sub presiune modelul său de guvernanță, într-un moment în care compania este așteptată să iasă pe bursă la o evaluare de circa 1.000 de miliarde de dolari, potrivit The Guardian . Dosarul intră în judecată săptămâna aceasta, la un tribunal federal din Oakland, California, iar miza depășește conflictul personal: poate influența direcția „boom”-ului din inteligența artificială. Musk a dat în judecată OpenAI și pe directorul general Sam Altman în 2024, susținând că a fost încălcat acordul de fondare al organizației. OpenAI a fost creată în 2015 ca organizație non-profit, cu o misiune publicată la finalul acelui an, care afirma că scopul este avansarea „inteligenței digitale” în beneficiul umanității, fără constrângerea generării unui randament financiar. Ce cere Musk și de ce contează pentru listarea OpenAI În esență, Musk afirmă că Altman a încălcat înțelegerea inițială prin restructurarea OpenAI și transformarea unei părți semnificative într-o entitate orientată spre profit. De cealaltă parte, Altman și OpenAI susțin că Musk, care a părăsit compania în 2018 pe fondul unor dispute interne și între timp a lansat un rival în zona de inteligență artificială, acționează din frustrare. Pentru OpenAI, procesul are o miză directă, financiară și de guvernanță. Publicația notează că firma este așteptată să se listeze mai târziu în acest an la o evaluare de aproximativ 1.000 de miliarde de dolari, iar Musk cere inclusiv măsuri care ar putea afecta această traiectorie. Concret, Musk solicită o serie de remedii, între care: înlăturarea lui Sam Altman și a președintelui OpenAI, Greg Brockman; despăgubiri de peste 134 de miliarde de dolari (aprox. 603 miliarde lei), despre care Musk spune că ar fi redistribuite către brațul non-profit al OpenAI; inversarea restructurării către o entitate cu scop lucrativ, ceea ce ar complica planurile de listare. Calendarul procesului și actorii-cheie Selecția juraților începe luni, la tribunalul federal din Oakland, sub coordonarea judecătoarei Yvonne Gonzalez Rogers. Procesul este estimat să dureze două până la trei săptămâni. În instanță ar urma să apară nume grele din Silicon Valley. Pe lista celor așteptați să depună mărturie se află inclusiv Satya Nadella, directorul general al Microsoft, companie cu care OpenAI a încheiat acorduri pe care Musk le descrie drept parte a „monetizării” ulterioare. Cum se apără OpenAI: donație, nu investiție Potrivit materialului, Musk susține că a contribuit cu aproximativ 38 de milioane de dolari (aprox. 171 milioane lei) și că, după ce compania a beneficiat de bani și a avansat tehnologic, ar fi „schimbat narațiunea” către acorduri profitabile și afiliere cu entități comerciale. OpenAI respinge acuzațiile și afirmă că Musk ar fi fost de acord încă din 2017 că înființarea unei entități cu scop lucrativ era un pas necesar. Compania contestă și ideea că finanțarea lui Musk ar fi fost o investiție, susținând că a fost o donație deductibilă fiscal către organizația non-profit și că nu îi conferă drepturi de proprietate în OpenAI. Ce urmează: un test pentru guvernanța companiilor de IA Dincolo de detaliile personale și de corespondența internă care ar urma să fie discutată în instanță (emailuri, mesaje și însemnări), procesul pune în prim-plan o problemă cu impact de piață: cât de stabil este modelul de guvernanță al unei companii de inteligență artificială care pornește ca non-profit, atrage capital masiv și ajunge să opereze prin structuri comerciale. În funcție de deciziile instanței și de eventualele remedii impuse, OpenAI ar putea fi nevoită să-și apere mai agresiv arhitectura corporativă și planurile de listare, într-un moment în care investitorii și regulatorii urmăresc tot mai atent cum sunt controlate și monetizate tehnologiile de IA. [...]

Anthropic a urcat la o evaluare de aproximativ 1 trilion de dolari (aprox. 4,6 trilioane lei) în tranzacții pe piața secundară , un nivel care o plasează peste OpenAI și arată cât de repede se pot repoziționa așteptările investitorilor în AI, potrivit Mobilissimo . Evaluarea este indicată de platforme precum Forge Global și reflectă tranzacții între investitori pe piețe private, nu o cotație oficială de bursă. Anthropic nu este listată, iar interesul ridicat se traduce prin încercări ale investitorilor de a cumpăra acțiuni de la angajați sau investitori timpurii, într-un context cu puțini vânzători. Ce alimentează saltul de evaluare Creșterea este pusă pe seama cererii foarte mari pentru acțiunile companiei, susținută de interesul pentru produsele sale de inteligență artificială, în special asistentul de programare Claude. În unele cazuri, ofertele ar depăși chiar 1,1 trilioane de dolari (aprox. 5,1 trilioane lei), iar tranzacțiile s-ar închide rapid din cauza disponibilității reduse de acțiuni la vânzare. Un element important de context: în urmă cu doar trei luni, Anthropic era evaluată la aproximativ 380 de miliarde de dolari (aprox. 1,7 trilioane lei) după o rundă de finanțare. Potrivit unor investitori citați în material, pe lângă performanțele companiei, contribuie și fenomenul FOMO („teama de a rata oportunitatea”), care poate împinge prețurile în sus chiar și „indiferent de preț”. Efectul asupra competiției cu OpenAI În paralel, interesul pentru acțiunile OpenAI ar fi scăzut, iar unele tranzacții s-ar fi realizat sub evaluarea anterioară, menționată la circa 852 de miliarde de dolari (aprox. 3,9 trilioane lei). Schimbarea de sentiment sugerează o competiție mai dură în sectorul AI, în care percepția investitorilor poate muta rapid „clasamentul” companiilor, chiar și fără schimbări fundamentale majore. Materialul are ca sursă secundară Business Insider, menționat de Mobilissimo. [...]

Meta taie circa 10% din personal pentru a finanța investițiile masive în infrastructura de inteligență artificială , într-o mișcare de eficientizare care vine pe fondul creșterii accelerate a cheltuielilor de capital ale companiei, potrivit CNN . Compania a transmis că va concedia aproximativ 10% din forța de muncă, adică în jur de 8.000 de oameni. În paralel, Meta închide circa 6.000 de posturi deschise, a scris Janelle Gale, directorul de resurse umane, într-un memo publicat de Bloomberg și confirmat ulterior de Meta pentru CNN. Concedierile urmează să intre în vigoare pe 20 mai. „Facem asta ca parte a efortului nostru continuu de a conduce compania mai eficient și pentru a ne permite să compensăm celelalte investiții pe care le facem”, a scris Gale. De ce contează: costurile cu AI urcă, iar Meta caută spațiu în buget Decizia vine în contextul în care Meta, asemenea altor giganți tech, își majorează puternic bugetele pentru AI. Compania a cheltuit 72,2 miliarde de dolari (aprox. 325 miliarde lei) pe cheltuieli de capital în 2025, în principal pentru centre de date și infrastructură necesară AI. Pentru 2026, Meta a indicat în raportarea din ianuarie că se așteaptă ca suma să crească la cel puțin 115 miliarde de dolari (aprox. 518 miliarde lei). CNN notează și că Meta investește în recrutare pentru laboratorul său de „superinteligență” și a cumpărat startup-uri de AI precum Moltbook și Manus, în încercarea de a concura cu OpenAI și alți jucători. Semnal operațional: AI schimbă structura echipelor Mark Zuckerberg a sugerat la începutul anului că investițiile în AI ar putea aduce modificări ale forței de muncă. În conferința cu investitorii din ianuarie, el a numit 2026 „anul în care AI începe să schimbe dramatic felul în care lucrăm”. „Începem să vedem proiecte care înainte necesitau echipe mari, iar acum pot fi realizate de o singură persoană foarte talentată”, a spus Zuckerberg. Ce primesc angajații afectați și reacția pieței Meta a precizat că angajații din SUA afectați vor primi 16 săptămâni de salariu de bază, plus două săptămâni pentru fiecare an de vechime; pachetele internaționale ar urma să fie similare. Pe bursă, acțiunile Meta (META) erau în scădere cu peste 2% joi după-amiază, potrivit CNN. Context: un nou val de reduceri în tech În ultimul an, tot mai multe companii au redus personalul invocând eficiențe aduse de AI. CNN amintește că Amazon a anunțat în ianuarie concedieri de 16.000 de oameni, iar Block a comunicat în februarie o reducere de 40% a forței de muncă (peste 4.000 de persoane), avertizând că vor urma și alte companii. Meta mai făcuse tăieri masive în 2022 și 2023, după creșterile din perioada pandemiei. Anul trecut, compania a spus că va reduce circa 5% dintre angajați, vizați ca „performeri slabi”, cu intenția de a reangaja pentru multe dintre rolurile respective. [...]

DeepSeek a lansat modelul open-source V4, mizând pe eficiență de cost ca avantaj competitiv , într-un moment în care accesul la cipuri avansate și costurile de antrenare rămân o barieră majoră pentru dezvoltarea de inteligență artificială. Potrivit South China Morning Post , compania spune că noul său model fundamental (foundation model) este „competitiv” cu modele americane închise, precum cele ale OpenAI și Google DeepMind. DeepSeek descrie V4 drept un model „cost-eficient” și cu „eficiență de nivel lider mondial”, poziționându-l ca alternativă la modelele proprietare (closed-source), care nu își publică integral codul și detaliile tehnice. În același timp, faptul că V4 este open-source sugerează o strategie de accelerare a adopției prin comunitate și integrare mai ușoară în produse și servicii. Un element important de context este sprijinul anunțat de Huawei , care, potrivit aceleiași surse, a promis „sprijin total” prin noi cipuri. Mesajul indică o încercare de a consolida un lanț tehnologic intern – modele AI plus hardware – într-o perioadă în care competiția globală se poartă tot mai mult pe costuri, eficiență și disponibilitatea infrastructurii de calcul. De ce contează: costul devine o armă în cursa AI Relevanța economică a anunțului ține de faptul că „eficiența” și „cost-eficiența” sunt prezentate ca diferențiatori principali într-o piață dominată de modele foarte scumpe de antrenat și operat. Dacă afirmațiile DeepSeek privind competitivitatea cu OpenAI și Google DeepMind se confirmă în utilizare, V4 ar putea: reduce costul de intrare pentru companii care vor să construiască aplicații pe modele avansate; crește presiunea concurențială asupra furnizorilor de modele închise, printr-o alternativă open-source; accelera adoptarea în ecosisteme care preferă controlul local asupra tehnologiei și datelor. Ce se știe și ce rămâne neclar Articolul notează că DeepSeek „spune” că V4 este competitiv cu modele de top din SUA, însă în fragmentul disponibil nu apar rezultate detaliate de evaluare (benchmark-uri) sau date tehnice care să permită o comparație independentă. În lipsa acestor informații, impactul real va depinde de performanța în implementări concrete și de cât de repede va fi preluat modelul de dezvoltatori și companii. [...]

O companie românească a livrat un sistem de inteligență artificială către Pentagon , un tip de contract care ridică ștacheta pentru exportul de software „sensibil” și arată că firmele locale pot trece standarde de securitate foarte stricte, potrivit HotNews . Zetta, companie din Cluj-Napoca, spune că a ajuns la Departamentul de Război al SUA printr-un partener și că implementarea a presupus adaptări pentru un standard intern de securitate. Zetta este o companie înființată în 2013 și „100% românească”, fără investiții străine, iar cofondatorul George Bara afirmă că finanțarea din ultimii ani a venit în special din proiecte de cercetare, granturi și fonduri europene. Miza: „AI suverană”, adică software care rulează la client, fără cloud Unghiul tehnologic cu impact operațional este „inteligența artificială suverană”, concept pe care Zetta îl descrie ca fiind capacitatea ca software-ul să ruleze în infrastructura clientului, fără dependență de servicii externe de tip cloud (servere la distanță) și fără conexiune la internet. Potrivit cofondatorului, diferențiatorul este că soluțiile pot funcționa pe servere izolate de rețele externe, iar clientul rămâne „suveran” asupra datelor și rezultatelor, cu implicații de securitate și autonomie. Ce este Zetta Critical AI și ce face, concret Sistemul livrat se numește Zetta Critical AI și este prezentat ca software pentru „misiuni critice” (apărare, siguranță publică, securitate, intelligence), unde erorile pot avea consecințe majore, spre deosebire de aplicații comerciale obișnuite. La nivel de funcționalități, Bara spune că Zetta dezvoltă și pune în producție algoritmi de procesare a limbajului natural (un subdomeniu al AI care lucrează cu limbajul, în text și vorbire), inclusiv: transformare voce–text (speech-to-text); identificarea limbii și traducere automată; extragerea textului din imagini și video; analiză de „sentiment” (de exemplu, pozitiv/negativ); extragere de entități din text (nume de persoane, locații etc.). El mai afirmă că soluțiile sunt folosite în contexte cu volume mari de date, inclusiv pentru monitorizarea de conținut (TV, radio, online, web) și generarea de alerte sau rapoarte, subliniind că firma nu vede datele clienților și nu are acces la infrastructurile unde rulează sistemele. Cum a ajuns tehnologia la Pentagon și ce standard a trebuit să îndeplinească Zetta spune că a vândut către Departamentul de Război al SUA printr-un parteneriat de mai mulți ani cu Veritone, care ar fi implementat anul trecut un proiect folosind tehnologia companiei clujene. Conform descrierii, soluția a vizat analiza unor volume mari de documente: extragere de entități, analiză de sentiment și clasificări. Implementarea ar fi fost făcută într-o infrastructură a Departamentului de Război, conform unui standard numit „ Iron Bank ”, descris ca un standard important de securitate pentru software de inteligență artificială, iar Bara spune că ajustările pentru conformare au durat câteva luni. Publicația notează și limita de verificare: în domeniul AI, astfel de performanțe sunt dificil de probat independent, iar comunicarea companiilor poate include mult marketing. Context local: contracte în România și accent pe limba română Bara afirmă că Zetta are contracte și cu instituții din România din zona de apărare, menționând MApN, SPP, MAI și Academia Națională de Informații „Mihai Viteazu” (SRI). El susține că un pas strategic a fost dezvoltarea, din jurul anului 2019, a unei suite de algoritmi pentru limba română, într-o perioadă în care astfel de soluții nu ar fi fost disponibile pe piață. Exemplele oferite includ o soluție de monitorizare a dezinformării online și un proiect de cercetare administrat de UEFISCDI pentru procesare „multimodală” (video și text). Ce urmează: ambiția de export și cererea de sprijin instituțional Cofondatorul spune că obiectivul companiei este ca în următorii cinci ani să devină un exportator major de inteligență artificială europeană în afara UE, începând cu poziția de principal exportator din România. El insistă pe modelul de export prin licențiere, cu păstrarea proprietății intelectuale, spre deosebire de prestarea de servicii în care „knowledge-ul” ajunge la client. În același timp, Bara afirmă că exportul în zona tehnologiilor avansate și a apărării este complex și că ar fi nevoie de sprijin, inclusiv prin ambasade, idee pe care a ridicat-o și la un forum DeepTech găzduit de președintele Nicușor Dan (eveniment relatat de HotNews). [...]