Știri
Știri din categoria Inteligență artificială

Claude a depășit ChatGPT în descărcările din SUA după refuzul unui contract militar, potrivit Android Headlines. Aplicația dezvoltată de Anthropic a urcat pe primul loc în clasamentul Apple App Store din Statele Unite, pe fondul reacțiilor critice la adresa OpenAI, care a acceptat un acord similar cu autoritățile americane din domeniul apărării.
Creșterea vine după ce Anthropic a anunțat că nu poate finaliza un parteneriat cu Departamentul de Război al SUA, invocând lipsa unor garanții suficiente privind utilizarea inteligenței artificiale în supraveghere în masă și arme autonome. Conducerea companiei a indicat că limitele etice legate de utilizarea militară au stat la baza deciziei.
În paralel, OpenAI a confirmat un acord pentru furnizarea tehnologiei ChatGPT către structuri guvernamentale, susținând că a primit asigurări privind respectarea principiilor de siguranță. Cu toate acestea, pe forumuri și rețele sociale au apărut mesaje critice din partea utilizatorilor, care se declară preocupați de implicarea politică și militară în dezvoltarea inteligenței artificiale. Potrivit Axios, Claude a depășit temporar ChatGPT la ritmul descărcărilor din SUA.
Controversa a căpătat și o dimensiune politică după ce președintele Donald Trump a criticat public Anthropic și a cerut agențiilor federale să renunțe la instrumentele sale. Totuși, conform relatărilor din The Wall Street Journal, sistemele Anthropic sunt încă utilizate în anumite structuri, iar o tranziție completă către alte soluții ar putea dura luni.
Episodul arată că, dincolo de performanțele tehnice, încrederea publică și poziționarea etică influențează rapid preferințele utilizatorilor într-o piață a inteligenței artificiale tot mai sensibilă la deciziile politice.
Recomandate

Pentagonul își diversifică furnizorii de IA pentru operațiuni clasificate , după ce a ajuns la un acord cu Google pentru extinderea utilizării modelului generativ Gemini în astfel de misiuni, potrivit Mediafax . Mutarea vine în contextul în care Anthropic, al cărui model Claude era până recent singurul autorizat pentru operațiuni clasificate, este înlocuit treptat, într-o schimbare de strategie a Departamentului Apărării al SUA privind dependența de un singur furnizor, notează Le Figaro. De ce contează: mai multă libertate de utilizare față de contractul anterior Potrivit informațiilor citate de mai multe mass-media americane, acordul cu Google permite utilizarea modelelor de inteligență artificială „în limitele legii”, similar aranjamentelor încheiate și cu OpenAI și xAI. În același timp, această formulare ar oferi Pentagonului o marjă de manevră mai mare decât contractul avut cu Anthropic, care excludea explicit supravegherea în masă a populației civile americane și atacurile letale. În acest context, responsabilul cu inteligența artificială din Pentagon, Cameron Stanley, a argumentat public nevoia de diversificare a furnizorilor. „A depinde prea mult de un singur furnizor nu este niciodată un lucru bun.” Context: ruptura de Anthropic și intrarea OpenAI și xAI La sfârșitul lunii februarie, administrația Trump a decis rezilierea tuturor contractelor cu Anthropic, decizie contestată în instanță de companie. Ulterior, administrația a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul ar urma să dureze câteva luni. Separat, potrivit site-ului The Information (citat în material), și xAI, start-up-ul de inteligență artificială creat de Elon Musk, ar fi încheiat un acord cu Pentagonul după despărțirea de Anthropic. Reacție internă la Google: scrisoare semnată de peste 600 de angajați Acordul cu Pentagonul reaprinde tensiunile interne la Google pe tema colaborării cu armata americană. Luni, o scrisoare semnată de peste 600 de angajați a cerut conducerii să renunțe la furnizarea modelelor companiei pentru operațiuni clasificate. Google a mai trecut printr-un episod similar în 2018, când o mișcare internă a determinat compania să se retragă din proiectul Maven , care folosea inteligența artificială pentru analiza imaginilor colectate de drone. [...]

Google ar putea direcționa până la 40 mld. dolari (aprox. 184 mld. lei) către Anthropic , o companie de inteligență artificială care concurează direct cu propriile sale eforturi, într-o mișcare ce sugerează o strategie de „acoperire a pariurilor” într-o piață în care accesul la modele performante și la capacitate de calcul devine un avantaj economic major, potrivit Android Headlines . Suma menționată în material este prezentată ca un plafon („până la”), ceea ce indică faptul că nu este vorba neapărat de o singură tranzacție imediată, ci de un angajament investițional care poate fi etapizat sau condiționat. În lipsa unor detalii suplimentare în textul disponibil, nu reiese structura exactă a finanțării și nici calendarul. De ce contează: investiție într-un „rival” ca instrument de poziționare Unghiul economic al știrii ține de modul în care un jucător dominant își gestionează riscul și influența într-un sector cu costuri foarte mari. O investiție de asemenea dimensiune într-un concurent direct poate funcționa ca: o modalitate de a păstra accesul la tehnologie și talent, chiar dacă direcțiile interne nu livrează cel mai rapid; un pariu pe mai multe „platforme” de modele, într-o piață în care câștigătorul nu este încă stabilit; o consolidare a poziției în ecosistemul de inteligență artificială, prin finanțarea unor actori cheie. Ce se vede în piață: competiția se mută și în zona capitalului Materialul indică faptul că rivalitatea în inteligența artificială nu se joacă doar la nivel de produse, ci și la nivel de finanțare: cine poate susține costurile de dezvoltare și operare ale modelelor are un avantaj structural. În acest context, faptul că Google ar finanța masiv un competitor direct arată presiunea de a rămâne conectat la cele mai competitive modele, indiferent de „sigla” de pe produs. Ce urmează În forma prezentată de sursă, informația rămâne la nivelul intenției/posibilității („până la 40 de miliarde de dolari”), fără detalii despre termeni, condiții sau aprobări. Relevanța practică va depinde de confirmarea oficială a sumei, de structura investiției și de modul în care aceasta se traduce în acces la tehnologie sau în parteneriate comerciale între cele două companii. [...]

Google a semnat un contract clasificat de AI cu Pentagonul care permite folosirea modelelor sale pentru „orice scop guvernamental legal” , o formulare care, potrivit The Next Web , ar elimina limitările etice pe care alți furnizori au încercat să le includă în acorduri similare. Miza este una operațională și de guvernanță: Departamentul Apărării ar primi o marjă foarte largă de utilizare a AI, în timp ce Google riscă o escaladare a tensiunilor interne legate de politica sa de etică. Informația a fost publicată inițial de The Information, care citează „o persoană familiarizată cu subiectul”. La momentul apariției articolului, Google nu confirmase public și nu comentase acordul. Ce ar permite acordul, potrivit relatării Conform caracterizării din The Information, contractul ar permite Pentagonului să folosească modelele AI ale Google pentru „any lawful government purpose” („orice scop guvernamental legal”), fără „excepțiile” (carve-outs) pe care Anthropic le-ar fi introdus în propriul contract. Articolul notează că Anthropic ar fi refuzat să elimine interdicții contractuale privind: supravegherea internă în masă; arme complet autonome, fără supraveghere umană. În februarie 2026, Anthropic a fost desemnat „risc pentru lanțul de aprovizionare al securității naționale” și trecut pe o listă neagră de administrația Trump, tocmai pe fondul acestor restricții, potrivit aceleiași surse. Efectul în piața furnizorilor de AI „clasificat” pentru armată În acest moment, Pentagonul ar avea acorduri clasificate cu patru dintre cele mai mari companii de AI din SUA: OpenAI, xAI, Google și — până la excludere — Anthropic. The Next Web descrie o diferențiere între abordări: Anthropic a rămas la restricții etice și a fost exclus; OpenAI ar fi renegociat pentru a rămâne furnizor, păstrând unele „linii roșii” privind supravegherea internă; xAI ar fi semnat fără restricții vizibile; Google ar fi acceptat o formulare care pare să ofere Pentagonului cea mai largă discreție. Rezultatul este un „pool” de furnizori în care Anthropic lipsește, iar ceilalți trei au grade diferite, dar „semnificative”, de libertate pentru a furniza capabilități AI în aplicații militare. Presiune internă: scrisoarea a peste 560 de angajați Acordul ar fi fost raportat la câteva ore după ce peste 560 de angajați Google au publicat, luni, o scrisoare deschisă către CEO-ul Sundar Pichai , cerându-i să refuze exact un astfel de aranjament militar clasificat. Publicația subliniază contrastul de calendar: semnatarii scrisorii au cerut oprirea unui tip de contract, iar a doua zi compania ar fi semnat tocmai acel tip de acord. În acest context, Pichai ar putea fi presat să răspundă public și intern, inclusiv în întâlniri cu angajații. Limitări și ce rămâne de urmărit Detaliul-cheie — formularea „orice scop guvernamental legal” — provine, în relatarea citată, dintr-o singură sursă anonimă. În lipsa unei confirmări oficiale din partea Google, termenii exacți ai acordului și modul în care sunt aplicați în practică rămân neclari. Ce merită urmărit în continuare este dacă Google va confirma cadrul contractual și dacă vor exista reacții interne suplimentare, în condițiile în care marile companii de AI încearcă să împace cererea guvernului SUA pentru capabilități clasificate „fără restricții” cu principiile publice de etică adoptate după controversa Project Maven din 2018. [...]

Peste 600 de angajați Google cer oprirea livrării de AI pentru operațiuni militare clasificate , pe fondul discuțiilor companiei cu Pentagonul , ceea ce riscă să complice extinderea Google pe zona contractelor de apărare și să reactiveze tensiunile interne privind utilizările sensibile ale tehnologiei, potrivit Agerpres . Scrisoarea, publicată luni, solicită conducerii să înceteze furnizarea modelelor de inteligență artificială către armata americană pentru operațiuni clasificate. Conform site-ului The Information, Google poartă în prezent discuții cu Departamentul Apărării al SUA pe tema AI, iar printre semnatari se află și mai mulți directori, potrivit unei declarații consultate de AFP. „În stadiul actual, nu există nicio modalitate de a garanta că instrumentele noastre nu vor fi folosite pentru a provoca daune teribile sau a încălca libertățile individuale, departe de priviri.” De ce contează: presiune internă într-un moment în care Pentagonul caută alternative Departamentul Apărării încearcă să-și diversifice furnizorii de inteligență artificială, în condițiile în care se bazează în prezent pe Anthropic , companie cu care se află în litigiu. La sfârșitul lunii februarie, administrația Trump a reziliat toate contractele cu startup-ul din California, decizie contestată în instanță de Anthropic. Ulterior, administrația americană a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul este așteptat să dureze câteva luni. În acest context, opoziția internă de la Google poate deveni un factor operațional în negocierile cu Pentagonul, mai ales pe segmentul proiectelor clasificate, unde controlul utilizării finale este mai greu de demonstrat. Poziția Google și precedentul „Project Maven” La fel ca Anthropic, Google a cerut ca AI-ul său să nu fie folosit pentru supraveghere în masă în Statele Unite sau pentru atacuri letale. Administrația americană consideră însă suficient un angajament de a acționa în cadrul legii. Google este deja contractor al Departamentului Apărării, dar pentru activități neclasificate. În 2018, o mișcare internă a determinat compania să se retragă din Project Maven, un program care folosea inteligența artificială pentru analizarea imaginilor colectate de drone. [...]

OpenAI a ratat în 2025 atât ținta internă de venituri pentru ChatGPT, cât și pragul de 1 miliard de utilizatori activi săptămânal , pe fondul încetinirii creșterii și al intensificării competiției, într-un moment în care compania pregătește o posibilă listare la bursă (IPO), relatează IT之家 , citând The Wall Street Journal. Eșecul atingerii obiectivelor alimentează întrebări despre sustenabilitatea modelului de business, mai ales că OpenAI și-a asumat angajamente foarte mari pentru capacitate de calcul (infrastructură de centre de date), adică exact componenta care apasă cel mai mult pe costuri în industria inteligenței artificiale. Presiune pe venituri: competiția a mușcat din creștere Potrivit materialului, ChatGPT nu și-a îndeplinit obiectivul anual de venituri, iar una dintre explicații invocate este avansul puternic al Google Gemini la finalul anului trecut, care ar fi erodat cota de piață a OpenAI. La începutul acestui an, OpenAI ar fi fost depășită de Anthropic pe segmentul de programare și în zona corporate, după care compania ar fi ratat, timp de mai multe luni, țintele lunare de venituri. În paralel, publicația notează că ritmul de creștere al chatbotului a încetinit spre finalul anului trecut, iar rata de renunțare a abonaților (churn) a devenit o problemă. Costurile cu „puterea de calcul” cresc mai repede decât veniturile Deși OpenAI a încheiat recent o rundă de finanțare de 122 miliarde de dolari (aprox. 549 mld. lei), cheltuielile pentru capacitatea de calcul contractată ar fi ajuns „mult peste așteptări”, potrivit sursei. Mai departe, OpenAI ar fi promis proiecte de infrastructură de centre de date în valoare totală de 1,4 trilioane de dolari pe următorii opt ani. Analiștii HSBC, citați în articol, estimează că până în 2030 compania ar avea nevoie de încă 207 miliarde de dolari (aprox. 932 mld. lei) finanțare nouă pentru a-și putea respecta planul de extindere. Tensiuni interne și semne de întrebare pentru calendarul IPO IT之家 scrie că directoarea financiară Sarah Friar și-ar fi exprimat îngrijorarea că, dacă veniturile nu cresc suficient de repede, OpenAI ar putea să nu poată plăti contractele viitoare pentru puterea de calcul. În același timp, membri ai consiliului de administrație ar fi intensificat verificările asupra tranzacțiilor legate de centrele de date și ar fi pus sub semnul întrebării strategia CEO-ului Sam Altman de a continua să caute și mai multă capacitate, în contextul încetinirii. Altman și Friar au respins ideea unor divergențe, într-o declarație comună: „Suntem complet aliniați în a cumpăra cât mai multă putere de calcul posibil și lucrăm împreună la asta în fiecare zi.” În privința listării, Friar ar fi avut rezerve legate de un IPO până la finalul acestui an, invocând nevoia de îmbunătățire a controalelor interne și faptul că OpenAI nu ar fi pregătită pentru standardele stricte de raportare ale unei companii listate. În contrast, Altman ar prefera un calendar mai agresiv, potrivit articolului. Context: litigiu cu Musk și câteva „puncte luminoase” Materialul menționează și procesul intentat de Elon Musk împotriva OpenAI, deschis luni (ora locală), în care Musk cere inclusiv despăgubiri de 134 miliarde de dolari și măsuri precum înlăturarea lui Altman și revenirea la statutul non-profit; procesul ar urma să dureze câteva săptămâni, iar mai mulți martori importanți ar putea fi chemați. Pe de altă parte, OpenAI ar avea și evoluții pozitive: instrumentul de programare Codex se răspândește rapid, modelul GPT-5.5 ar fi obținut rezultate de top în mai multe teste de referință din industrie, iar compania ar reduce costuri prin tăieri în alte proiecte, inclusiv aplicația de generare video Sora. Pentru investitori, miza rămâne aceeași: dacă OpenAI poate reduce diferența dintre angajamentele de cheltuieli pentru infrastructură și ritmul de creștere al veniturilor înainte de o eventuală listare. [...]

În procesul cu Sam Altman , Elon Musk își construiește apărarea pe ideea că miza OpenAI este „salvarea umanității” , încercând să influențeze percepția juriului asupra intențiilor sale și, implicit, asupra legitimității pretențiilor din dosar, potrivit The Verge . În depoziția sa, Musk a petrecut mult timp cu propria „poveste de origine”, de la copilăria în Africa de Sud și plecarea la studii în Canada, până la parcursul antreprenorial (Zip2, PayPal și companiile pe care le conduce în prezent). Publicația notează că această abordare pare menită să îl prezinte drept un actor motivat de interesul public, nu de câștig personal. Musk a susținut în fața instanței că proiectele sale au avut ca fir roșu „bunăstarea umanității”: SpaceX ar fi fost creată ca „asigurare de viață pentru viața așa cum o știm”, iar Tesla – pentru a reduce dependența de combustibili fosili, pe care a spus că o consideră dăunătoare pentru mediu și pentru oameni. The Verge menționează și că, în timpul mărturiei, Musk a afirmat în mod discutabil că el a fondat Tesla. AI, între promisiune și risc existențial În aceeași logică, Musk a spus că încă din anii de facultate era îngrijorat de inteligența artificială, pe care a descris-o ca pe o „sabie cu două tăișuri”: ar putea „rezolva toate bolile și face pe toată lumea prosperă” sau „ne-ar putea omorî pe toți”. A prezentat două scenarii extreme – unul utopic, de tip „Star Trek”, și unul distopic, de tip „Terminator” – și a indicat că acesta ar fi fost motivul pentru care a cofondat OpenAI. Atacul la Altman și argumentul „precedentului” pentru organizații caritabile Musk a încercat să creeze un contrast direct cu Altman, pe care l-a portretizat drept opusul său. A mers până la a-l acuza că ar fi „furat” o organizație caritabilă și a susținut că un verdict favorabil pârâților ar putea crea un precedent juridic periculos pentru sectorul filantropic din SUA. „E foarte simplu: nu e în regulă să furi o organizație caritabilă. (...) Dacă verdictul iese astfel încât să fie în regulă să jefuiești o organizație caritabilă, întreaga fundație a donațiilor caritabile în America va fi distrusă.” În același context, The Verge notează că Musk nu le-a spus juraților că majoritatea donațiilor filantropice ale fundației sale au mers către interese strâns legate, sau direct legate, de propriile sale activități. Din informațiile publicate nu reiese ce urmează procedural în proces sau care este calendarul etapelor următoare; materialul se concentrează pe strategia de poziționare a lui Musk în fața juriului și pe implicațiile pe care el le invocă în legătură cu statutul și controlul asupra OpenAI. [...]