Știri
Știri din categoria Inteligență artificială

OpenAI renunță la extinderea uriașului centru de date Stargate din Texas, după ce negocierile cu Oracle privind finanțarea și capacitatea necesară au eșuat. Potrivit Tom’s Hardware, proiectul de extindere a campusului din Abilene, statul american Texas, a fost abandonat după luni de discuții complicate între OpenAI, Oracle și operatorul infrastructurii, Crusoe.
Campusul face parte din proiectul „Stargate”, anunțat public în 2025 la Casa Albă și prezentat drept unul dintre cele mai ambițioase programe de infrastructură pentru inteligență artificială. Planul inițial prevedea creșterea capacității energetice a centrului de date de la aproximativ 1,2 gigawați la aproape 2 gigawați, ceea ce ar fi transformat instalația într-unul dintre cele mai mari hub-uri dedicate antrenării modelelor AI.

Chiar dacă extinderea a fost anulată, proiectul existent continuă. Campusul de aproximativ 1.000 de acri are deja mai multe clădiri funcționale, unde Oracle instalează servere bazate pe hardware Nvidia folosite pentru antrenarea și rularea sistemelor de inteligență artificială.
Pe lângă aspectele financiare, proiectul s-a confruntat și cu dificultăți tehnice. La începutul anului 2026, condițiile meteo de iarnă au afectat infrastructura de răcire cu lichid, ceea ce a dus la oprirea temporară a mai multor clădiri din complex pentru câteva zile.
Aceste incidente au tensionat relația dintre Oracle și Crusoe, compania responsabilă de operarea infrastructurii.
După blocarea negocierilor cu OpenAI, operatorul Crusoe a început să caute alți chiriași pentru capacitatea planificată. În acest context, Meta ar putea deveni un posibil utilizator al infrastructurii, deși compania nu a confirmat oficial intenția de a se extinde în campusul din Texas.
În paralel, Nvidia ar fi intervenit pentru a sprijini proiectul și pentru a se asigura că centrul de date continuă să utilizeze hardware-ul său. Potrivit informațiilor apărute în presă, compania ar fi oferit un depozit financiar de aproximativ 150 de milioane de dolari pentru a susține dezvoltarea site-ului și pentru a atrage potențiali clienți.
În ciuda anulării acestei extinderi, colaborarea dintre OpenAI și Oracle nu se oprește. În 2025, cele două companii au convenit dezvoltarea a 4,5 gigawați de capacitate totală pentru centre de date dedicate AI, proiect care include și alte locații din Statele Unite, printre care un site din apropierea orașului Detroit.
Pentru comparație, un gigawatt de energie este aproximativ echivalent cu producția unui reactor nuclear, suficientă pentru alimentarea a sute de mii de locuințe la consum maxim. Tocmai cerințele uriașe de energie fac ca proiectele de infrastructură pentru inteligență artificială să devină din ce în ce mai complexe și controversate în comunitățile locale.
Recomandate

Pentagonul își diversifică furnizorii de IA pentru operațiuni clasificate , după ce a ajuns la un acord cu Google pentru extinderea utilizării modelului generativ Gemini în astfel de misiuni, potrivit Mediafax . Mutarea vine în contextul în care Anthropic, al cărui model Claude era până recent singurul autorizat pentru operațiuni clasificate, este înlocuit treptat, într-o schimbare de strategie a Departamentului Apărării al SUA privind dependența de un singur furnizor, notează Le Figaro. De ce contează: mai multă libertate de utilizare față de contractul anterior Potrivit informațiilor citate de mai multe mass-media americane, acordul cu Google permite utilizarea modelelor de inteligență artificială „în limitele legii”, similar aranjamentelor încheiate și cu OpenAI și xAI. În același timp, această formulare ar oferi Pentagonului o marjă de manevră mai mare decât contractul avut cu Anthropic, care excludea explicit supravegherea în masă a populației civile americane și atacurile letale. În acest context, responsabilul cu inteligența artificială din Pentagon, Cameron Stanley, a argumentat public nevoia de diversificare a furnizorilor. „A depinde prea mult de un singur furnizor nu este niciodată un lucru bun.” Context: ruptura de Anthropic și intrarea OpenAI și xAI La sfârșitul lunii februarie, administrația Trump a decis rezilierea tuturor contractelor cu Anthropic, decizie contestată în instanță de companie. Ulterior, administrația a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul ar urma să dureze câteva luni. Separat, potrivit site-ului The Information (citat în material), și xAI, start-up-ul de inteligență artificială creat de Elon Musk, ar fi încheiat un acord cu Pentagonul după despărțirea de Anthropic. Reacție internă la Google: scrisoare semnată de peste 600 de angajați Acordul cu Pentagonul reaprinde tensiunile interne la Google pe tema colaborării cu armata americană. Luni, o scrisoare semnată de peste 600 de angajați a cerut conducerii să renunțe la furnizarea modelelor companiei pentru operațiuni clasificate. Google a mai trecut printr-un episod similar în 2018, când o mișcare internă a determinat compania să se retragă din proiectul Maven , care folosea inteligența artificială pentru analiza imaginilor colectate de drone. [...]

În procesul cu Sam Altman , Elon Musk își construiește apărarea pe ideea că miza OpenAI este „salvarea umanității” , încercând să influențeze percepția juriului asupra intențiilor sale și, implicit, asupra legitimității pretențiilor din dosar, potrivit The Verge . În depoziția sa, Musk a petrecut mult timp cu propria „poveste de origine”, de la copilăria în Africa de Sud și plecarea la studii în Canada, până la parcursul antreprenorial (Zip2, PayPal și companiile pe care le conduce în prezent). Publicația notează că această abordare pare menită să îl prezinte drept un actor motivat de interesul public, nu de câștig personal. Musk a susținut în fața instanței că proiectele sale au avut ca fir roșu „bunăstarea umanității”: SpaceX ar fi fost creată ca „asigurare de viață pentru viața așa cum o știm”, iar Tesla – pentru a reduce dependența de combustibili fosili, pe care a spus că o consideră dăunătoare pentru mediu și pentru oameni. The Verge menționează și că, în timpul mărturiei, Musk a afirmat în mod discutabil că el a fondat Tesla. AI, între promisiune și risc existențial În aceeași logică, Musk a spus că încă din anii de facultate era îngrijorat de inteligența artificială, pe care a descris-o ca pe o „sabie cu două tăișuri”: ar putea „rezolva toate bolile și face pe toată lumea prosperă” sau „ne-ar putea omorî pe toți”. A prezentat două scenarii extreme – unul utopic, de tip „Star Trek”, și unul distopic, de tip „Terminator” – și a indicat că acesta ar fi fost motivul pentru care a cofondat OpenAI. Atacul la Altman și argumentul „precedentului” pentru organizații caritabile Musk a încercat să creeze un contrast direct cu Altman, pe care l-a portretizat drept opusul său. A mers până la a-l acuza că ar fi „furat” o organizație caritabilă și a susținut că un verdict favorabil pârâților ar putea crea un precedent juridic periculos pentru sectorul filantropic din SUA. „E foarte simplu: nu e în regulă să furi o organizație caritabilă. (...) Dacă verdictul iese astfel încât să fie în regulă să jefuiești o organizație caritabilă, întreaga fundație a donațiilor caritabile în America va fi distrusă.” În același context, The Verge notează că Musk nu le-a spus juraților că majoritatea donațiilor filantropice ale fundației sale au mers către interese strâns legate, sau direct legate, de propriile sale activități. Din informațiile publicate nu reiese ce urmează procedural în proces sau care este calendarul etapelor următoare; materialul se concentrează pe strategia de poziționare a lui Musk în fața juriului și pe implicațiile pe care el le invocă în legătură cu statutul și controlul asupra OpenAI. [...]

Google Translate adaugă o funcție „Practice” cu inteligență artificială care îți corectează pronunția , un pas care mută aplicația din zona de traducere rapidă spre antrenament de vorbire și poate crește timpul petrecut în ecosistemul Google, potrivit Android Headlines . Noua opțiune „Practice” este gândită ca un instrument de exersare: utilizatorul rostește cuvinte sau expresii, iar sistemul folosește inteligența artificială pentru a identifica unde pronunția diferă de forma așteptată și pentru a ajuta la corectare. Din informațiile disponibile în material, accentul este pe feedback-ul de pronunție, nu pe traducere în sine. Ce se schimbă, practic, pentru utilizatori Funcția adaugă un flux de utilizare diferit față de „ascultă și repetă” din traducătoarele clasice, printr-o componentă de evaluare automată a vorbirii. Pe scurt, „Practice” urmărește să transforme Google Translate într-un instrument de învățare mai activ, nu doar într-un dicționar cu redare audio. De ce contează operațional pentru Google Integrarea unei funcții de exersare a pronunției în Translate poate însemna: utilizare mai frecventă a aplicației în contexte de învățare (nu doar „la nevoie”); o poziționare mai directă în zona aplicațiilor de învățare a limbilor, unde diferențiatorul este feedback-ul personalizat; o extindere a rolului inteligenței artificiale în aplicații de masă, cu interacțiuni vocale și evaluare în timp real. Materialul nu oferă detalii despre disponibilitate pe piețe, limbi suportate, calendar de lansare sau condiții comerciale (gratuit/abonament), astfel că impactul exact asupra utilizării și monetizării rămâne deocamdată neclar. [...]

Google ar putea direcționa până la 40 mld. dolari (aprox. 184 mld. lei) către Anthropic , o companie de inteligență artificială care concurează direct cu propriile sale eforturi, într-o mișcare ce sugerează o strategie de „acoperire a pariurilor” într-o piață în care accesul la modele performante și la capacitate de calcul devine un avantaj economic major, potrivit Android Headlines . Suma menționată în material este prezentată ca un plafon („până la”), ceea ce indică faptul că nu este vorba neapărat de o singură tranzacție imediată, ci de un angajament investițional care poate fi etapizat sau condiționat. În lipsa unor detalii suplimentare în textul disponibil, nu reiese structura exactă a finanțării și nici calendarul. De ce contează: investiție într-un „rival” ca instrument de poziționare Unghiul economic al știrii ține de modul în care un jucător dominant își gestionează riscul și influența într-un sector cu costuri foarte mari. O investiție de asemenea dimensiune într-un concurent direct poate funcționa ca: o modalitate de a păstra accesul la tehnologie și talent, chiar dacă direcțiile interne nu livrează cel mai rapid; un pariu pe mai multe „platforme” de modele, într-o piață în care câștigătorul nu este încă stabilit; o consolidare a poziției în ecosistemul de inteligență artificială, prin finanțarea unor actori cheie. Ce se vede în piață: competiția se mută și în zona capitalului Materialul indică faptul că rivalitatea în inteligența artificială nu se joacă doar la nivel de produse, ci și la nivel de finanțare: cine poate susține costurile de dezvoltare și operare ale modelelor are un avantaj structural. În acest context, faptul că Google ar finanța masiv un competitor direct arată presiunea de a rămâne conectat la cele mai competitive modele, indiferent de „sigla” de pe produs. Ce urmează În forma prezentată de sursă, informația rămâne la nivelul intenției/posibilității („până la 40 de miliarde de dolari”), fără detalii despre termeni, condiții sau aprobări. Relevanța practică va depinde de confirmarea oficială a sumei, de structura investiției și de modul în care aceasta se traduce în acces la tehnologie sau în parteneriate comerciale între cele două companii. [...]

Google a semnat un contract clasificat de AI cu Pentagonul care permite folosirea modelelor sale pentru „orice scop guvernamental legal” , o formulare care, potrivit The Next Web , ar elimina limitările etice pe care alți furnizori au încercat să le includă în acorduri similare. Miza este una operațională și de guvernanță: Departamentul Apărării ar primi o marjă foarte largă de utilizare a AI, în timp ce Google riscă o escaladare a tensiunilor interne legate de politica sa de etică. Informația a fost publicată inițial de The Information, care citează „o persoană familiarizată cu subiectul”. La momentul apariției articolului, Google nu confirmase public și nu comentase acordul. Ce ar permite acordul, potrivit relatării Conform caracterizării din The Information, contractul ar permite Pentagonului să folosească modelele AI ale Google pentru „any lawful government purpose” („orice scop guvernamental legal”), fără „excepțiile” (carve-outs) pe care Anthropic le-ar fi introdus în propriul contract. Articolul notează că Anthropic ar fi refuzat să elimine interdicții contractuale privind: supravegherea internă în masă; arme complet autonome, fără supraveghere umană. În februarie 2026, Anthropic a fost desemnat „risc pentru lanțul de aprovizionare al securității naționale” și trecut pe o listă neagră de administrația Trump, tocmai pe fondul acestor restricții, potrivit aceleiași surse. Efectul în piața furnizorilor de AI „clasificat” pentru armată În acest moment, Pentagonul ar avea acorduri clasificate cu patru dintre cele mai mari companii de AI din SUA: OpenAI, xAI, Google și — până la excludere — Anthropic. The Next Web descrie o diferențiere între abordări: Anthropic a rămas la restricții etice și a fost exclus; OpenAI ar fi renegociat pentru a rămâne furnizor, păstrând unele „linii roșii” privind supravegherea internă; xAI ar fi semnat fără restricții vizibile; Google ar fi acceptat o formulare care pare să ofere Pentagonului cea mai largă discreție. Rezultatul este un „pool” de furnizori în care Anthropic lipsește, iar ceilalți trei au grade diferite, dar „semnificative”, de libertate pentru a furniza capabilități AI în aplicații militare. Presiune internă: scrisoarea a peste 560 de angajați Acordul ar fi fost raportat la câteva ore după ce peste 560 de angajați Google au publicat, luni, o scrisoare deschisă către CEO-ul Sundar Pichai , cerându-i să refuze exact un astfel de aranjament militar clasificat. Publicația subliniază contrastul de calendar: semnatarii scrisorii au cerut oprirea unui tip de contract, iar a doua zi compania ar fi semnat tocmai acel tip de acord. În acest context, Pichai ar putea fi presat să răspundă public și intern, inclusiv în întâlniri cu angajații. Limitări și ce rămâne de urmărit Detaliul-cheie — formularea „orice scop guvernamental legal” — provine, în relatarea citată, dintr-o singură sursă anonimă. În lipsa unei confirmări oficiale din partea Google, termenii exacți ai acordului și modul în care sunt aplicați în practică rămân neclari. Ce merită urmărit în continuare este dacă Google va confirma cadrul contractual și dacă vor exista reacții interne suplimentare, în condițiile în care marile companii de AI încearcă să împace cererea guvernului SUA pentru capabilități clasificate „fără restricții” cu principiile publice de etică adoptate după controversa Project Maven din 2018. [...]

Peste 600 de angajați Google cer oprirea livrării de AI pentru operațiuni militare clasificate , pe fondul discuțiilor companiei cu Pentagonul , ceea ce riscă să complice extinderea Google pe zona contractelor de apărare și să reactiveze tensiunile interne privind utilizările sensibile ale tehnologiei, potrivit Agerpres . Scrisoarea, publicată luni, solicită conducerii să înceteze furnizarea modelelor de inteligență artificială către armata americană pentru operațiuni clasificate. Conform site-ului The Information, Google poartă în prezent discuții cu Departamentul Apărării al SUA pe tema AI, iar printre semnatari se află și mai mulți directori, potrivit unei declarații consultate de AFP. „În stadiul actual, nu există nicio modalitate de a garanta că instrumentele noastre nu vor fi folosite pentru a provoca daune teribile sau a încălca libertățile individuale, departe de priviri.” De ce contează: presiune internă într-un moment în care Pentagonul caută alternative Departamentul Apărării încearcă să-și diversifice furnizorii de inteligență artificială, în condițiile în care se bazează în prezent pe Anthropic , companie cu care se află în litigiu. La sfârșitul lunii februarie, administrația Trump a reziliat toate contractele cu startup-ul din California, decizie contestată în instanță de Anthropic. Ulterior, administrația americană a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul este așteptat să dureze câteva luni. În acest context, opoziția internă de la Google poate deveni un factor operațional în negocierile cu Pentagonul, mai ales pe segmentul proiectelor clasificate, unde controlul utilizării finale este mai greu de demonstrat. Poziția Google și precedentul „Project Maven” La fel ca Anthropic, Google a cerut ca AI-ul său să nu fie folosit pentru supraveghere în masă în Statele Unite sau pentru atacuri letale. Administrația americană consideră însă suficient un angajament de a acționa în cadrul legii. Google este deja contractor al Departamentului Apărării, dar pentru activități neclasificate. În 2018, o mișcare internă a determinat compania să se retragă din Project Maven, un program care folosea inteligența artificială pentru analizarea imaginilor colectate de drone. [...]