Știri
Știri din categoria Inteligență artificială

OpenAI a semnat un acord de peste 10 miliarde de dolari cu startup-ul Cerebras Systems pentru achiziția de capacitate de calcul, într-o nouă etapă a cursei pentru controlul infrastructurii AI, anunță The Wall Street Journal. În baza acestui parteneriat, OpenAI va achiziționa până la 750 de megawați de putere de procesare în următorii trei ani, folosind cipurile specializate dezvoltate de Cerebras pentru a susține ChatGPT și alte aplicații AI de mare anvergură.
Acordul vine pe fondul unei crize acute de resurse de calcul, după cum recunosc chiar oficialii companiei, care afirmă că OpenAI își triplează anual atât capacitatea de procesare, cât și veniturile. În acest context, OpenAI caută alternative mai rapide și mai ieftine la cipurile Nvidia, dominatoare în industrie. Printre aceste alternative se numără atât noul parteneriat cu Cerebras, cât și proiectul anunțat anul trecut împreună cu Broadcom pentru dezvoltarea unui cip personalizat, dar și acordul semnat cu AMD pentru utilizarea cipului MI450.
Cerebras Systems, fondată în urmă cu aproximativ un deceniu, a fost până de curând o prezență marginală pe piața semiconductorilor, bazându-se în mare parte pe un singur client – G42 din Abu Dhabi. Însă compania, condusă de Andrew Feldman, pare să-și fi regăsit direcția, după ce a încheiat noi parteneriate cu IBM și Meta, și este acum în discuții pentru o rundă de finanțare de un miliard de dolari, care i-ar tripla evaluarea la 22 de miliarde de dolari. În demonstrații recente, Feldman a arătat că cipurile Cerebras pot furniza răspunsuri AI mai rapide decât cele ale rivalilor, ceea ce a fost decisiv pentru acordul cu OpenAI.
Sam Altman, CEO-ul OpenAI, este și investitor personal în Cerebras, iar cele două companii au discutat o posibilă colaborare încă din 2017, potrivit unor documente dintr-un proces în curs între Altman și Elon Musk. Într-un moment-cheie, Feldman a refuzat o ofertă din partea lui Musk de a cumpăra OpenAI, o decizie care pare acum să fi deschis drumul către consolidarea actualului parteneriat.
Această mișcare face parte dintr-o ofensivă mai amplă a OpenAI, care a semnat în 2025 contracte de cloud în valoare de aproape 600 de miliarde de dolari cu giganți precum Microsoft, Oracle și Amazon. În ciuda unei cifre de afaceri anuale de aproximativ 13 miliarde de dolari, compania afirmă că va susține aceste investiții prin creșteri viitoare ale veniturilor. Totodată, OpenAI pregătește o rundă masivă de finanțare înaintea unei eventuale listări la bursă, evaluarea estimată fiind de aproximativ 830 de miliarde de dolari.
Ce aduce acest parteneriat:
Pe o piață în care viteza de procesare dictează ritmul inovației, parteneriatul cu Cerebras este, în esență, o investiție în viitorul operațional al OpenAI – un viitor în care accesul la puterea de calcul devine cheia supremă a succesului.
Recomandate

Noile teste arată că GPT-5.5 ajunge din urmă Mythos Preview la capabilități relevante pentru securitate cibernetică , ceea ce pune sub semnul întrebării argumentul comercial al lansărilor „cu acces limitat” vândute ca măsură de siguranță, potrivit Ars Technica . În evaluarea AISI (instituția nu este detaliată în fragmentul furnizat), rezultatele pentru GPT-5.5 sugerează că Mythos Preview probabil nu a fost „un progres specific unui singur model”, ci mai degrabă un efect al îmbunătățirilor generale în autonomie pe termen lung, raționament și programare — adică exact tipul de evoluții care pot ridica simultan și utilitatea, și riscul în zona de „cyber”. De ce contează pentru companii și piața de securitate Dacă performanța „de vârf” în scenarii de securitate cibernetică nu mai este un diferențiator exclusiv al unui model foarte mediatizat, atunci: justificarea pentru prețuri premium și poziționare bazată pe „pericol” devine mai greu de susținut; presiunea se mută pe guvernanță (cine primește acces, în ce condiții) și pe control operațional, nu pe „unicitatea” tehnologică a unui singur produs; organizațiile care evaluează astfel de modele pentru apărare trebuie să trateze riscul ca fiind mai „generalizat” în generațiile noi de modele, nu ca o excepție. „Marketing bazat pe frică” și accesul limitat, în centrul discuției Într-un interviu recent acordat podcastului Core Memory , Sam Altman, CEO OpenAI, a criticat promovarea lansărilor limitate prin ceea ce el numește „marketing bazat pe frică”. El a comparat retorica din jurul unor modele cu un mesaj de tipul „am construit o bombă” urmat de vânzarea unui „adăpost anti-bombă” pentru 100 de milioane de dolari. „Va exista mult mai multă retorică despre modele prea periculoase pentru a fi lansate. Vor exista și modele foarte periculoase care vor trebui lansate în moduri diferite.” Interviul este disponibil aici: Core Memory . Cum își structurează OpenAI accesul la modelele „cyber” OpenAI a introdus în februarie un program-pilot numit „ Trusted Access for Cyber ”, prin care cercetători în securitate și companii își pot verifica identitatea și își pot înregistra interesul pentru a studia modele de frontieră în scopuri defensive: Trusted Access for Cyber și pagina de verificare: chatgpt.com/cyber . Luna trecută, compania a spus că folosește această listă pentru a controla lansarea limitată a GPT-5.4-Cyber, o variantă „ajustată intenționat” pentru capabilități suplimentare în zona cyber și cu mai puține restricții: OpenAI . Iar joi, Altman a afirmat pe rețele sociale că lansarea inițială a GPT-5.5-Cyber va fi, la rândul ei, limitată „în următoarele zile” la „apărători critici” din zona cyber: X . Ce urmează Pe termen scurt, miza se mută pe criteriile de acces și pe modul în care astfel de programe „cu identitate verificată” vor deveni un standard de piață pentru utilizarea defensivă. În același timp, dacă îmbunătățirile care cresc riscul sunt „mai generale”, cum sugerează AISI, presiunea pentru reguli și proceduri de lansare diferențiate (nu doar pentru un singur model „special”) ar putea crește. Limitarea importantă: fragmentul furnizat nu include detalii despre metodologie, seturi de teste sau scoruri, deci comparația rămâne la nivelul concluziei prezentate. [...]

Procesul dintre Elon Musk și Sam Altman riscă să complice traseul OpenAI către o listare și să amplifice presiunea juridică asupra modelului său hibrid (nonprofit–profit), într-un moment în care compania este descrisă ca fiind „pregătită” pentru un IPO, potrivit Al Jazeera . Într-un proces federal din California , Musk – cofondator OpenAI – a depus mărturie pentru a doua zi, susținând că Altman a „trădat” promisiunile inițiale de a păstra organizația ca nonprofit „dedicată beneficiului umanității”. Litigiul pornește de la înființarea OpenAI în 2015 ca nonprofit și transformarea ulterioară într-o structură orientată spre profit. Musk a declarat în fața juraților că și-a pierdut încrederea că Altman va menține misiunea nonprofit și a spus că, spre finalul lui 2022, se temea că Altman încerca să „fure caritatea”, afirmând că „s-a dovedit a fi adevărat”. Altman a fost prezent în sală, dar nu a depus mărturie, conform relatării. Miza economică: IPO și modelul de finanțare Avocații OpenAI au respins acuzațiile și au susținut că nu a existat niciodată un angajament de a rămâne nonprofit. Compania afirmă că a creat o componentă cu scop lucrativ pentru a finanța nevoile mari de putere de calcul și pentru a atrage talente. În același timp, OpenAI ar fi „pregătită” pentru o ofertă publică inițială care ar putea evalua compania la 1.000 de miliarde de dolari, potrivit Reuters, citată de Al Jazeera. În acest context, disputa privind guvernanța și misiunea inițială poate deveni un factor de risc reputațional și juridic, cu potențiale efecte asupra investitorilor și structurii de control. Ce cere Musk în instanță Musk a investit aproximativ 38 de milioane de dolari (aprox. 174 milioane lei) în OpenAI între 2015 și 2017 și a părăsit organizația în 2018. În proces, el solicită: 150 de miliarde de dolari (aprox. 690 miliarde lei) despăgubiri de la OpenAI și Microsoft , cu orice sumă acordată direcționată către brațul caritabil al OpenAI; obligarea OpenAI să revină la statutul de nonprofit; înlăturarea lui Sam Altman și a cofondatorului Greg Brockman din conducere. Musk a mai susținut că organizația a fost „capturată” și a descris o ofertă de a investi, venită din partea lui Altman, ca părând „ca o mită”. Apărarea OpenAI: competiția cu xAI Echipa juridică a OpenAI afirmă că acțiunea lui Musk urmărește să submineze compania în favoarea propriei sale inițiative, xAI. OpenAI, organizată acum ca „public benefit corporation” (o formă corporativă care combină obiective comerciale cu o misiune de interes public), susține că demersul este alimentat de competiție și notează că xAI este în urma OpenAI la adopția de către utilizatori. Context suplimentar despre proces apare într-un material anterior al publicației, „stand for a second day”, disponibil aici: Al Jazeera . [...]

OpenAI își extinde distribuția în cloud dincolo de Microsoft , după ce modelele sale vor fi disponibile pentru prima dată în Amazon Bedrock , mișcare care poate schimba opțiunile de achiziție și integrare pentru companiile care folosesc servicii AWS, potrivit TechRadar . Parteneriatul vine la o zi după ce OpenAI a anunțat că Microsoft nu mai este partenerul său exclusiv de cloud, deși rămâne „partener prioritar”. În noul aranjament, clienții Amazon Bedrock vor putea accesa modele GPT și alte modele asociate, iar agentul Codex va putea fi integrat în medii AWS. Ce se schimbă pentru clienții AWS: OpenAI intră direct în Bedrock Integrarea pune modelele OpenAI „lângă” alte opțiuni deja disponibile în Bedrock, inclusiv de la Anthropic, Meta, Mistral, Cohere și Amazon, plus „alți furnizori de top”, conform informațiilor din material. TechRadar notează că pachetul include și „cel mai bun model de frontieră” al OpenAI, GPT‑5.5. Odată cu disponibilitatea în Bedrock, companiile păstrează accesul la funcții tipice de utilizare enterprise din AWS, precum: controale de acces IAM (gestionarea identităților și permisiunilor), rețelistică privată, criptare, „guardrails” (mecanisme de limitare și control al comportamentului modelelor), jurnalizare prin AWS CloudTrail. Codex, disponibil în ecosistemul AWS, dar deocamdată în „limited preview” Amazon evidențiază integrarea Codex și menționează că produsul are patru milioane de utilizatori săptămânali. Potrivit articolului, Codex este disponibil prin Codex CLI, aplicația desktop Codex și extensia pentru Visual Studio Code. Atât Codex în Bedrock, cât și disponibilitatea modelelor OpenAI și a Amazon Bedrock Managed Agents alimentați de OpenAI sunt, deocamdată, în regim de „limited preview” (acces limitat), ceea ce indică o lansare etapizată, nu o disponibilitate generală imediată. Context: un acord pe termen lung și investiții majore în infrastructură Dezvoltarea vine la câteva săptămâni după ce Amazon a anunțat un „parteneriat strategic multianual” cu OpenAI, care ar include o investiție de 50 miliarde dolari (aprox. 230 miliarde lei) în companie, conform TechRadar. În cadrul acelui acord, OpenAI ar urma să consume 2 GW de capacitate Trainium (cipuri/acceleratoare AWS pentru antrenarea modelelor) prin infrastructura AWS, iar cele două companii ar urma să dezvolte împreună modele personalizate pentru aplicațiile orientate către clienți ale Amazon. TechRadar mai menționează că acordul pe opt ani ar fi o extindere a unei înțelegeri anterioare, „în valoare combinată” de 138 miliarde dolari (aprox. 635 miliarde lei). AWS descrie acest pas drept „începutul unei colaborări mai profunde”, iar eliminarea exclusivității cu Microsoft poate deschide calea pentru extinderi similare și cu alți furnizori de cloud. [...]

Pentagonul își diversifică furnizorii de AI pentru rețele secrete , semnând acorduri cu șapte companii tehnologice și lăsând în afara listei Anthropic , pe fondul unei dispute legate de mecanismele de siguranță pentru utilizarea militară a inteligenței artificiale, potrivit Agerpres . Decizia are o miză operațională și de gestionare a riscului: integrarea unor „capacități avansate” de AI în rețele clasificate, în timp ce Pentagonul încearcă să evite blocaje de aprovizionare și o dependență prea mare de un singur furnizor, conform comunicatului citat de Reuters. Cine sunt furnizorii selectați și ce urmează să livreze Cele șapte companii cu care Departamentul american al Apărării a ajuns la acorduri sunt: SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft și Amazon. Unele dintre ele colaborau deja cu Pentagonul. Aceste soluții urmează să fie integrate în rețele cu „niveluri de impact 6 și 7”, o clasificare care se referă la efectele pe care compromiterea confidențialității, integrității sau disponibilității sistemelor informatice le-ar avea asupra securității naționale. De ce lipsește Anthropic din listă Comunicatul exclude Anthropic, companie aflată într-o dispută cu Pentagonul privind mecanismele de siguranță pentru utilizarea militară a AI. În același timp, sursa citată arată că există rezerve interne față de renunțarea la Anthropic: unii angajați ai departamentului, foști oficiali și furnizori de tehnologie care lucrează îndeaproape cu armata americană au declarat pentru Reuters că instrumentele firmei ar fi „mai bune decât alternativele”, deși s-a ordonat eliminarea lor în următoarele șase luni. Directorul pentru tehnologie al Departamentului Apărării, Emil Michael, a declarat pentru CNBC că Anthropic reprezintă în continuare un risc pentru lanțul de aprovizionare. Unde va fi folosită AI în armată Extinderea serviciilor de AI vizează utilizări precum: planificare; logistică; selectarea țintelor; alte activități operaționale, cu obiectivul de a simplifica și accelera operațiunile, potrivit comunicatului preluat de Reuters. [...]

Elon Musk a admis că xAI a folosit modele OpenAI pentru a antrena Grok , o recunoaștere care împinge în prim-plan „zona gri” a industriei AI privind distilarea modelelor și riscurile de încălcare a proprietății intelectuale, potrivit G4Media . Declarația a fost făcută într-un proces din California , în timpul unei audieri în care Musk a fost întrebat despre practicile de antrenare a modelelor de inteligență artificială. Discuția s-a concentrat pe „distilare” – o metodă prin care un model mai mare și mai performant este folosit pentru a antrena unul mai mic, transferându-i din capabilități. Întrebat direct dacă xAI a folosit tehnologia OpenAI în acest mod, Musk a evitat inițial un răspuns tranșant, spunând că „în general, toate companiile de AI” recurg la astfel de practici. Presat să clarifice, el a răspuns: „Parțial”. De ce contează: distilarea, între practică uzuală și dispută de proprietate intelectuală Distilarea este descrisă ca fiind larg utilizată în industrie, mai ales pentru a obține versiuni mai eficiente și mai accesibile ale unor sisteme complexe. În același timp, metoda a devenit controversată pe fondul disputelor legate de proprietatea intelectuală și de respectarea termenilor de utilizare. În acest context, articolul menționează mai multe poziții și reacții din industrie: Anthropic și OpenAI au atras atenția asupra riscurilor ca distilarea să fie folosită pentru a replica performanțele unor modele concurente fără a parcurge întregul proces de dezvoltare. Unele firme din China au fost acuzate că folosesc astfel de metode pentru a reduce costurile și timpul de dezvoltare. Google a anunțat măsuri pentru a limita ceea ce numește „atacuri de distilare”, pe care le consideră o posibilă formă de încălcare a proprietății intelectuale. Reprezentanții Anthropic au spus, într-o analiză publicată anterior, că distilarea este în esență o metodă legitimă și frecvent folosită pentru optimizarea modelelor proprii, dar care poate fi exploatată pentru avantaje competitive „discutabile”. Ce susține Musk Ulterior, Musk a spus că este „o practică standard” ca modelele de inteligență artificială să fie validate sau îmbunătățite cu ajutorul altor sisteme similare. Declarațiile vin pe fondul intensificării competiției în AI, într-un moment în care delimitarea dintre inovație, colaborare și utilizare controversată a tehnologiei devine tot mai dificilă, mai notează articolul. [...]

Elon Musk a recunoscut în instanță că xAI a folosit „distilarea” pe modele OpenAI pentru a antrena Grok , o practică ce poate eroda avantajul competitiv al laboratoarelor care investesc masiv în infrastructură de calcul și care, în același timp, ridică mizele privind aplicarea termenilor de utilizare ai modelelor, potrivit TechCrunch . Mărturia a fost dată joi, într-o instanță federală din California, în procesul în care Musk dă în judecată OpenAI , pe CEO-ul Sam Altman și pe Greg Brockman. Întrebat dacă xAI a folosit tehnici de distilare pe modele OpenAI pentru a antrena Grok, Musk a spus că este o practică generală în industrie, iar când i s-a cerut să confirme dacă răspunsul este „da”, a răspuns: „Parțial”. De ce contează: distilarea reduce bariera de cost și apasă pe regulile de utilizare Distilarea (în contextul modelelor de inteligență artificială) este o metodă prin care un model nou este antrenat să reproducă comportamentul unuia mai performant, prin interogări sistematice ale chatboturilor sau ale interfețelor de programare (API) puse la dispoziție public. Miza economică este că astfel pot fi obținute modele „aproape la fel de capabile” la costuri mai mici, subminând avantajul construit de jucătorii mari prin investiții în capacitate de calcul. TechCrunch notează că nu este clar dacă distilarea este explicit ilegală; mai degrabă, ar putea încălca termenii de utilizare impuși de companii pentru produsele lor. Reacția industriei: încercări de a bloca interogările „suspecte” În paralel, OpenAI, Anthropic și Google ar fi lansat, prin Frontier Model Forum, o inițiativă de schimb de informații despre cum pot fi combătute încercările de distilare, în special din China. Abordarea descrisă se bazează pe identificarea și prevenirea interogărilor în masă care pot „cartografia” comportamentul intern al modelelor. OpenAI nu a răspuns solicitării de comentariu privind declarația lui Musk, la momentul publicării articolului. Context din proces: poziționarea xAI în cursa globală În aceeași mărturie, Musk a fost întrebat despre o afirmație făcută vara trecută, potrivit căreia xAI ar urma să depășească în curând orice companie, cu excepția Google. El a clasat furnizorii de top astfel: Anthropic pe primul loc, urmată de OpenAI, Google și modele chinezești cu cod deschis, caracterizând xAI drept o companie mult mai mică, cu „câteva sute” de angajați. [...]