Știri
Știri din categoria Inteligență artificială

Satya Nadella avertizează că AI poate deveni o bulă dacă e alimentată doar de investiții, într-o discuție la Forumul Economic Mondial de la Davos cu Larry Fink, directorul general al BlackRock. Mesajul lui Nadella către marile companii este că testul real al sustenabilității nu este entuziasmul din jurul tehnologiei, ci cererea și schimbarea efectivă a modului de lucru.
Șeful Microsoft, care a accelerat investițiile și integrarea inteligenței artificiale prin parteneriatul cu OpenAI și prin dezvoltările interne (inclusiv instrumentul Copilot), a abordat direct o temă care a alimentat îngrijorări pe Wall Street în a doua parte a lui 2025: riscul ca piața AI să semene cu o bulă.
În conversația de la Davos, Nadella a spus că un indiciu al unei bule ar fi ca avansul AI să fie împins doar de investiții și de oferta de tehnologie, nu de adopția reală în economie. El a argumentat că, dacă atenția publică rămâne concentrată exclusiv pe companiile de tehnologie și pe partea de „ofertă”, atunci semnalul este problematic.
„Un semn revelator că ne aflăm într-o bulă este faptul că majoritatea exemplelor pozitive vin aproape exclusiv din sectorul tehnologic. Dacă doar companiile care dezvoltă sau vând inteligență artificială par să beneficieze de pe urma ei, iar restul economiei nu vede rezultate clare, atunci e posibil ca hype-ul din jurul AI-ului să nu reflecte încă o valoare reală pe scară largă. În cele din urmă, cheia este prețul kW/token — acolo se vede dacă tehnologia e sustenabilă sau doar o promisiune scumpă.”
În aceeași logică, Nadella a sugerat că discuția despre AI trebuie mutată de la performanța tehnologiei la modul în care companiile o folosesc pentru a-și reorganiza munca și a obține rezultate măsurabile.
Nadella a susținut că soluția pentru a evita o adopție superficială este schimbarea fluxurilor de lucru astfel încât să se potrivească „designului structural” al AI. Cu alte cuvinte, nu este suficientă introducerea unor instrumente noi peste procese vechi, ci e nevoie de reproiectarea proceselor.
El a formulat această idee ca pe o responsabilitate de management: liderii trebuie să schimbe munca (fluxul de lucru) odată cu tehnologia, nu doar să adauge tehnologia în organizație. În viziunea sa, acesta este punctul în care se vede diferența dintre investiție și productivitate.
Nadella a comparat momentul actual cu anii 1980, când informatizarea a schimbat birourile și a creat o nouă categorie de angajați, „munca de cunoaștere” (activități bazate pe informație și analiză, susținute de software). El a spus că un fenomen similar ar urma să se repete în contextul AI.
În același timp, a descris AI ca pe o „inversare completă” a felului în care circulă informația într-o companie: în locul proceselor lente, ierarhice, AI ar „aplatiza” fluxul informațional, ceea ce obligă la regândirea structurii organizaționale. Această tranziție, a avertizat el, poate fi mai dificilă pentru companiile foarte mari, unde schimbarea fluxurilor de lucru se lovește de departamente, specializări și practici consolidate.
Potrivit Fortune, datele din cea de-a 29-a ediție a sondajului PwC Global CEO Survey arată un contrast clar între interesul crescut pentru inteligența artificială și rezultatele concrete obținute de companii. Doar 10%–12% dintre acestea spun că au observat un impact real asupra veniturilor sau costurilor, în timp ce 56% recunosc că nu au obținut nimic din folosirea tehnologiei.
Tot ei notează și o constatare anterioară, din august 2025, potrivit căreia 95% dintre proiectele-pilot de inteligență artificială generativă eșuau. În acest context, Mohamed Kande, președintele global al PwC, a spus la Davos că o parte dintre directori sunt prudenți și au încredere limitată în această etapă a ciclului de adopție, iar diferența o face execuția: companiile care văd beneficii „pun bazele” corect.
În discuția cu Fink, Nadella a avertizat că organizațiile mari se confruntă cu o provocare de ritm: dacă viteza schimbării interne nu ține pasul cu ceea ce permite tehnologia, pot fi depășite de jucători mai mici care reușesc să atingă rapid scară folosind aceste instrumente.
Totuși, el a recunoscut că marile organizații au încă avantaje importante, precum relațiile, datele și know-how-ul. Condiția, în interpretarea sa, este ca aceste resurse să fie folosite pentru a schimba stilul de management și modul de lucru; altfel, pot deveni un obstacol în loc de un atu.
Recomandate

Pentagonul își diversifică furnizorii de AI pentru rețele secrete , semnând acorduri cu șapte companii tehnologice și lăsând în afara listei Anthropic , pe fondul unei dispute legate de mecanismele de siguranță pentru utilizarea militară a inteligenței artificiale, potrivit Agerpres . Decizia are o miză operațională și de gestionare a riscului: integrarea unor „capacități avansate” de AI în rețele clasificate, în timp ce Pentagonul încearcă să evite blocaje de aprovizionare și o dependență prea mare de un singur furnizor, conform comunicatului citat de Reuters. Cine sunt furnizorii selectați și ce urmează să livreze Cele șapte companii cu care Departamentul american al Apărării a ajuns la acorduri sunt: SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft și Amazon. Unele dintre ele colaborau deja cu Pentagonul. Aceste soluții urmează să fie integrate în rețele cu „niveluri de impact 6 și 7”, o clasificare care se referă la efectele pe care compromiterea confidențialității, integrității sau disponibilității sistemelor informatice le-ar avea asupra securității naționale. De ce lipsește Anthropic din listă Comunicatul exclude Anthropic, companie aflată într-o dispută cu Pentagonul privind mecanismele de siguranță pentru utilizarea militară a AI. În același timp, sursa citată arată că există rezerve interne față de renunțarea la Anthropic: unii angajați ai departamentului, foști oficiali și furnizori de tehnologie care lucrează îndeaproape cu armata americană au declarat pentru Reuters că instrumentele firmei ar fi „mai bune decât alternativele”, deși s-a ordonat eliminarea lor în următoarele șase luni. Directorul pentru tehnologie al Departamentului Apărării, Emil Michael, a declarat pentru CNBC că Anthropic reprezintă în continuare un risc pentru lanțul de aprovizionare. Unde va fi folosită AI în armată Extinderea serviciilor de AI vizează utilizări precum: planificare; logistică; selectarea țintelor; alte activități operaționale, cu obiectivul de a simplifica și accelera operațiunile, potrivit comunicatului preluat de Reuters. [...]

Elon Musk a admis că xAI a folosit modele OpenAI pentru a antrena Grok , o recunoaștere care împinge în prim-plan „zona gri” a industriei AI privind distilarea modelelor și riscurile de încălcare a proprietății intelectuale, potrivit G4Media . Declarația a fost făcută într-un proces din California , în timpul unei audieri în care Musk a fost întrebat despre practicile de antrenare a modelelor de inteligență artificială. Discuția s-a concentrat pe „distilare” – o metodă prin care un model mai mare și mai performant este folosit pentru a antrena unul mai mic, transferându-i din capabilități. Întrebat direct dacă xAI a folosit tehnologia OpenAI în acest mod, Musk a evitat inițial un răspuns tranșant, spunând că „în general, toate companiile de AI” recurg la astfel de practici. Presat să clarifice, el a răspuns: „Parțial”. De ce contează: distilarea, între practică uzuală și dispută de proprietate intelectuală Distilarea este descrisă ca fiind larg utilizată în industrie, mai ales pentru a obține versiuni mai eficiente și mai accesibile ale unor sisteme complexe. În același timp, metoda a devenit controversată pe fondul disputelor legate de proprietatea intelectuală și de respectarea termenilor de utilizare. În acest context, articolul menționează mai multe poziții și reacții din industrie: Anthropic și OpenAI au atras atenția asupra riscurilor ca distilarea să fie folosită pentru a replica performanțele unor modele concurente fără a parcurge întregul proces de dezvoltare. Unele firme din China au fost acuzate că folosesc astfel de metode pentru a reduce costurile și timpul de dezvoltare. Google a anunțat măsuri pentru a limita ceea ce numește „atacuri de distilare”, pe care le consideră o posibilă formă de încălcare a proprietății intelectuale. Reprezentanții Anthropic au spus, într-o analiză publicată anterior, că distilarea este în esență o metodă legitimă și frecvent folosită pentru optimizarea modelelor proprii, dar care poate fi exploatată pentru avantaje competitive „discutabile”. Ce susține Musk Ulterior, Musk a spus că este „o practică standard” ca modelele de inteligență artificială să fie validate sau îmbunătățite cu ajutorul altor sisteme similare. Declarațiile vin pe fondul intensificării competiției în AI, într-un moment în care delimitarea dintre inovație, colaborare și utilizare controversată a tehnologiei devine tot mai dificilă, mai notează articolul. [...]

Elon Musk a recunoscut în instanță că xAI a folosit „distilarea” pe modele OpenAI pentru a antrena Grok , o practică ce poate eroda avantajul competitiv al laboratoarelor care investesc masiv în infrastructură de calcul și care, în același timp, ridică mizele privind aplicarea termenilor de utilizare ai modelelor, potrivit TechCrunch . Mărturia a fost dată joi, într-o instanță federală din California, în procesul în care Musk dă în judecată OpenAI , pe CEO-ul Sam Altman și pe Greg Brockman. Întrebat dacă xAI a folosit tehnici de distilare pe modele OpenAI pentru a antrena Grok, Musk a spus că este o practică generală în industrie, iar când i s-a cerut să confirme dacă răspunsul este „da”, a răspuns: „Parțial”. De ce contează: distilarea reduce bariera de cost și apasă pe regulile de utilizare Distilarea (în contextul modelelor de inteligență artificială) este o metodă prin care un model nou este antrenat să reproducă comportamentul unuia mai performant, prin interogări sistematice ale chatboturilor sau ale interfețelor de programare (API) puse la dispoziție public. Miza economică este că astfel pot fi obținute modele „aproape la fel de capabile” la costuri mai mici, subminând avantajul construit de jucătorii mari prin investiții în capacitate de calcul. TechCrunch notează că nu este clar dacă distilarea este explicit ilegală; mai degrabă, ar putea încălca termenii de utilizare impuși de companii pentru produsele lor. Reacția industriei: încercări de a bloca interogările „suspecte” În paralel, OpenAI, Anthropic și Google ar fi lansat, prin Frontier Model Forum, o inițiativă de schimb de informații despre cum pot fi combătute încercările de distilare, în special din China. Abordarea descrisă se bazează pe identificarea și prevenirea interogărilor în masă care pot „cartografia” comportamentul intern al modelelor. OpenAI nu a răspuns solicitării de comentariu privind declarația lui Musk, la momentul publicării articolului. Context din proces: poziționarea xAI în cursa globală În aceeași mărturie, Musk a fost întrebat despre o afirmație făcută vara trecută, potrivit căreia xAI ar urma să depășească în curând orice companie, cu excepția Google. El a clasat furnizorii de top astfel: Anthropic pe primul loc, urmată de OpenAI, Google și modele chinezești cu cod deschis, caracterizând xAI drept o companie mult mai mică, cu „câteva sute” de angajați. [...]

Procesul dintre Elon Musk și Sam Altman riscă să complice traseul OpenAI către o listare și să amplifice presiunea juridică asupra modelului său hibrid (nonprofit–profit), într-un moment în care compania este descrisă ca fiind „pregătită” pentru un IPO, potrivit Al Jazeera . Într-un proces federal din California , Musk – cofondator OpenAI – a depus mărturie pentru a doua zi, susținând că Altman a „trădat” promisiunile inițiale de a păstra organizația ca nonprofit „dedicată beneficiului umanității”. Litigiul pornește de la înființarea OpenAI în 2015 ca nonprofit și transformarea ulterioară într-o structură orientată spre profit. Musk a declarat în fața juraților că și-a pierdut încrederea că Altman va menține misiunea nonprofit și a spus că, spre finalul lui 2022, se temea că Altman încerca să „fure caritatea”, afirmând că „s-a dovedit a fi adevărat”. Altman a fost prezent în sală, dar nu a depus mărturie, conform relatării. Miza economică: IPO și modelul de finanțare Avocații OpenAI au respins acuzațiile și au susținut că nu a existat niciodată un angajament de a rămâne nonprofit. Compania afirmă că a creat o componentă cu scop lucrativ pentru a finanța nevoile mari de putere de calcul și pentru a atrage talente. În același timp, OpenAI ar fi „pregătită” pentru o ofertă publică inițială care ar putea evalua compania la 1.000 de miliarde de dolari, potrivit Reuters, citată de Al Jazeera. În acest context, disputa privind guvernanța și misiunea inițială poate deveni un factor de risc reputațional și juridic, cu potențiale efecte asupra investitorilor și structurii de control. Ce cere Musk în instanță Musk a investit aproximativ 38 de milioane de dolari (aprox. 174 milioane lei) în OpenAI între 2015 și 2017 și a părăsit organizația în 2018. În proces, el solicită: 150 de miliarde de dolari (aprox. 690 miliarde lei) despăgubiri de la OpenAI și Microsoft , cu orice sumă acordată direcționată către brațul caritabil al OpenAI; obligarea OpenAI să revină la statutul de nonprofit; înlăturarea lui Sam Altman și a cofondatorului Greg Brockman din conducere. Musk a mai susținut că organizația a fost „capturată” și a descris o ofertă de a investi, venită din partea lui Altman, ca părând „ca o mită”. Apărarea OpenAI: competiția cu xAI Echipa juridică a OpenAI afirmă că acțiunea lui Musk urmărește să submineze compania în favoarea propriei sale inițiative, xAI. OpenAI, organizată acum ca „public benefit corporation” (o formă corporativă care combină obiective comerciale cu o misiune de interes public), susține că demersul este alimentat de competiție și notează că xAI este în urma OpenAI la adopția de către utilizatori. Context suplimentar despre proces apare într-un material anterior al publicației, „stand for a second day”, disponibil aici: Al Jazeera . [...]

OpenAI își schimbă strategia de infrastructură și se îndepărtează de ideea de a deține centre de date „ Stargate ”, preferând să închirieze pe termen lung capacitate de calcul , o mutare care reduce nevoia de investiții directe, dar tensionează relațiile cu partenerii și ridică semne de întrebare privind predictibilitatea companiei, potrivit Tom's Hardware . În forma inițială, Stargate a fost prezentat la începutul lui 2025 ca un joint venture cu Oracle și SoftBank, cu o țintă de investiții de 500 de miliarde de dolari (aprox. 2.250 miliarde lei) în centre de date pentru inteligență artificială în SUA. După „mai mult de un an” de dificultăți și neînțelegeri, OpenAI ar fi renunțat, în practică, la ideea de a deține infrastructură alături de parteneri și ar fi trecut la acorduri mai flexibile, bazate pe furnizori terți și închiriere de capacitate, conform Financial Times. De ce contează: mai puțin capital blocat, dar mai mult risc de execuție și încredere Schimbarea are o logică financiară pentru o companie care „arde numerar” și care ar fi ratat în ultimele luni ținte interne de venituri, notează materialul. În același timp, repoziționarea a produs „haos” în rândul partenerilor și a pus sub semnul întrebării fiabilitatea OpenAI, în condițiile în care raportul citat susține că startup-ul a „abandonat în practică” joint venture-ul, în favoarea unor acorduri bilaterale mari (inclusiv cu Oracle). O persoană implicată în proiect ar fi spus că OpenAI a „tras pe linie moartă centrele de date proprii”, iar compania ar fi admis că Stargate este doar un „termen umbrelă” pentru strategia sa de capacitate de calcul. Efecte colaterale: proiecte puse pe pauză și parteneri nemulțumiți Incertitudinile ar fi afectat și proiecte din afara SUA. Guvernul britanic a semnat un acord cu OpenAI și alți parteneri pentru construirea unui centru de date în Marea Britanie, însă OpenAI l-a pus „pe hold” la începutul acestei luni, invocând „reglementări restrictive” și „costuri ridicate ale energiei”. Ministrul britanic pentru IA, Kanishka Narayan, a declarat pentru Financial Times că singurul lucru care s-a schimbat față de momentul angajamentelor ar fi fost „mediul de finanțare pentru OpenAI”. În paralel, unele părți implicate ar fi rămas cu sentimentul că au fost „dezamăgite și induse în eroare”, pe fondul deciziei Microsoft de a interveni în unele proiecte pe care OpenAI le-ar fi abandonat. O sursă citată de publicație a punctat că „banii nu sunt nelimitați”, iar o alta a spus că ar prefera Microsoft ca „chiriaș”, pentru că „este mai solvabil”. În lipsa unor detalii suplimentare în material despre calendarul noilor acorduri sau despre ce proiecte vor continua efectiv sub „umbrela” Stargate, rămâne de urmărit cum va arăta, concret, mixul de furnizori și contracte prin care OpenAI își va asigura capacitatea de calcul în perioada următoare. [...]

OpenAI își extinde distribuția în cloud dincolo de Microsoft , după ce modelele sale vor fi disponibile pentru prima dată în Amazon Bedrock , mișcare care poate schimba opțiunile de achiziție și integrare pentru companiile care folosesc servicii AWS, potrivit TechRadar . Parteneriatul vine la o zi după ce OpenAI a anunțat că Microsoft nu mai este partenerul său exclusiv de cloud, deși rămâne „partener prioritar”. În noul aranjament, clienții Amazon Bedrock vor putea accesa modele GPT și alte modele asociate, iar agentul Codex va putea fi integrat în medii AWS. Ce se schimbă pentru clienții AWS: OpenAI intră direct în Bedrock Integrarea pune modelele OpenAI „lângă” alte opțiuni deja disponibile în Bedrock, inclusiv de la Anthropic, Meta, Mistral, Cohere și Amazon, plus „alți furnizori de top”, conform informațiilor din material. TechRadar notează că pachetul include și „cel mai bun model de frontieră” al OpenAI, GPT‑5.5. Odată cu disponibilitatea în Bedrock, companiile păstrează accesul la funcții tipice de utilizare enterprise din AWS, precum: controale de acces IAM (gestionarea identităților și permisiunilor), rețelistică privată, criptare, „guardrails” (mecanisme de limitare și control al comportamentului modelelor), jurnalizare prin AWS CloudTrail. Codex, disponibil în ecosistemul AWS, dar deocamdată în „limited preview” Amazon evidențiază integrarea Codex și menționează că produsul are patru milioane de utilizatori săptămânali. Potrivit articolului, Codex este disponibil prin Codex CLI, aplicația desktop Codex și extensia pentru Visual Studio Code. Atât Codex în Bedrock, cât și disponibilitatea modelelor OpenAI și a Amazon Bedrock Managed Agents alimentați de OpenAI sunt, deocamdată, în regim de „limited preview” (acces limitat), ceea ce indică o lansare etapizată, nu o disponibilitate generală imediată. Context: un acord pe termen lung și investiții majore în infrastructură Dezvoltarea vine la câteva săptămâni după ce Amazon a anunțat un „parteneriat strategic multianual” cu OpenAI, care ar include o investiție de 50 miliarde dolari (aprox. 230 miliarde lei) în companie, conform TechRadar. În cadrul acelui acord, OpenAI ar urma să consume 2 GW de capacitate Trainium (cipuri/acceleratoare AWS pentru antrenarea modelelor) prin infrastructura AWS, iar cele două companii ar urma să dezvolte împreună modele personalizate pentru aplicațiile orientate către clienți ale Amazon. TechRadar mai menționează că acordul pe opt ani ar fi o extindere a unei înțelegeri anterioare, „în valoare combinată” de 138 miliarde dolari (aprox. 635 miliarde lei). AWS descrie acest pas drept „începutul unei colaborări mai profunde”, iar eliminarea exclusivității cu Microsoft poate deschide calea pentru extinderi similare și cu alți furnizori de cloud. [...]