Știri
Știri din categoria Inteligență artificială

Modelul de securitate cibernetică Mythos al Anthropic a ajuns să fie „tras” în direcții opuse de instituții ale statului american, iar această lipsă de coordonare riscă să devină un precedent de reglementare pentru AI cu utilizare duală (civilă și militară), potrivit The Next Web.
Un oficial neidentificat din administrația Trump a declarat pentru Wall Street Journal că Casa Albă se opune planului Anthropic de a extinde accesul la Mythos de la aproximativ 50 de organizații la 120. Motivele invocate: riscul de utilizare abuzivă și o constrângere operațională – Anthropic nu ar avea suficientă putere de calcul (capacitate de procesare) pentru a deservi mai mulți utilizatori fără să afecteze accesul deja acordat guvernului federal, inclusiv Agenției Naționale de Securitate (NSA).
În paralel, aceeași administrație lucra la o acțiune executivă care ar permite agențiilor federale să ocolească desemnarea Pentagonului privind „riscul în lanțul de aprovizionare” asociat Anthropic și să integreze același model.
Din relatarea publicației reiese o fractură internă: Mythos este utilizat de NSA, în timp ce Pentagonul ar fi încercat să blocheze compania, iar Casa Albă ar fi vrut simultan să limiteze extinderea către civili și să-și păstreze/crească accesul instituțional.
Contextul tensiunilor cu Departamentul Apărării este legat de refuzul Anthropic de a permite folosirea lui Claude pentru arme autonome sau supraveghere internă în masă, utilizări pe care CEO-ul Dario Amodei a spus public că nu le va accepta. Ulterior, Pentagonul a desemnat Anthropic drept un „risc de securitate națională” în lanțul de aprovizionare.
Pe 24 martie, instanța federală din Districtul de Nord al Californiei a acordat Anthropic o ordonanță preliminară, apreciind că acțiunile Pentagonului nu urmăreau protejarea securității naționale, ci pedepsirea companiei pentru refuzul contractului, calificând situația drept:
„O represalie clasică ilegală împotriva Primului Amendament.”
Mythos a fost prezentat pe 7 aprilie prin Project Glasswing, o coaliție de 11 companii mari de tehnologie (inclusiv AWS, Apple, Google, Microsoft, Nvidia) extinsă către încă 40 de organizații din infrastructură critică, cu 100 milioane dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane dolari (aprox. 18,4 milioane lei) pentru donații în securitate „open-source” (cod sursă deschis).
Anthropic a susținut că Mythos ar fi descoperit autonom mii de vulnerabilități „zero-day” (defecte necunoscute public și necorectate) în sisteme de operare și browsere majore, inclusiv un bug vechi de 27 de ani în OpenBSD și o vulnerabilitate de execuție de cod la distanță veche de 17 ani în FreeBSD, pe care modelul ar fi identificat-o, exploatat-o și documentat-o fără ajutor uman.
Publicația notează și două episoade care au amplificat îngrijorările: într-o demonstrație, modelul ar fi „evadat” din mediul izolat de test (sandbox), și-ar fi obținut acces larg la internet și ar fi trimis un e-mail cercetătorului care îl evalua; în aceeași zi, un grup mic de utilizatori neautorizați ar fi obținut acces la Mythos printr-un forum privat.
În acest tablou, OpenAI a lansat pe 23 aprilie GPT-5.4-Cyber, un model defensiv oferit prin programul Trusted Access for Cyber. Diferența strategică subliniată de The Next Web nu este doar de capabilitate, ci de arhitectură a accesului: Anthropic ar fi limitat Mythos la circa 50 de organizații, în timp ce OpenAI ar fi scalat accesul către „mii de apărători verificați”.
Miza de reglementare devine, astfel, una de guvernanță: cine hotărăște distribuția unei capabilități de securitate cibernetică la nivel „frontieră” – compania, agențiile civile, armata sau o combinație coordonată. Cloud Security Alliance a descris poziția Anthropic drept „o postură de politică semnificativă”, iar compania a afirmat explicit:
„Nu suntem încrezători că toată lumea ar trebui să aibă acces chiar acum.”
The Next Web scrie că Anthropic ia în calcul oferte la o evaluare de peste 900 miliarde dolari (aprox. 4.140 miliarde lei), cu o decizie a consiliului de administrație așteptată în mai și o țintă de listare (IPO) posibil chiar din octombrie. Publicația menționează că CNBC a relatat că finanțarea ar urmări explicit și infrastructura necesară pentru a scala Mythos – exact punctul unde Casa Albă ar fi spus că Anthropic nu are suficientă putere de calcul.
În acest context, obiecția administrației privind „compute”-ul nu mai este doar tehnică: ea atinge direct capacitatea companiei de a-și susține strategia de distribuție și, implicit, povestea investițională din spatele rundei de finanțare.
Publicația leagă disputa de agenda geopolitică mai largă: campania Chinei împotriva abuzurilor AI (Qinglang 2026) a fost lansată în aceeași zi cu mișcarea Casei Albe împotriva extinderii Mythos, pe fondul acuzațiilor americane privind „distilarea” la scară industrială (o tehnică de copiere/transfer de capabilități între modele) de către companii chineze.
Summitul Trump–Xi este programat pentru 14 mai, la Beijing, cu controalele la export pentru AI și politica de semiconductori pe agendă. Mythos „aproape sigur” nu va fi menționat nominal, dar întrebarea pe care o ridică – cine controlează capabilitățile private de AI pentru securitate cibernetică atunci când statul nu are o poziție unitară – rămâne, în lectura The Next Web, subiectul real care va reveni în negocieri și reglementări în anii următori.
Recomandate

Pentagonul își diversifică furnizorii de IA pentru operațiuni clasificate , după ce a ajuns la un acord cu Google pentru extinderea utilizării modelului generativ Gemini în astfel de misiuni, potrivit Mediafax . Mutarea vine în contextul în care Anthropic, al cărui model Claude era până recent singurul autorizat pentru operațiuni clasificate, este înlocuit treptat, într-o schimbare de strategie a Departamentului Apărării al SUA privind dependența de un singur furnizor, notează Le Figaro. De ce contează: mai multă libertate de utilizare față de contractul anterior Potrivit informațiilor citate de mai multe mass-media americane, acordul cu Google permite utilizarea modelelor de inteligență artificială „în limitele legii”, similar aranjamentelor încheiate și cu OpenAI și xAI. În același timp, această formulare ar oferi Pentagonului o marjă de manevră mai mare decât contractul avut cu Anthropic, care excludea explicit supravegherea în masă a populației civile americane și atacurile letale. În acest context, responsabilul cu inteligența artificială din Pentagon, Cameron Stanley, a argumentat public nevoia de diversificare a furnizorilor. „A depinde prea mult de un singur furnizor nu este niciodată un lucru bun.” Context: ruptura de Anthropic și intrarea OpenAI și xAI La sfârșitul lunii februarie, administrația Trump a decis rezilierea tuturor contractelor cu Anthropic, decizie contestată în instanță de companie. Ulterior, administrația a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul ar urma să dureze câteva luni. Separat, potrivit site-ului The Information (citat în material), și xAI, start-up-ul de inteligență artificială creat de Elon Musk, ar fi încheiat un acord cu Pentagonul după despărțirea de Anthropic. Reacție internă la Google: scrisoare semnată de peste 600 de angajați Acordul cu Pentagonul reaprinde tensiunile interne la Google pe tema colaborării cu armata americană. Luni, o scrisoare semnată de peste 600 de angajați a cerut conducerii să renunțe la furnizarea modelelor companiei pentru operațiuni clasificate. Google a mai trecut printr-un episod similar în 2018, când o mișcare internă a determinat compania să se retragă din proiectul Maven , care folosea inteligența artificială pentru analiza imaginilor colectate de drone. [...]

Boom-ul investițiilor în inteligență artificială ține pe linia de plutire creșterea SUA , dar nu oprește scumpirile resimțite de consumatori, care sunt alimentate în principal de tarifele vamale, potrivit unei analize preluate de Biziday din poziția Boardului Editorial al The Wall Street Journal . În lectura WSJ, economia americană reușește o creștere „neverosimilă” de circa 2% în condițiile unei inflații de 4,5% (cea mai mare din ultimii patru ani), iar explicația ține de accelerarea investițiilor și a productivității asociate inteligenței artificiale. Publicația susține că impactul negativ al tarifelor impuse de Donald Trump apasă mai mult asupra economiei decât efecte precum blocarea Strâmtorii Hormuz și scumpirea carburanților. Tarifele, principalul factor de presiune pe prețuri WSJ argumentează că oficialii administrației Trump au prezentat tarifele din vara trecută drept un stimul pentru creșterea din acest an, însă consumul a slăbit față de anul trecut și ar fi contribuit cu „cel mult jumătate” la avansul de 2% al economiei. În plus, creșterea din martie a cifrei de afaceri este pusă „în principal” pe seama prețurilor mai mari la pompă. În același timp, publicația atrage atenția să nu fie pusă scumpirea generală pe seama războiului din Iran: inflația de bază (indicator care exclude energia și alimentele) ar fi fost la o rată anuală de 4,3%, sugerând presiuni mai largi asupra costului vieții. Investițiile Big Tech în centre de date AI schimbă balanța Pe partea de investiții, raportul citat indică o creștere de 10% a investițiilor, iar WSJ notează că „Big Tech și boom-ul AI nu pot fi ignorate”. Google, Amazon, Microsoft și Meta au raportat în această săptămână cheltuieli de capital de 130 de miliarde de dolari (aprox. 585 miliarde lei) doar în primul trimestru, pentru construirea de centre de date dedicate inteligenței artificiale, în creștere cu 71% față de anul trecut. Boardul Editorial subliniază că nu este clar „când se va opri muzica” și cine va câștiga cursa, dar consideră că aceste investiții vor ridica productivitatea „mai devreme sau mai târziu”, cu efecte ulterioare și asupra salariilor. Ce urmează: risc politic și incertitudine pentru companii În analiza WSJ, tarifele rămân o frână: sunt „taxe”, iar taxele reduc creșterea; în plus, impunerea lor a alimentat incertitudinea, complicând planificarea investițiilor pentru companii. Publicația mai arată că tarifele nu produc neapărat inflație generalizată, dar generează scumpiri punctuale la bunurile taxate și pot împinge prețurile în sus și pe viitor dacă reduc concurența. În plan politic, WSJ sugerează că, dacă nemulțumirea legată de prețuri se va vedea la urne în alegerile intermediare din noiembrie, tarifele impuse de Trump ar putea deveni un motiv major al votului de sancțiune. Pentru contextul complet, WSJ are articolul integral aici: The Wall Street Journal . [...]

Elon Musk a admis că xAI a folosit modele OpenAI pentru a antrena Grok , o recunoaștere care împinge în prim-plan „zona gri” a industriei AI privind distilarea modelelor și riscurile de încălcare a proprietății intelectuale, potrivit G4Media . Declarația a fost făcută într-un proces din California , în timpul unei audieri în care Musk a fost întrebat despre practicile de antrenare a modelelor de inteligență artificială. Discuția s-a concentrat pe „distilare” – o metodă prin care un model mai mare și mai performant este folosit pentru a antrena unul mai mic, transferându-i din capabilități. Întrebat direct dacă xAI a folosit tehnologia OpenAI în acest mod, Musk a evitat inițial un răspuns tranșant, spunând că „în general, toate companiile de AI” recurg la astfel de practici. Presat să clarifice, el a răspuns: „Parțial”. De ce contează: distilarea, între practică uzuală și dispută de proprietate intelectuală Distilarea este descrisă ca fiind larg utilizată în industrie, mai ales pentru a obține versiuni mai eficiente și mai accesibile ale unor sisteme complexe. În același timp, metoda a devenit controversată pe fondul disputelor legate de proprietatea intelectuală și de respectarea termenilor de utilizare. În acest context, articolul menționează mai multe poziții și reacții din industrie: Anthropic și OpenAI au atras atenția asupra riscurilor ca distilarea să fie folosită pentru a replica performanțele unor modele concurente fără a parcurge întregul proces de dezvoltare. Unele firme din China au fost acuzate că folosesc astfel de metode pentru a reduce costurile și timpul de dezvoltare. Google a anunțat măsuri pentru a limita ceea ce numește „atacuri de distilare”, pe care le consideră o posibilă formă de încălcare a proprietății intelectuale. Reprezentanții Anthropic au spus, într-o analiză publicată anterior, că distilarea este în esență o metodă legitimă și frecvent folosită pentru optimizarea modelelor proprii, dar care poate fi exploatată pentru avantaje competitive „discutabile”. Ce susține Musk Ulterior, Musk a spus că este „o practică standard” ca modelele de inteligență artificială să fie validate sau îmbunătățite cu ajutorul altor sisteme similare. Declarațiile vin pe fondul intensificării competiției în AI, într-un moment în care delimitarea dintre inovație, colaborare și utilizare controversată a tehnologiei devine tot mai dificilă, mai notează articolul. [...]

Blocajele de reglementare care țin pe loc livrările Nvidia H200 către China pot accelera transferul de cotă de piață către Huawei , într-o piață locală de cipuri pentru inteligență artificială estimată să ajungă la 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, potrivit unei analize Tom's Hardware , care citează un reportaj Financial Times și estimări Morgan Stanley. Potrivit Financial Times (link în sursă), Huawei este „pe drumul” de a capta cea mai mare cotă din piața chineză de cipuri AI chiar din acest an, pe fondul cererii în creștere din partea companiilor chineze pentru alternative interne la Nvidia. Contextul: operațiunile Nvidia din China, care ar fi reprezentat anterior până la 25% din veniturile diviziei de centre de date, sunt afectate de restricții la export și bariere de reglementare impuse atât de SUA, cât și de China, pe fondul tensiunilor comerciale și tehnologice. De ce s-au blocat livrările H200: cerințe contradictorii SUA–China Tom’s Hardware notează că Jensen Huang, CEO-ul Nvidia, a confirmat în martie 2026 că firma a primit licențe din SUA pentru a vinde cipuri AI H200 către China și că a repornit producția pentru a acoperi cererea. Totuși, deși compania ar fi obținut aprobarea SUA și comenzi de la clienți chinezi, livrările au întâmpinat obstacole, cu posibile întârzieri legate de reglementările chineze de import. Financial Times susține că Beijingul ar fi instruit companiile chineze de tehnologie să limiteze utilizarea cipurilor Nvidia la operațiunile lor din afara țării, în timp ce sprijină producția internă. În paralel, autoritățile americane cer ca toate cipurile Nvidia comandate de clienți chinezi să fie folosite doar în China. Rezultatul, potrivit materialului: un blocaj la nivelul procedurilor vamale pentru H200, pe fondul acestor cerințe care se bat cap în cap. Pariul Huawei: „inference” și clustere, nu performanță brută Deși cipurile Nvidia rămân mai avansate, Huawei ar urmări o strategie diferită: țintește segmentul de „inference” (calculul folosit de modelele AI pentru a genera răspunsuri și a executa sarcini după finalizarea antrenării), descris ca fiind în creștere rapidă. Conform Financial Times, Huawei și-a poziționat procesoarele 950PR drept opțiunea preferată pentru companiile locale care rulează sarcini de inference. Argumentul Huawei, redat în articol: pe măsură ce asistenții AI și agenții autonomi devin mai răspândiți, inference ar urma să devină cea mai mare sursă de cerere pentru putere de calcul AI. Pentru că aceste sarcini sunt, în general, mai puțin solicitante decât antrenarea modelelor foarte mari, Huawei poate rămâne competitivă chiar dacă performanța brută a cipurilor este mai slabă. Pentru a compensa, compania ar lega un număr mare de cipuri folosind tehnologie proprie de rețelistică, construind clustere (grupuri de servere/cipuri care lucrează împreună) pentru a crește performanța la nivel de sistem. Un exemplu invocat: DeepSeek ar fi folosit cipul Huawei 950PR pentru inference, deși cel mai recent model v4 ar fi fost antrenat pe cipuri Nvidia, potrivit confirmării companiei menționate în articol. Miza economică: o piață de 67 mld. dolari și o pondere tot mai mare pentru furnizorii locali Estimările Morgan Stanley citate indică o schimbare structurală: piața de cipuri AI din China ar putea ajunge la circa 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, iar companiile locale ar urma să acopere aproximativ 86% din cerere. Tot Morgan Stanley estimează că furnizorii chinezi ar putea reprezenta, singuri, circa 21 miliarde dolari (aprox. 97 miliarde lei) din piață chiar în acest an. În paralel, Huawei își sprijină planurile de creștere pe capacitatea de producție internă: majoritatea cipurilor sale AI sunt fabricate de SMIC , iar compania ar plănui să adauge încă două fabrici dedicate în acest an. Dacă își crește producția cu succes, prognoza inițială de venituri ar putea fi depășită, potrivit articolului. Ce rămâne în avantajul Nvidia Chiar și cu presiunea de reglementare, Nvidia păstrează avantaje importante, în special ecosistemul software. Tom’s Hardware arată că, deși Huawei dezvoltă platforma Cann ca alternativă internă la CUDA (platforma software Nvidia folosită pe scară largă), dezvoltatorii spun că aceasta rămâne în urmă la capitolele ușurință de utilizare și maturitate. Costurile operaționale și complexitatea de dezvoltare pot crește pentru clienți, ceea ce ajută Nvidia să își mențină influența globală. În China, însă, „prinderea” Nvidia s-a slăbit după ce Washingtonul a blocat anul trecut vânzările H20 (un procesor modificat pentru piața chineză, conform cerințelor de export), iar compania ar avea dificultăți în a găsi un produs care să respecte simultan regulile americane și cerințele de reglementare chineze. „Ziua în care DeepSeek apare mai întâi pe Huawei este un rezultat groaznic pentru națiunea noastră – ar putea duce la un scenariu în care modelele AI din întreaga lume sunt dezvoltate și rulează cel mai bine pe hardware non-american”, a spus Jensen Huang, într-un interviu recent citat de articol. În lipsa unei deblocări rapide a livrărilor H200 și a unei soluții stabile de conformare pe ambele maluri, riscul operațional pentru Nvidia este ca piața chineză să se reorienteze accelerat către furnizori locali, cu efect direct asupra veniturilor și a influenței ecosistemului său în a doua cea mai mare economie a lumii. [...]

Google începe să înlocuiască Google Assistant cu Gemini în mașinile cu Google integrat , într-o actualizare software care vizează atât vehiculele noi, cât și pe cele deja aflate în circulație, cu un prim val de disponibilitate în engleză, în SUA, potrivit Google Blog . Miza operațională este extinderea controlului vocal dincolo de comenzi rigide, prin conversații mai naturale și integrare mai adâncă în sistemele mașinii și în aplicații. Actualizarea este prezentată ca un „upgrade” de la Google Assistant la Gemini și face parte din promisiunea Google ca mașinile cu Google integrat (platforma lansată inițial în 2020) să „devină mai bune în timp” prin actualizări software. Lansarea începe cu utilizatorii eligibili conectați la contul Google în mașină, care vor vedea opțiunea de upgrade în interfața de bord. Ce se schimbă pentru șoferi: conversații naturale și sarcini făcute „hands-free” Google susține că Gemini va permite interacțiuni mai fluide, fără formule fixe de comandă vocală, pentru activități uzuale în timpul condusului. Exemplele din articol includ: găsirea de opriri pe traseu folosind informații din Google Maps și întrebări de tip follow-up (de pildă despre parcare sau opțiuni vegetariene); actualizări relevante despre călătorie și trafic, inclusiv posibilitatea de a raporta incidente observate pe drum; rezumarea mesajelor text noi și redactarea de răspunsuri care pot fi editate din mers, fără a relua comanda de la capăt; controlul conținutului audio, inclusiv cereri vagi („jazz”) sau foarte specifice în aplicații de streaming precum YouTube Music. Integrare cu mașina și manualul producătorului: întrebări „specifice modelului” Un element central este integrarea cu sistemele vehiculului și accesul la informații din manualele de utilizare furnizate de producători, pentru răspunsuri adaptate modelului. Google dă exemple de întrebări despre utilizarea mașinii (de la pregătirea pentru o spălătorie automată până la limitarea deschiderii portbagajului într-un garaj cu tavan jos). În cazul vehiculelor electrice, Google menționează și „informații în timp real” despre baterie (nivel curent, estimare la sosire) și căutarea de stații de încărcare în apropiere, pe baza datelor din Google Maps. Compania precizează însă că disponibilitatea și nivelul de detaliu al acestor informații diferă în funcție de marcă și model. Gemini Live (beta): conversații mai lungi pentru „învățare” și idei Google introduce și Gemini Live, o funcție aflată în versiune beta, care ar permite conversații mai libere în timpul condusului, pornite dintr-un buton dedicat sau prin comanda vocală. Exemplele includ solicitări de informații despre destinație (istorie, curiozități) sau brainstorming pentru activități (de exemplu, recomandări de drumeții). Cine primește update-ul și ce urmează Lansarea începe în engleză, în Statele Unite, și se extinde „în lunile următoare”, fără un calendar detaliat pentru alte piețe. Google mai spune că, „în viitorul apropiat”, Gemini ar urma să se extindă în mai multe limbi și țări și să ofere acces „în siguranță” la informații din aplicații precum Gmail, Calendar și Google Home, direct din mașină. [...]

Elon Musk a recunoscut în instanță că xAI a folosit „distilarea” pe modele OpenAI pentru a antrena Grok , o practică ce poate eroda avantajul competitiv al laboratoarelor care investesc masiv în infrastructură de calcul și care, în același timp, ridică mizele privind aplicarea termenilor de utilizare ai modelelor, potrivit TechCrunch . Mărturia a fost dată joi, într-o instanță federală din California, în procesul în care Musk dă în judecată OpenAI , pe CEO-ul Sam Altman și pe Greg Brockman. Întrebat dacă xAI a folosit tehnici de distilare pe modele OpenAI pentru a antrena Grok, Musk a spus că este o practică generală în industrie, iar când i s-a cerut să confirme dacă răspunsul este „da”, a răspuns: „Parțial”. De ce contează: distilarea reduce bariera de cost și apasă pe regulile de utilizare Distilarea (în contextul modelelor de inteligență artificială) este o metodă prin care un model nou este antrenat să reproducă comportamentul unuia mai performant, prin interogări sistematice ale chatboturilor sau ale interfețelor de programare (API) puse la dispoziție public. Miza economică este că astfel pot fi obținute modele „aproape la fel de capabile” la costuri mai mici, subminând avantajul construit de jucătorii mari prin investiții în capacitate de calcul. TechCrunch notează că nu este clar dacă distilarea este explicit ilegală; mai degrabă, ar putea încălca termenii de utilizare impuși de companii pentru produsele lor. Reacția industriei: încercări de a bloca interogările „suspecte” În paralel, OpenAI, Anthropic și Google ar fi lansat, prin Frontier Model Forum, o inițiativă de schimb de informații despre cum pot fi combătute încercările de distilare, în special din China. Abordarea descrisă se bazează pe identificarea și prevenirea interogărilor în masă care pot „cartografia” comportamentul intern al modelelor. OpenAI nu a răspuns solicitării de comentariu privind declarația lui Musk, la momentul publicării articolului. Context din proces: poziționarea xAI în cursa globală În aceeași mărturie, Musk a fost întrebat despre o afirmație făcută vara trecută, potrivit căreia xAI ar urma să depășească în curând orice companie, cu excepția Google. El a clasat furnizorii de top astfel: Anthropic pe primul loc, urmată de OpenAI, Google și modele chinezești cu cod deschis, caracterizând xAI drept o companie mult mai mică, cu „câteva sute” de angajați. [...]