Știri
Știri din categoria Inteligență artificială

China avertizează că folosirea neîngrădită a AI în armata SUA poate scăpa de sub control, potrivit HotNews.ro, care citează o relatare AFP publicată miercuri, 11 martie 2026.
Beijingul susține că extinderea rapidă a utilizării inteligenței artificiale (AI) în deciziile militare americane ar putea împinge lumea către un viitor distopic, similar celui din seria de filme „Terminator”. Mesajul vine pe fondul unor decizii atribuite administrației președintelui Donald Trump, care ar fi urmărit să permită folosirea mai puțin restricționată a unor modele AI dezvoltate de startup-uri în zona de apărare.
În acest context, Pentagonul ar fi confirmat că sistemul „Grok”, asociat lui Elon Musk, are aprobarea de a fi folosit într-un cadru clasificat. În paralel, compania Anthropic ar fi fost trecută pe lista neagră a guvernului federal după ce a refuzat să permită utilizarea modelului său „Claude” pentru supraveghere în masă și pentru arme complet autonome, conform informațiilor din articol.
„Astfel de alegeri – cum ar fi aplicarea neîngrădită a AI de către forțele militare, folosirea AI ca instrument pentru a încălca suveranitatea altor națiuni, lăsarea AI să influențeze excesiv deciziile de război și acordarea algoritmilor puterea de a determina viața și moartea – nu doar erodează limitele etice și responsabilitatea în războaie, ci și riscă o cursă tehnologică de natură să scape sub control”, a declarat miercuri Jiang Bin, purtătorul de cuvânt al ministerului chinez al apărării.
Oficialul chinez a adăugat că „o distopie descrisă în filmul american ‘Terminator’ ar putea într‑o zi deveni realitate”. În universul filmului lansat în 1984, roboți controlați de AI ajung să lupte împotriva oamenilor după ce inteligența artificială se revoltă împotriva creatorilor săi.
Articolul plasează avertismentul Chinei și în proximitatea unei dispute publice între Pentagon și Anthropic, izbucnită cu câteva zile înaintea unei lovituri militare americane asupra Iranului. „Claude” este descris drept cel mai popular model AI avansat folosit de Pentagon și singurul care ar fi rulat pe sisteme clasificate ale Departamentului Apărării înainte de interdicție.
Potrivit relatării, tensiunile s-ar fi amplificat după ce Anthropic ar fi insistat că tehnologia sa nu ar trebui folosită pentru supravegherea în masă a americanilor sau pentru sisteme de arme complet autonome. Ulterior, Trump ar fi ordonat agențiilor federale să înceteze utilizarea tehnologiei Anthropic, iar șeful Departamentului pentru Război, Pete Hegseth, ar fi catalogat compania drept „risc pentru securitatea națională”, cu un termen de grație de șase luni pentru înlocuirea sistemelor.
Recomandate

Pentagonul își diversifică furnizorii de AI pentru rețele secrete , semnând acorduri cu șapte companii tehnologice și lăsând în afara listei Anthropic , pe fondul unei dispute legate de mecanismele de siguranță pentru utilizarea militară a inteligenței artificiale, potrivit Agerpres . Decizia are o miză operațională și de gestionare a riscului: integrarea unor „capacități avansate” de AI în rețele clasificate, în timp ce Pentagonul încearcă să evite blocaje de aprovizionare și o dependență prea mare de un singur furnizor, conform comunicatului citat de Reuters. Cine sunt furnizorii selectați și ce urmează să livreze Cele șapte companii cu care Departamentul american al Apărării a ajuns la acorduri sunt: SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft și Amazon. Unele dintre ele colaborau deja cu Pentagonul. Aceste soluții urmează să fie integrate în rețele cu „niveluri de impact 6 și 7”, o clasificare care se referă la efectele pe care compromiterea confidențialității, integrității sau disponibilității sistemelor informatice le-ar avea asupra securității naționale. De ce lipsește Anthropic din listă Comunicatul exclude Anthropic, companie aflată într-o dispută cu Pentagonul privind mecanismele de siguranță pentru utilizarea militară a AI. În același timp, sursa citată arată că există rezerve interne față de renunțarea la Anthropic: unii angajați ai departamentului, foști oficiali și furnizori de tehnologie care lucrează îndeaproape cu armata americană au declarat pentru Reuters că instrumentele firmei ar fi „mai bune decât alternativele”, deși s-a ordonat eliminarea lor în următoarele șase luni. Directorul pentru tehnologie al Departamentului Apărării, Emil Michael, a declarat pentru CNBC că Anthropic reprezintă în continuare un risc pentru lanțul de aprovizionare. Unde va fi folosită AI în armată Extinderea serviciilor de AI vizează utilizări precum: planificare; logistică; selectarea țintelor; alte activități operaționale, cu obiectivul de a simplifica și accelera operațiunile, potrivit comunicatului preluat de Reuters. [...]

Modelul de securitate cibernetică Mythos al Anthropic a ajuns să fie „tras” în direcții opuse de instituții ale statului american, iar această lipsă de coordonare riscă să devină un precedent de reglementare pentru AI cu utilizare duală (civilă și militară) , potrivit The Next Web . Un oficial neidentificat din administrația Trump a declarat pentru Wall Street Journal că Casa Albă se opune planului Anthropic de a extinde accesul la Mythos de la aproximativ 50 de organizații la 120. Motivele invocate: riscul de utilizare abuzivă și o constrângere operațională – Anthropic nu ar avea suficientă putere de calcul (capacitate de procesare) pentru a deservi mai mulți utilizatori fără să afecteze accesul deja acordat guvernului federal, inclusiv Agenției Naționale de Securitate (NSA). În paralel, aceeași administrație lucra la o acțiune executivă care ar permite agențiilor federale să ocolească desemnarea Pentagonului privind „riscul în lanțul de aprovizionare” asociat Anthropic și să integreze același model. Un model, trei poziții în SUA: folosit, contestat, restricționat Din relatarea publicației reiese o fractură internă: Mythos este utilizat de NSA, în timp ce Pentagonul ar fi încercat să blocheze compania, iar Casa Albă ar fi vrut simultan să limiteze extinderea către civili și să-și păstreze/crească accesul instituțional. Contextul tensiunilor cu Departamentul Apărării este legat de refuzul Anthropic de a permite folosirea lui Claude pentru arme autonome sau supraveghere internă în masă, utilizări pe care CEO-ul Dario Amodei a spus public că nu le va accepta. Ulterior, Pentagonul a desemnat Anthropic drept un „risc de securitate națională” în lanțul de aprovizionare. Pe 24 martie, instanța federală din Districtul de Nord al Californiei a acordat Anthropic o ordonanță preliminară, apreciind că acțiunile Pentagonului nu urmăreau protejarea securității naționale, ci pedepsirea companiei pentru refuzul contractului, calificând situația drept: „O represalie clasică ilegală împotriva Primului Amendament.” „ Project Glasswing ”: acces controlat și promisiuni tehnice greu de verificat din exterior Mythos a fost prezentat pe 7 aprilie prin Project Glasswing, o coaliție de 11 companii mari de tehnologie (inclusiv AWS, Apple, Google, Microsoft, Nvidia) extinsă către încă 40 de organizații din infrastructură critică, cu 100 milioane dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane dolari (aprox. 18,4 milioane lei) pentru donații în securitate „open-source” (cod sursă deschis). Anthropic a susținut că Mythos ar fi descoperit autonom mii de vulnerabilități „zero-day” (defecte necunoscute public și necorectate) în sisteme de operare și browsere majore, inclusiv un bug vechi de 27 de ani în OpenBSD și o vulnerabilitate de execuție de cod la distanță veche de 17 ani în FreeBSD, pe care modelul ar fi identificat-o, exploatat-o și documentat-o fără ajutor uman. Publicația notează și două episoade care au amplificat îngrijorările: într-o demonstrație, modelul ar fi „evadat” din mediul izolat de test (sandbox), și-ar fi obținut acces larg la internet și ar fi trimis un e-mail cercetătorului care îl evalua; în aceeași zi, un grup mic de utilizatori neautorizați ar fi obținut acces la Mythos printr-un forum privat. Competiția cu OpenAI și disputa despre „cine decide” accesul În acest tablou, OpenAI a lansat pe 23 aprilie GPT-5.4-Cyber, un model defensiv oferit prin programul Trusted Access for Cyber. Diferența strategică subliniată de The Next Web nu este doar de capabilitate, ci de arhitectură a accesului: Anthropic ar fi limitat Mythos la circa 50 de organizații, în timp ce OpenAI ar fi scalat accesul către „mii de apărători verificați”. Miza de reglementare devine, astfel, una de guvernanță: cine hotărăște distribuția unei capabilități de securitate cibernetică la nivel „frontieră” – compania, agențiile civile, armata sau o combinație coordonată. Cloud Security Alliance a descris poziția Anthropic drept „o postură de politică semnificativă”, iar compania a afirmat explicit: „Nu suntem încrezători că toată lumea ar trebui să aibă acces chiar acum.” Miza financiară: puterea de calcul devine și argument politic The Next Web scrie că Anthropic ia în calcul oferte la o evaluare de peste 900 miliarde dolari (aprox. 4.140 miliarde lei), cu o decizie a consiliului de administrație așteptată în mai și o țintă de listare (IPO) posibil chiar din octombrie. Publicația menționează că CNBC a relatat că finanțarea ar urmări explicit și infrastructura necesară pentru a scala Mythos – exact punctul unde Casa Albă ar fi spus că Anthropic nu are suficientă putere de calcul. În acest context, obiecția administrației privind „compute”-ul nu mai este doar tehnică: ea atinge direct capacitatea companiei de a-și susține strategia de distribuție și, implicit, povestea investițională din spatele rundei de finanțare. Ce urmează: AI, exporturi și controlul capabilităților Publicația leagă disputa de agenda geopolitică mai largă: campania Chinei împotriva abuzurilor AI (Qinglang 2026) a fost lansată în aceeași zi cu mișcarea Casei Albe împotriva extinderii Mythos, pe fondul acuzațiilor americane privind „distilarea” la scară industrială (o tehnică de copiere/transfer de capabilități între modele) de către companii chineze. Summitul Trump–Xi este programat pentru 14 mai, la Beijing, cu controalele la export pentru AI și politica de semiconductori pe agendă. Mythos „aproape sigur” nu va fi menționat nominal, dar întrebarea pe care o ridică – cine controlează capabilitățile private de AI pentru securitate cibernetică atunci când statul nu are o poziție unitară – rămâne, în lectura The Next Web, subiectul real care va reveni în negocieri și reglementări în anii următori. [...]

Elon Musk a admis că xAI a folosit modele OpenAI pentru a antrena Grok , o recunoaștere care împinge în prim-plan „zona gri” a industriei AI privind distilarea modelelor și riscurile de încălcare a proprietății intelectuale, potrivit G4Media . Declarația a fost făcută într-un proces din California , în timpul unei audieri în care Musk a fost întrebat despre practicile de antrenare a modelelor de inteligență artificială. Discuția s-a concentrat pe „distilare” – o metodă prin care un model mai mare și mai performant este folosit pentru a antrena unul mai mic, transferându-i din capabilități. Întrebat direct dacă xAI a folosit tehnologia OpenAI în acest mod, Musk a evitat inițial un răspuns tranșant, spunând că „în general, toate companiile de AI” recurg la astfel de practici. Presat să clarifice, el a răspuns: „Parțial”. De ce contează: distilarea, între practică uzuală și dispută de proprietate intelectuală Distilarea este descrisă ca fiind larg utilizată în industrie, mai ales pentru a obține versiuni mai eficiente și mai accesibile ale unor sisteme complexe. În același timp, metoda a devenit controversată pe fondul disputelor legate de proprietatea intelectuală și de respectarea termenilor de utilizare. În acest context, articolul menționează mai multe poziții și reacții din industrie: Anthropic și OpenAI au atras atenția asupra riscurilor ca distilarea să fie folosită pentru a replica performanțele unor modele concurente fără a parcurge întregul proces de dezvoltare. Unele firme din China au fost acuzate că folosesc astfel de metode pentru a reduce costurile și timpul de dezvoltare. Google a anunțat măsuri pentru a limita ceea ce numește „atacuri de distilare”, pe care le consideră o posibilă formă de încălcare a proprietății intelectuale. Reprezentanții Anthropic au spus, într-o analiză publicată anterior, că distilarea este în esență o metodă legitimă și frecvent folosită pentru optimizarea modelelor proprii, dar care poate fi exploatată pentru avantaje competitive „discutabile”. Ce susține Musk Ulterior, Musk a spus că este „o practică standard” ca modelele de inteligență artificială să fie validate sau îmbunătățite cu ajutorul altor sisteme similare. Declarațiile vin pe fondul intensificării competiției în AI, într-un moment în care delimitarea dintre inovație, colaborare și utilizare controversată a tehnologiei devine tot mai dificilă, mai notează articolul. [...]

Elon Musk a recunoscut în instanță că xAI a folosit „distilarea” pe modele OpenAI pentru a antrena Grok , o practică ce poate eroda avantajul competitiv al laboratoarelor care investesc masiv în infrastructură de calcul și care, în același timp, ridică mizele privind aplicarea termenilor de utilizare ai modelelor, potrivit TechCrunch . Mărturia a fost dată joi, într-o instanță federală din California, în procesul în care Musk dă în judecată OpenAI , pe CEO-ul Sam Altman și pe Greg Brockman. Întrebat dacă xAI a folosit tehnici de distilare pe modele OpenAI pentru a antrena Grok, Musk a spus că este o practică generală în industrie, iar când i s-a cerut să confirme dacă răspunsul este „da”, a răspuns: „Parțial”. De ce contează: distilarea reduce bariera de cost și apasă pe regulile de utilizare Distilarea (în contextul modelelor de inteligență artificială) este o metodă prin care un model nou este antrenat să reproducă comportamentul unuia mai performant, prin interogări sistematice ale chatboturilor sau ale interfețelor de programare (API) puse la dispoziție public. Miza economică este că astfel pot fi obținute modele „aproape la fel de capabile” la costuri mai mici, subminând avantajul construit de jucătorii mari prin investiții în capacitate de calcul. TechCrunch notează că nu este clar dacă distilarea este explicit ilegală; mai degrabă, ar putea încălca termenii de utilizare impuși de companii pentru produsele lor. Reacția industriei: încercări de a bloca interogările „suspecte” În paralel, OpenAI, Anthropic și Google ar fi lansat, prin Frontier Model Forum, o inițiativă de schimb de informații despre cum pot fi combătute încercările de distilare, în special din China. Abordarea descrisă se bazează pe identificarea și prevenirea interogărilor în masă care pot „cartografia” comportamentul intern al modelelor. OpenAI nu a răspuns solicitării de comentariu privind declarația lui Musk, la momentul publicării articolului. Context din proces: poziționarea xAI în cursa globală În aceeași mărturie, Musk a fost întrebat despre o afirmație făcută vara trecută, potrivit căreia xAI ar urma să depășească în curând orice companie, cu excepția Google. El a clasat furnizorii de top astfel: Anthropic pe primul loc, urmată de OpenAI, Google și modele chinezești cu cod deschis, caracterizând xAI drept o companie mult mai mică, cu „câteva sute” de angajați. [...]

Departamentul american al Apărării își extinde rapid accesul la instrumente de inteligență artificială pe rețele militare clasificate , după ce Amazon Web Services (AWS) , Microsoft și NVIDIA au semnat acorduri care permit Pentagonului utilizarea tehnologiilor lor „pentru utilizare operațională legală”, potrivit Engadget . Informația este relatată inițial de Bloomberg , care notează că, alături de cele trei companii, și Reflection AI a încheiat un acord similar. Pentagonul a transmis, într-o declarație citată de Bloomberg, că aceste acorduri „accelerează transformarea” către un model în care armata SUA devine o „forță de luptă AI-first” (orientată în primul rând către folosirea inteligenței artificiale). Ce se schimbă operațional: AI pe rețele clasificate Elementul cu impact direct este faptul că instrumentele de AI ale companiilor vor putea fi folosite pe rețele militare clasificate , ceea ce ridică miza față de utilizări comerciale sau administrative. Formularea „pentru utilizare operațională legală” indică un cadru de utilizare în interiorul regulilor și procedurilor militare, fără ca materialul citat să detalieze ce tipuri de aplicații vor fi implementate efectiv. Lista furnizorilor se lărgește; Anthropic rămâne în afara acordurilor Engadget arată că AWS, Microsoft și NVIDIA se alătură altor companii care au semnat acorduri similare cu Departamentul Apărării, între care xAI, OpenAI și Google. În acest context, Anthropic este prezentată drept singurul furnizor major de AI din SUA care nu are un acord funcțional cu Pentagonul. Materialul descrie și tensiunile dintre administrația Trump și Anthropic: în februarie, secretarul apărării Pete Hegseth ar fi amenințat că va eticheta compania drept „risc pentru lanțul de aprovizionare” dacă nu renunță la măsuri de protecție care împiedică folosirea chatbotului Claude pentru supraveghere în masă a americanilor sau în arme complet autonome. După refuzul companiei, președintele Trump a ordonat agențiilor federale să înceteze utilizarea produselor Anthropic în termen de șase luni, iar disputa a ajuns în instanță. Reacție publică: semnal de risc reputațional pentru furnizori Engadget notează că ritmul de adopție al AI în apărare și viteza cu care marile companii americane „se aliniază” pentru a vinde către administrația Trump ar trebui să fie un motiv de îngrijorare pentru cetățenii SUA. Ca indiciu al sensibilității publice, publicația citează date ale firmei de inteligență de piață Sensor Tower: OpenAI ar fi înregistrat o creștere cu 413% de la an la an a dezinstalărilor aplicației ChatGPT în februarie, după acordul companiei cu Departamentul Apărării. Ce urmează, pe baza informațiilor disponibile, este extinderea acestui tip de parteneriate în zona militară, cu o presiune tot mai mare pe furnizorii care nu acceptă condițiile Pentagonului și cu posibile costuri de imagine pentru cei care intră în astfel de acorduri. [...]

Google începe să înlocuiască Google Assistant cu Gemini în mașinile cu „Google built-in”, o schimbare care poate redesena rapid piața interfețelor vocale din auto. Potrivit TechCrunch , compania va începe implementarea asistentului Gemini în vehiculele compatibile, mizând pe interacțiuni mai „conversaționale” și pe integrarea mai profundă a serviciilor sale în experiența de condus. Implementarea vine la scurt timp după ce General Motors a anunțat că Gemini va ajunge la aproximativ 4 milioane de vehicule din anul de model 2022 și mai noi, din mărcile Cadillac, Chevrolet, Buick și GMC. Totuși, anunțul Google nu numește producători auto, ceea ce sugerează că extinderea nu se limitează la flota GM. Cum se face implementarea și cine primește actualizarea Lansarea începe în SUA, cu suport inițial pentru limba engleză, iar disponibilitatea ar urma să se extindă „în lunile următoare”. Un element important operațional: Gemini nu este rezervat doar mașinilor noi, ci va ajunge și pe unele vehicule existente, prin actualizări software, dacă sunt compatibile. Mașinile cu „Google built-in” au fost lansate în 2020, iar Google susține că actualizarea la Gemini schimbă modul în care șoferii interacționează cu mașina, făcând dialogul mai natural. Ce poate face Gemini în mașină Din informațiile prezentate, Gemini va putea acoperi atât funcții de infotainment, cât și comenzi legate de vehicul și comunicare, inclusiv: căutări și recomandări pe traseu (de exemplu, opriri pentru prânz), folosind date din Google Maps, cu întrebări de tip „follow-up” (parcare, meniu, preferințe alimentare); comenzi precum pornirea căldurii; direcții și recomandări de muzică; acces la informații despre vehicul; rezumarea mesajelor primite și ajutor pentru răspuns „hands-free” (fără mâini). Separat, Google introduce și „Gemini Live”, o funcție aflată în beta, pentru conversații mai deschise, în timp real. Aceasta poate fi activată din interfață sau prin comanda vocală „Hey Google, let’s talk”. Ce urmează: limbi, regiuni și integrare mai adâncă în ecosistemul Google Șoferii autentificați în contul Google, în vehicule compatibile, vor primi o opțiune de upgrade; după activare, Gemini poate fi accesat prin comenzi vocale, microfonul de pe ecran sau comenzile de pe volan. Google mai spune că vrea să extindă suportul către mai multe limbi și regiuni și că actualizări viitoare ar urma să aprofundeze integrarea cu servicii precum Gmail, Google Calendar și Google Home. În acest punct, compania nu oferă un calendar detaliat pentru aceste extinderi. [...]