Știri
Știri din categoria Inteligență artificială

Șeful Anthropic, Dario Amodei, a fost convocat la Pentagon după ce a refuzat să ofere armatei americane acces la modelul AI Claude, într-un episod care tensionează relația dintre industria tehnologică și structurile de apărare ale SUA. Potrivit Euronews, Amodei a fost chemat de secretarul american al Apărării, Peter Hegseth, pentru a explica poziția companiei privind utilizarea inteligenței artificiale în scopuri militare.
Anthropic a anunțat că nu permite folosirea modelului său de inteligență artificială pentru operațiuni de atac sau pentru activități de supraveghere militară. Decizia companiei reflectă o politică internă care limitează aplicarea tehnologiei în domenii considerate cu risc major, inclusiv în scenarii ce pot contribui direct la desfășurarea de acțiuni armate.
Convocarea la Pentagon arată însă interesul tot mai mare al Departamentului Apărării pentru integrarea sistemelor avansate de inteligență artificială în strategia militară. În ultimii ani, armata americană a investit masiv în dezvoltarea și adaptarea unor astfel de tehnologii pentru analiză de date, logistică, planificare operațională și sisteme autonome.
Cazul evidențiază o dezbatere mai amplă în Statele Unite privind limitele etice ale inteligenței artificiale. Pe de o parte, autoritățile susțin necesitatea menținerii avantajului tehnologic în fața rivalilor geopolitici. Pe de altă parte, unele companii din domeniu încearcă să impună restricții clare asupra modului în care produsele lor pot fi utilizate.
Rămâne de văzut dacă discuțiile dintre conducerea Anthropic și oficialii Pentagonului vor duce la un compromis sau dacă poziția companiei va rămâne neschimbată, într-un moment în care competiția globală pentru supremația în inteligența artificială se intensifică.
Recomandate

Pentagonul își diversifică furnizorii de IA pentru operațiuni clasificate , după ce a ajuns la un acord cu Google pentru extinderea utilizării modelului generativ Gemini în astfel de misiuni, potrivit Mediafax . Mutarea vine în contextul în care Anthropic, al cărui model Claude era până recent singurul autorizat pentru operațiuni clasificate, este înlocuit treptat, într-o schimbare de strategie a Departamentului Apărării al SUA privind dependența de un singur furnizor, notează Le Figaro. De ce contează: mai multă libertate de utilizare față de contractul anterior Potrivit informațiilor citate de mai multe mass-media americane, acordul cu Google permite utilizarea modelelor de inteligență artificială „în limitele legii”, similar aranjamentelor încheiate și cu OpenAI și xAI. În același timp, această formulare ar oferi Pentagonului o marjă de manevră mai mare decât contractul avut cu Anthropic, care excludea explicit supravegherea în masă a populației civile americane și atacurile letale. În acest context, responsabilul cu inteligența artificială din Pentagon, Cameron Stanley, a argumentat public nevoia de diversificare a furnizorilor. „A depinde prea mult de un singur furnizor nu este niciodată un lucru bun.” Context: ruptura de Anthropic și intrarea OpenAI și xAI La sfârșitul lunii februarie, administrația Trump a decis rezilierea tuturor contractelor cu Anthropic, decizie contestată în instanță de companie. Ulterior, administrația a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul ar urma să dureze câteva luni. Separat, potrivit site-ului The Information (citat în material), și xAI, start-up-ul de inteligență artificială creat de Elon Musk, ar fi încheiat un acord cu Pentagonul după despărțirea de Anthropic. Reacție internă la Google: scrisoare semnată de peste 600 de angajați Acordul cu Pentagonul reaprinde tensiunile interne la Google pe tema colaborării cu armata americană. Luni, o scrisoare semnată de peste 600 de angajați a cerut conducerii să renunțe la furnizarea modelelor companiei pentru operațiuni clasificate. Google a mai trecut printr-un episod similar în 2018, când o mișcare internă a determinat compania să se retragă din proiectul Maven , care folosea inteligența artificială pentru analiza imaginilor colectate de drone. [...]

Google ar putea direcționa până la 40 mld. dolari (aprox. 184 mld. lei) către Anthropic , o companie de inteligență artificială care concurează direct cu propriile sale eforturi, într-o mișcare ce sugerează o strategie de „acoperire a pariurilor” într-o piață în care accesul la modele performante și la capacitate de calcul devine un avantaj economic major, potrivit Android Headlines . Suma menționată în material este prezentată ca un plafon („până la”), ceea ce indică faptul că nu este vorba neapărat de o singură tranzacție imediată, ci de un angajament investițional care poate fi etapizat sau condiționat. În lipsa unor detalii suplimentare în textul disponibil, nu reiese structura exactă a finanțării și nici calendarul. De ce contează: investiție într-un „rival” ca instrument de poziționare Unghiul economic al știrii ține de modul în care un jucător dominant își gestionează riscul și influența într-un sector cu costuri foarte mari. O investiție de asemenea dimensiune într-un concurent direct poate funcționa ca: o modalitate de a păstra accesul la tehnologie și talent, chiar dacă direcțiile interne nu livrează cel mai rapid; un pariu pe mai multe „platforme” de modele, într-o piață în care câștigătorul nu este încă stabilit; o consolidare a poziției în ecosistemul de inteligență artificială, prin finanțarea unor actori cheie. Ce se vede în piață: competiția se mută și în zona capitalului Materialul indică faptul că rivalitatea în inteligența artificială nu se joacă doar la nivel de produse, ci și la nivel de finanțare: cine poate susține costurile de dezvoltare și operare ale modelelor are un avantaj structural. În acest context, faptul că Google ar finanța masiv un competitor direct arată presiunea de a rămâne conectat la cele mai competitive modele, indiferent de „sigla” de pe produs. Ce urmează În forma prezentată de sursă, informația rămâne la nivelul intenției/posibilității („până la 40 de miliarde de dolari”), fără detalii despre termeni, condiții sau aprobări. Relevanța practică va depinde de confirmarea oficială a sumei, de structura investiției și de modul în care aceasta se traduce în acces la tehnologie sau în parteneriate comerciale între cele două companii. [...]

Google a semnat un contract clasificat de AI cu Pentagonul care permite folosirea modelelor sale pentru „orice scop guvernamental legal” , o formulare care, potrivit The Next Web , ar elimina limitările etice pe care alți furnizori au încercat să le includă în acorduri similare. Miza este una operațională și de guvernanță: Departamentul Apărării ar primi o marjă foarte largă de utilizare a AI, în timp ce Google riscă o escaladare a tensiunilor interne legate de politica sa de etică. Informația a fost publicată inițial de The Information, care citează „o persoană familiarizată cu subiectul”. La momentul apariției articolului, Google nu confirmase public și nu comentase acordul. Ce ar permite acordul, potrivit relatării Conform caracterizării din The Information, contractul ar permite Pentagonului să folosească modelele AI ale Google pentru „any lawful government purpose” („orice scop guvernamental legal”), fără „excepțiile” (carve-outs) pe care Anthropic le-ar fi introdus în propriul contract. Articolul notează că Anthropic ar fi refuzat să elimine interdicții contractuale privind: supravegherea internă în masă; arme complet autonome, fără supraveghere umană. În februarie 2026, Anthropic a fost desemnat „risc pentru lanțul de aprovizionare al securității naționale” și trecut pe o listă neagră de administrația Trump, tocmai pe fondul acestor restricții, potrivit aceleiași surse. Efectul în piața furnizorilor de AI „clasificat” pentru armată În acest moment, Pentagonul ar avea acorduri clasificate cu patru dintre cele mai mari companii de AI din SUA: OpenAI, xAI, Google și — până la excludere — Anthropic. The Next Web descrie o diferențiere între abordări: Anthropic a rămas la restricții etice și a fost exclus; OpenAI ar fi renegociat pentru a rămâne furnizor, păstrând unele „linii roșii” privind supravegherea internă; xAI ar fi semnat fără restricții vizibile; Google ar fi acceptat o formulare care pare să ofere Pentagonului cea mai largă discreție. Rezultatul este un „pool” de furnizori în care Anthropic lipsește, iar ceilalți trei au grade diferite, dar „semnificative”, de libertate pentru a furniza capabilități AI în aplicații militare. Presiune internă: scrisoarea a peste 560 de angajați Acordul ar fi fost raportat la câteva ore după ce peste 560 de angajați Google au publicat, luni, o scrisoare deschisă către CEO-ul Sundar Pichai , cerându-i să refuze exact un astfel de aranjament militar clasificat. Publicația subliniază contrastul de calendar: semnatarii scrisorii au cerut oprirea unui tip de contract, iar a doua zi compania ar fi semnat tocmai acel tip de acord. În acest context, Pichai ar putea fi presat să răspundă public și intern, inclusiv în întâlniri cu angajații. Limitări și ce rămâne de urmărit Detaliul-cheie — formularea „orice scop guvernamental legal” — provine, în relatarea citată, dintr-o singură sursă anonimă. În lipsa unei confirmări oficiale din partea Google, termenii exacți ai acordului și modul în care sunt aplicați în practică rămân neclari. Ce merită urmărit în continuare este dacă Google va confirma cadrul contractual și dacă vor exista reacții interne suplimentare, în condițiile în care marile companii de AI încearcă să împace cererea guvernului SUA pentru capabilități clasificate „fără restricții” cu principiile publice de etică adoptate după controversa Project Maven din 2018. [...]

Peste 600 de angajați Google cer oprirea livrării de AI pentru operațiuni militare clasificate , pe fondul discuțiilor companiei cu Pentagonul , ceea ce riscă să complice extinderea Google pe zona contractelor de apărare și să reactiveze tensiunile interne privind utilizările sensibile ale tehnologiei, potrivit Agerpres . Scrisoarea, publicată luni, solicită conducerii să înceteze furnizarea modelelor de inteligență artificială către armata americană pentru operațiuni clasificate. Conform site-ului The Information, Google poartă în prezent discuții cu Departamentul Apărării al SUA pe tema AI, iar printre semnatari se află și mai mulți directori, potrivit unei declarații consultate de AFP. „În stadiul actual, nu există nicio modalitate de a garanta că instrumentele noastre nu vor fi folosite pentru a provoca daune teribile sau a încălca libertățile individuale, departe de priviri.” De ce contează: presiune internă într-un moment în care Pentagonul caută alternative Departamentul Apărării încearcă să-și diversifice furnizorii de inteligență artificială, în condițiile în care se bazează în prezent pe Anthropic , companie cu care se află în litigiu. La sfârșitul lunii februarie, administrația Trump a reziliat toate contractele cu startup-ul din California, decizie contestată în instanță de Anthropic. Ulterior, administrația americană a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul este așteptat să dureze câteva luni. În acest context, opoziția internă de la Google poate deveni un factor operațional în negocierile cu Pentagonul, mai ales pe segmentul proiectelor clasificate, unde controlul utilizării finale este mai greu de demonstrat. Poziția Google și precedentul „Project Maven” La fel ca Anthropic, Google a cerut ca AI-ul său să nu fie folosit pentru supraveghere în masă în Statele Unite sau pentru atacuri letale. Administrația americană consideră însă suficient un angajament de a acționa în cadrul legii. Google este deja contractor al Departamentului Apărării, dar pentru activități neclasificate. În 2018, o mișcare internă a determinat compania să se retragă din Project Maven, un program care folosea inteligența artificială pentru analizarea imaginilor colectate de drone. [...]

Google Translate adaugă o funcție „Practice” cu inteligență artificială care îți corectează pronunția , un pas care mută aplicația din zona de traducere rapidă spre antrenament de vorbire și poate crește timpul petrecut în ecosistemul Google, potrivit Android Headlines . Noua opțiune „Practice” este gândită ca un instrument de exersare: utilizatorul rostește cuvinte sau expresii, iar sistemul folosește inteligența artificială pentru a identifica unde pronunția diferă de forma așteptată și pentru a ajuta la corectare. Din informațiile disponibile în material, accentul este pe feedback-ul de pronunție, nu pe traducere în sine. Ce se schimbă, practic, pentru utilizatori Funcția adaugă un flux de utilizare diferit față de „ascultă și repetă” din traducătoarele clasice, printr-o componentă de evaluare automată a vorbirii. Pe scurt, „Practice” urmărește să transforme Google Translate într-un instrument de învățare mai activ, nu doar într-un dicționar cu redare audio. De ce contează operațional pentru Google Integrarea unei funcții de exersare a pronunției în Translate poate însemna: utilizare mai frecventă a aplicației în contexte de învățare (nu doar „la nevoie”); o poziționare mai directă în zona aplicațiilor de învățare a limbilor, unde diferențiatorul este feedback-ul personalizat; o extindere a rolului inteligenței artificiale în aplicații de masă, cu interacțiuni vocale și evaluare în timp real. Materialul nu oferă detalii despre disponibilitate pe piețe, limbi suportate, calendar de lansare sau condiții comerciale (gratuit/abonament), astfel că impactul exact asupra utilizării și monetizării rămâne deocamdată neclar. [...]

Peste 70% dintre soluțiile AI din companii scapă controlului intern, generând riscuri și costuri suplimentare , potrivit , un studiu Lenovo care evidențiază o problemă tot mai vizibilă în organizațiile moderne: utilizarea „din umbră” a inteligenței artificiale. Deși adopția AI crește accelerat, mecanismele de control, securitate și guvernanță nu țin pasul, ceea ce creează vulnerabilități și afectează direct eficiența investițiilor. Raportul, bazat pe un sondaj realizat în rândul a 6.000 de angajați la nivel global, arată că peste 70% folosesc AI săptămânal , iar până la o treime o fac fără implicarea departamentului IT. Această utilizare neautorizată extinde suprafața de atac și crește riscul expunerii datelor sensibile. În paralel, 61% dintre liderii IT observă o creștere a amenințărilor cibernetice asociate AI, însă doar 31% spun că sunt pregătiți să le gestioneze. Efectele directe asupra companiilor: investiții în AI cu recuperare întârziată (ROI mai lent) costuri duble din cauza utilizării mai multor instrumente similare lipsă de vizibilitate asupra modului în care este folosită AI dificultăți în extinderea soluțiilor la nivelul întregii organizații În plus, apare un dezechilibru intern: unii angajați folosesc instrumente AI securizate, în timp ce alții recurg la soluții improvizate, ceea ce duce la procese ineficiente și decizii fragmentate. Lenovo susține că problema nu ține de lipsa tehnologiei, ci de modul în care aceasta este implementată. Compania propune o abordare integrată, în care controlul AI începe de la nivelul dispozitivelor și este gestionat unitar, prin servicii de securitate și administrare continuă. Scopul este reducerea complexității și eliminarea breșelor dintre infrastructură, dispozitive și protecția datelor. Concluzia raportului este clară: fără un control coerent, inteligența artificială riscă să devină o sursă de costuri și vulnerabilități, nu un avantaj competitiv. În schimb, organizațiile care reușesc să gestioneze unitar implementarea pot transforma AI într-un instrument scalabil, cu beneficii reale și măsurabile. [...]