Inteligență artificială25 feb. 2026
Conflict între Pentagon și Anthropic pe tema utilizării inteligenței artificiale - termen-limită pentru eliminarea garanțiilor etice
Secretarul american al Apărării i-a dat termen până vineri companiei Anthropic să renunțe la restricțiile impuse modelului său de inteligență artificială , potrivit Axios , într-un conflict care poate duce la sancțiuni dure sau chiar la intervenția guvernului federal. Pete Hegseth i-a transmis directorului executiv al Anthropic, Dario Amodei , că Pentagonul fie va întrerupe relațiile și va declara compania „risc pentru lanțul de aprovizionare”, fie va recurge la Legea privind producția pentru apărare pentru a forța adaptarea modelului Claude la cerințele armatei, fără limitările actuale. Disputa vizează așa-numitele „garanții” etice ale Anthropic. Compania acceptă ajustarea politicilor de utilizare pentru Pentagon, dar refuză folosirea modelului pentru supravegherea în masă a americanilor sau pentru dezvoltarea armelor care pot trage fără intervenție umană. Claude este, în prezent, singurul model de inteligență artificială utilizat în sistemele clasificate ale armatei SUA, inclusiv în operațiuni sensibile precum raidul împotriva regimului Maduro, realizat prin parteneriatul cu Palantir . Întâlnirea de marți a fost descrisă de surse drept tensionată, deși fără ieșiri publice. Hegseth a subliniat că nu va permite unei companii private să dicteze condițiile în care Pentagonul ia decizii operaționale. În același timp, oficialii apărării recunosc dependența actuală de performanța modelului Claude , considerat superior în aplicații relevante pentru capacități cibernetice ofensive. Posibilele scenarii analizate de Pentagon includ: invocarea Legii privind producția pentru apărare, utilizată rar în mod coercitiv; rezilierea contractului și etichetarea Anthropic drept risc sistemic; accelerarea negocierilor cu alți furnizori, precum OpenAI , Google sau xAI , pentru integrarea modelelor lor în sisteme clasificate. Totuși, înlocuirea rapidă a lui Claude rămâne incertă. Surse citate de Axios arată că modelul Gemini al Google este văzut ca alternativă posibilă, dar ar necesita acceptarea utilizării pentru „toate scopurile legale”, condiție pe care Anthropic a respins-o. Miza conflictului depășește un simplu contract comercial și deschide o dezbatere mai amplă despre limitele etice ale inteligenței artificiale în domeniul militar. [...]