
Pentagonul amenință că rupe colaborarea cu Anthropic din cauza refuzului companiei de a elimina anumite restricții privind utilizarea inteligenței artificiale în scopuri militare, potrivit Mediafax. Disputa vizează condițiile în care armata americană ar putea folosi modelele AI dezvoltate de companie, inclusiv pentru dezvoltare de arme, colectare de informații și operațiuni pe câmpul de luptă.
Oficialii Departamentului Apărării ar fi solicitat ca marile companii de tehnologie să permită utilizarea instrumentelor lor pentru „toate scopurile legale”, fără restricții suplimentare față de cele aplicate în mediul comercial. Anthropic, dezvoltatorul modelului Claude, nu a acceptat însă eliminarea limitărilor etice, în special în ceea ce privește armele complet autonome și supravegherea la scară largă.
Potrivit relatărilor, relația dintre Pentagon și Anthropic este tensionată după luni de negocieri privind accesul la versiuni ale modelului AI pe rețele clasificate, unde armata dorește utilizarea fără filtrele standard impuse clienților civili. Alte companii majore din domeniu, precum OpenAI, Google și xAI, ar fi ajuns deja la acorduri cu autoritățile americane pentru furnizarea tehnologiilor lor.
Un purtător de cuvânt al Anthropic a precizat că discuțiile cu Pentagonul au vizat politici generale de utilizare și nu operațiuni militare concrete. Totuși, Wall Street Journal a relatat că modelul Claude ar fi fost utilizat, printr-un parteneriat cu Palantir, într-o operațiune militară americană care a vizat capturarea fostului președinte venezuelean Nicolás Maduro, informație care a amplificat presiunea asupra companiei.
Miza este semnificativă: contracte de miliarde de dolari și definirea limitelor etice ale utilizării inteligenței artificiale în domeniul apărării. Decizia privind continuarea sau întreruperea colaborării ar putea influența modul în care tehnologiile AI vor fi integrate în strategiile militare ale SUA în anii următori.






