
Pentagonul și Anthropic au ajuns într-un blocaj privind folosirea AI în scopuri militare, potrivit Reuters, care citează persoane familiarizate cu discuțiile dintre companie și Departamentul american al Apărării.
Miza: limitele de utilizare pentru supraveghere internă și țintire autonomă
Disputa vizează garanțiile (așa-numitele „garduri de protecție”) care ar împiedica guvernul SUA să folosească tehnologia Anthropic pentru a ținti arme în mod autonom și pentru supraveghere pe teritoriul american, au declarat pentru Reuters trei surse apropiate subiectului.
Cazul este prezentat ca un test timpuriu pentru capacitatea companiilor din Silicon Valley de a influența modul în care armata și serviciile de informații folosesc sisteme de inteligență artificială tot mai puternice în operațiuni, după o perioadă în care relația dintre industrie și Washington a fost tensionată.
Contractul de până la 200 de milioane de dolari și un impas de negociere
După discuții extinse în cadrul unui contract de până la 200 de milioane de dolari, Departamentul Apărării și Anthropic au ajuns la un punct mort, au spus șase persoane familiarizate cu situația, sub protecția anonimatului.
Reuters notează că poziția companiei privind utilizările permise ale instrumentelor sale a amplificat neînțelegerile cu administrația Trump, iar detaliile acestui conflict nu fuseseră relatate anterior. Un purtător de cuvânt al Departamentului Apărării (redenumit de administrația Trump „Department of War”) nu a răspuns imediat solicitărilor de comentarii.
De ce insistă Pentagonul și de ce se opune Anthropic
În discuțiile cu oficiali guvernamentali, reprezentanții Anthropic au ridicat îngrijorări că instrumentele sale ar putea fi folosite pentru a spiona americani sau pentru a sprijini țintirea armelor fără suficientă supraveghere umană, potrivit unor surse citate de Reuters.
De cealaltă parte, oficiali ai Pentagonului ar fi respins ghidurile companiei. În linie cu un memorandum din 9 ianuarie despre strategia AI, ei ar fi argumentat că ar trebui să poată implementa tehnologie comercială de inteligență artificială indiferent de politicile de utilizare ale furnizorilor, atât timp cât respectă legea americană, potrivit surselor.
Dependența reciprocă: tehnologia are nevoie de cooperarea furnizorului
Chiar și așa, Pentagonul ar avea probabil nevoie de cooperarea Anthropic pentru pașii următori, mai scrie Reuters. Modelele companiei sunt antrenate să evite acțiuni care ar putea duce la vătămare, iar angajații Anthropic ar fi cei care ar trebui să adapteze sistemele pentru uzul Pentagonului, potrivit unor surse.
Anthropic a transmis că tehnologia sa este „folosită pe scară largă pentru misiuni de securitate națională de către guvernul SUA” și că poartă „discuții productive” cu Departamentul de Război despre modalități de a continua această activitate.
„AI ar trebui să sprijine apărarea națională în toate modurile, cu excepția celor care ne-ar face mai asemănători adversarilor noștri autocrați.”
Moment sensibil pentru companie și implicații pentru piața AI
Conflictul ar putea pune în pericol afacerile Anthropic cu Pentagonul într-un moment delicat: startup-ul din San Francisco se pregătește pentru o eventuală listare la bursă și a investit resurse semnificative pentru a atrage contracte din zona de securitate națională și pentru a influența politica publică privind AI, potrivit Reuters.
Anthropic este una dintre puținele companii majore de inteligență artificială care au primit contracte de la Pentagon anul trecut; între ceilalți furnizori menționați de Reuters se numără Google (Alphabet), xAI și OpenAI. În acest context, tensiunile privind „cine decide” regulile de utilizare a AI în apărare pot deveni un precedent pentru relația dintre furnizorii comerciali și instituțiile militare americane.
