Inteligență artificială08 mar. 2026
Demisia șefei roboticii OpenAI reflectă îngrijorări interne privind utilizarea AI în armată - dezbatere despre supraveghere și autonomie letală
Administrația Trump pregătește reguli care obligă furnizorii de AI ai statului să acorde o licență irevocabilă , potrivit Biziday , care citează un draft guvernamental consultat de Financial Times. Proiectul vizează companiile ce semnează contracte cu guvernul federal și ar impune ca modelele lor să poată fi folosite de SUA „în toate situațiile permise de lege”, adică „pentru orice scop legal”, în limitele cadrului juridic american. Draftul este elaborat de GSA, agenția federală responsabilă de achizițiile publice, și face parte dintr-un plan mai amplu de standardizare a modului în care instituțiile statului cumpără servicii de inteligență artificială. Un oficial familiarizat cu subiectul a spus pentru Financial Times că abordarea este similară cu măsurile analizate pentru contractele militare, ceea ce sugerează o extindere a regulilor din zona apărării către întregul aparat federal. Pe lângă licența irevocabilă, documentul introduce cerințe de „neutralitate ideologică” pentru instrumentele livrate către agențiile federale. În forma descrisă, companiile ar trebui să furnizeze sisteme „neutre și non-partizane” și să nu favorizeze ideologii precum diversitatea, echitatea și incluziunea, iar dezvoltatorii nu ar trebui să „integreze intenționat judecăți partizane sau ideologice în rezultatele sistemelor AI”. Un alt punct cu impact direct asupra furnizorilor internaționali sau a celor care operează pe mai multe piețe este obligația de transparență privind adaptările făcute pentru alte jurisdicții. Draftul cere companiilor să dezvăluie dacă modelele au fost modificate pentru a respecta reglementări externe, inclusiv legislația europeană, precum Digital Services Act (DSA), act normativ al UE care stabilește obligații pentru platforme și servicii digitale. Contextul politic și comercial al acestor reguli este conflictul recent dintre Pentagon și Anthropic. Săptămâna trecută, Departamentul Apărării a anunțat anularea unui contract de 200 de milioane de dolari după ce Anthropic ar fi refuzat utilizarea nelimitată a tehnologiei sale, invocând riscuri de supraveghere în masă și dezvoltarea armelor autonome letale. Compania a cerut clauze speciale de protecție, însă secretarul apărării, Pete Hegseth, a susținut că obiectivul real ar fi fost obținerea unui drept de veto asupra deciziilor operaționale ale armatei; ulterior, Casa Albă a desemnat Anthropic drept „un risc pentru lanțul de aprovizionare”. „Inteligența artificială are un rol important în securitatea națională, însă supravegherea americanilor fără control judiciar și utilizarea autonomiei letale fără autorizare umană sunt limite care meritau o analiză mai aprofundată.” În paralel, șefa diviziei de robotică de la OpenAI, Caitlin Kalinowski, și-a anunțat demisia sâmbătă, invocând îngrijorări legate de acordul companiei cu Pentagonul și spunând că nu a existat suficient timp pentru a evalua implicațiile implementării modelelor pe rețele cloud clasificate. OpenAI a răspuns că acordul include măsuri de protecție suplimentare și că „liniile sale roșii” interzic utilizarea tehnologiei pentru supraveghere internă sau pentru arme autonome, adăugând că va continua dialogul cu angajații, autoritățile și societatea civilă. Din perspectiva reglementării contractelor federale pentru AI, draftul descris ar împinge piața către condiții mai dure pentru furnizori, în special pe trei direcții: licență irevocabilă acordată guvernului SUA pentru utilizarea sistemelor „în toate situațiile permise de lege”; cerințe de „neutralitate ideologică” și interdicția de a introduce deliberat judecăți partizane în rezultate; obligația de a declara dacă modelele au fost ajustate pentru a respecta reguli din alte jurisdicții, inclusiv DSA din UE. În ultimul an, agenția americană a încheiat acorduri cu OpenAI, Meta, xAI și Google pentru a oferi modele AI agențiilor guvernamentale la costuri reduse, ceea ce ridică miza acestor reguli: ele pot deveni un standard de facto pentru accesul la contracte federale. Dacă draftul va fi adoptat în forma descrisă, companiile de AI vor trebui să aleagă între acceptarea unei utilizări foarte largi a modelelor în sectorul public și renunțarea la o parte din controlul contractual asupra modului în care tehnologia lor este folosită de stat. [...]