Inteligență artificială08 mai 2026
Google, Microsoft și xAI acceptă testarea guvernamentală a modelelor AI înainte de lansare în SUA - evaluări CAISI pe riscuri de securitate cibernetică și biosecuritate
Guvernul SUA își extinde controlul asupra AI prin testare înainte de lansare , după ce Google, Microsoft și xAI au acceptat ca modelele lor să fie evaluate de autorități înainte de a ajunge la public, potrivit Mediafax , care citează Euronews. Miza este reducerea riscurilor de securitate națională asociate noilor sisteme de inteligență artificială. Evaluările vor fi coordonate de CAISI , care va analiza riscuri precum securitatea cibernetică, biosecuritatea și posibile utilizări în dezvoltarea armelor chimice. Instituția spune că testarea va include teste tehnice, cercetare comună și elaborarea unor bune practici pentru dezvoltarea modelelor comerciale. „Măsurătorile independente și riguroase sunt esențiale pentru a înțelege impactul AI asupra securității naționale”, a declarat directorul CAISI, Chris Fall. Ce se schimbă pentru companii: verificări înainte de lansare Pentru industria tech, acordul introduce un filtru suplimentar înainte de lansarea publică a unor modele avansate, într-un moment în care autoritățile americane tratează tot mai explicit AI ca pe o tehnologie cu implicații strategice și militare, pe fondul competiției dintre SUA și China. Microsoft a transmis că evaluările guvernamentale ar urma să ajute compania să identifice mai devreme riscurile asociate platformei Copilot, inclusiv posibile atacuri cibernetice bazate pe AI. În paralel, OpenAI a confirmat că a furnizat guvernului american modelul ChatGPT5.5 înainte de lansarea publică, pentru testare de securitate națională. Compania dezvoltă și GPT-5.5-Cyber, un model specializat în apărare cibernetică, destinat unui grup restrâns de utilizatori instituționali. Context politic: o nuanțare a discursului anti-reglementare Decizia este prezentată ca o schimbare de ton în administrația Donald Trump , care a susținut în repetate rânduri că reglementările excesive pot încetini inovația și pot oferi Chinei un avantaj strategic. În martie, Casa Albă a prezentat un nou cadru național privind inteligența artificială, care prevede accelerarea adoptării AI și eliminarea obstacolelor birocratice pentru industrie, dar exclude crearea unei noi agenții federale dedicate exclusiv reglementării AI. Cât s-a testat deja și ce rămâne neclar CAISI afirmă că a realizat până acum aproximativ 40 de evaluări pentru modele AI, inclusiv pentru sisteme de ultimă generație care nu au fost încă lansate public. Autoritățile americane nu au precizat însă ce modele au fost testate și nici ce modificări au fost negociate în noile acorduri cu industria. [...]