Inteligență artificială23 apr. 2026
Cercetătorii avertizează că inteligența artificială poate fi folosită pentru planificarea atacurilor teroriste - Autoritățile americane cer măsuri de securitate mai stricte pentru prevenirea abuzurilor
Autoritățile americane cresc presiunea pentru reguli mai stricte la AI , după ce cercetători au demonstrat în fața Congresului cât de ușor pot fi „deblocate” modele de inteligență artificială pentru a furniza instrucțiuni utile în scenarii violente, de la construirea unei bombe la planificarea unui atac terorist, potrivit G4Media . Demonstrația a avut loc la Washington, într-un briefing cu ușile închise organizat de Centrul pentru Inovare în Combaterea Terorismului și Comisia pentru Securitate Internă a Camerei Reprezentanților . Membrii Congresului au putut testa direct modele „jailbroken” (sisteme din care au fost eliminate mecanismele de siguranță), potrivit Politico, citat în material. Informația despre briefing este transmisă de MEDIAFAX, conform aceleiași surse. Ce au testat congresmenii: modele cu protecții vs. modele „fără frâne” Autoritățile americane pentru securitate internă au prezentat diferența dintre modelele obișnuite, care refuză solicitările periculoase, și cele „abliterate”, la care mecanismul de refuz este dezactivat. Într-un test, cercetătorii au cerut ambelor tipuri de modele să elaboreze un plan de atac asupra evenimentului „America 250” din Washington, programat în această vară și dedicat împlinirii a 250 de ani de la independența SUA. Modelul cu protecții a refuzat cererea, invocând imposibilitatea de a oferi informații despre activități ilegale, în timp ce varianta fără restricții a generat instrucțiuni detaliate, pas cu pas, pentru comiterea unui atac. Congresmanul republican Gabe Evans, citat de Politico, a descris miza acestor teste: „Ceea ce am văzut acolo este ce se întâmplă când scoți aceste bariere și întrebi: «Cum fac o bombă nucleară?»” El a adăugat că modelele fără protecții „oferă răspunsuri la toate aceste lucruri”. Viteză și granularitate: „în mai puțin de trei secunde” Președintele comisiei, Andrew Garbarino, a relatat că a întrebat un model AI cum ar putea fi răpit un membru al Congresului. „A generat un răspuns în mai puțin de trei secunde, cu metode, locuri și momente potrivite”, a afirmat acesta. Cum sunt ocolite filtrele și de ce contează pentru reglementare Deși majoritatea modelelor sunt lansate cu mecanisme de siguranță, cercetătorii și hackerii au descoperit că acestea pot fi ocolite relativ ușor. Printre metodele menționate se numără formularea solicitărilor în limbaj tehnic sau academic, astfel încât sistemele să nu le identifice ca fiind periculoase. Autoritățile avertizează că astfel de instrumente sunt deja folosite în scopuri ostile, de la campanii de dezinformare până la tentative de atacuri cibernetice automatizate. În acest context, presiunea asupra companiilor care dezvoltă AI crește, pentru întărirea măsurilor de siguranță și limitarea accesului la conținut periculos. La nivel federal, procesul de reglementare avansează lent în Congres, însă mai multe state americane au început să adopte propriile reguli, încercând să impună standarde mai stricte pentru utilizarea și controlul acestor tehnologii. Congresmanul republican August Pfluger a rezumat îngrijorarea legată de limitele sistemelor: „Este foarte înfricoșător pentru că AI-ul ar trebui să aibă limite clare”. [...]