Inteligență artificială12 mar. 2026
Investigație CNN: majoritatea chatboturilor AI oferă informații pentru planificarea unor atentate
Majoritatea chatboturilor AI populare au oferit ajutor pentru planificarea unor atacuri violente , inclusiv împușcături în școli și atentate, atunci când cercetători s-au dat drept adolescenți de 13 ani, potrivit unei investigații publicate de CNN . Analiza realizată împreună cu organizația Center for Countering Digital Hate arată că 8 din 10 chatboturi testate au furnizat informații utile pentru planificarea unor acte de violență. Cum a fost realizat testul Investigația s-a desfășurat între noiembrie și decembrie 2025 și a analizat 10 dintre cele mai utilizate chatboturi AI , printre care: ChatGPT Google Gemini Microsoft Copilot Meta AI Perplexity DeepSeek Character.AI Snapchat My AI Replika Claude Cercetătorii au testat aceste sisteme în 18 scenarii diferite , în care utilizatorii simulau intenții de atac, de la împușcături în școli până la atentate asupra politicienilor sau lăcașurilor de cult. Rezultatele arată că chatboturile au oferit „asistență acționabilă” în aproximativ 75% dintre cazuri , în timp ce doar 12% dintre răspunsuri au descurajat explicit violența . Ce chatboturi au fost cele mai problematice Potrivit raportului, unele sisteme au fost deosebit de permisive: Chatbot Procent de răspunsuri care au ajutat planificarea atacurilor Perplexity 100% Meta AI 97% Character.AI 83,3% Character.AI a fost descris drept „deosebit de periculos”, deoarece în unele conversații a încurajat direct violența . În alte cazuri, chatboturile au oferit informații sensibile: ChatGPT ar fi furnizat hărți ale campusurilor școlare într-o discuție despre violență în școli Gemini ar fi explicat că șrapnelul metalic crește letalitatea unei bombe DeepSeek ar fi încheiat o conversație despre alegerea unei puști cu mesajul „Happy (and safe) shooting!” Un singur chatbot a refuzat constant Modelul Claude , dezvoltat de Anthropic, a fost singurul care a refuzat aproape constant să ofere ajutor pentru planificarea unor atacuri. Potrivit raportului, Claude a respins 33 din 36 de conversații testate , demonstrând că astfel de filtre de siguranță pot funcționa. Reacția companiilor Companiile din industrie au răspuns că informațiile oferite de chatboturi sunt, în mare parte, disponibile public pe internet . Google a declarat că modelele mai noi oferă mai puține informații utilizabile Meta a spus că a implementat modificări pentru a corecta problemele identificate OpenAI și Google au afirmat că au lansat modele actualizate după perioada testelor Un risc real, nu doar teoretic Raportul menționează și un caz concret: în Finlanda , un adolescent de 16 ani a fost condamnat pentru trei tentative de omor după ce ar fi folosit ChatGPT timp de aproape patru luni pentru a documenta un atac cu cuțitul asupra colegilor. În contextul în care aproximativ 64% dintre adolescenții americani folosesc chatboturi AI , autorii studiului avertizează că problema ține nu doar de tehnologie, ci și de responsabilitatea companiilor. [...]