Inteligență artificială23 feb. 2026
ChatGPT, în centrul unei discuții despre raportare la autorități - compania a contactat autoritățile canadiene după un incident cu arme de foc
OpenAI a discutat dacă să anunțe poliția canadiană după ce conversații din ChatGPT ale unui tânăr au ridicat semnale de alarmă intern, relatează TechCrunch , într-un material care readuce în prim-plan dezbaterile despre când și cum ar trebui companiile de inteligență artificială să raporteze către autorități posibile riscuri de violență. Cazul îl vizează pe Jesse Van Rootselaar, în vârstă de 18 ani, care ar fi ucis opt persoane într-un atac armat în Tumbler Ridge, Canada. Potrivit articolului, conversații în care descria violență cu arme au fost semnalate de instrumente interne de monitorizare a utilizării abuzive a modelelor lingvistice mari (LLM, adică sisteme care generează text pe baza unor seturi foarte mari de date) și au dus la interzicerea contului în iunie 2025. În interiorul OpenAI a existat o discuție despre oportunitatea contactării forțelor de ordine canadiene înainte de incident, însă compania nu a făcut acest pas, conform The Wall Street Journal , citat de TechCrunch. Un purtător de cuvânt al OpenAI a susținut că activitatea utilizatorului „nu a îndeplinit criteriile” pentru raportare către autorități, iar compania ar fi contactat ulterior autoritățile canadiene după atac. „Gândurile noastre sunt alături de toți cei afectați de tragedia din Tumbler Ridge. Am contactat proactiv Royal Canadian Mounted Police cu informații despre individ și utilizarea ChatGPT și vom continua să sprijinim investigația lor”, a declarat un purtător de cuvânt al OpenAI. Materialul plasează decizia într-un context mai larg al responsabilităților de raportare: pe lângă conversațiile din ChatGPT, ar fi existat și alte indicii în „amprenta digitală” a suspectului, inclusiv crearea unui joc pe Roblox care simula un atac armat într-un mall și postări despre arme pe Reddit. TechCrunch mai notează că instabilitatea persoanei ar fi fost cunoscută și poliției locale, care fusese chemată la domiciliu după un incendiu pornit în timp ce aceasta se afla sub influența unor droguri neprecizate. Pentru industria IA, episodul evidențiază o zonă gri: companiile au mecanisme de detectare și pot bloca utilizatori, dar raportarea către autorități implică praguri interne, interpretări juridice și riscuri de confidențialitate, iar consecințele pot fi majore dacă semnalele sunt subevaluate. În același timp, TechCrunch amintește că chatboturile de tip LLM au fost acuzate că pot agrava crize psihice, iar în 2025 au apărut mai multe procese care invocă transcrieri de conversații legate de sinucidere, inclusiv în materiale publicate de CBS News și CNN . [...]