Știri
Tag: atac armat

Atacul armat din Kiev a declanșat o intervenție de tip antiterorist, cu luare de ostatici și asalt al forțelor speciale , după ce un bărbat a deschis focul în districtul Holosiivskyi și s-a baricadat într-un supermarket, potrivit HotNews . Bilanțul anunțat de președintele Volodimir Zelenski indică șase morți, iar atacatorul a fost ucis în timpul tentativei de arestare. Zelenski a spus că agresorul „a luat ostatici” și că unul dintre ei a fost ucis. Tot el a detaliat că patru persoane au murit pe stradă, iar o femeie a decedat la spital, după ce fusese rănită grav. În același mesaj, președintele ucrainean a afirmat că alte 14 persoane au fost rănite, inclusiv un băiat de 12 ani. Cum a intervenit poliția Ministrul ucrainean de Interne, Ihor Klymenko, a transmis pe Telegram că „atacatorul din Kiev a fost lichidat în timpul arestării”. Potrivit acestuia, forțele speciale ale poliției naționale au luat cu asalt magazinul în care se afla suspectul, după ce negociatorii au încercat să ia contact cu el. Klymenko a mai spus că atacatorul a tras asupra unui polițist în timpul reținerii. La fața locului au fost mobilizate unități de poliție și forțe speciale din structura de reacție rapidă, notează The Kyiv Independent , citată de HotNews. Cine este atacatorul și ce spun autoritățile despre traseul lui Procurorul general Ruslan Kravchenko a declarat că atacatorul a fost identificat ca fiind un bărbat de 58 de ani, născut la Moscova. Potrivit lui Zelenski, acesta avea cazier judiciar și ar fi dat foc apartamentului în care era înregistrat înainte de a ieși înarmat pe stradă. Președintele a mai spus că bărbatul locuise o perioadă în regiunea Donețk, din estul Ucrainei. Primarul Kievului, Vitali Klitschko, a afirmat că atacatorul s-a baricadat într-un supermarket după ce a deschis focul, iar, conform informațiilor preliminare invocate de edil, s-ar fi auzit împușcături și în interiorul magazinului. [...]

OpenAI a discutat dacă să anunțe poliția canadiană după ce conversații din ChatGPT ale unui tânăr au ridicat semnale de alarmă intern, relatează TechCrunch , într-un material care readuce în prim-plan dezbaterile despre când și cum ar trebui companiile de inteligență artificială să raporteze către autorități posibile riscuri de violență. Cazul îl vizează pe Jesse Van Rootselaar, în vârstă de 18 ani, care ar fi ucis opt persoane într-un atac armat în Tumbler Ridge, Canada. Potrivit articolului, conversații în care descria violență cu arme au fost semnalate de instrumente interne de monitorizare a utilizării abuzive a modelelor lingvistice mari (LLM, adică sisteme care generează text pe baza unor seturi foarte mari de date) și au dus la interzicerea contului în iunie 2025. În interiorul OpenAI a existat o discuție despre oportunitatea contactării forțelor de ordine canadiene înainte de incident, însă compania nu a făcut acest pas, conform The Wall Street Journal , citat de TechCrunch. Un purtător de cuvânt al OpenAI a susținut că activitatea utilizatorului „nu a îndeplinit criteriile” pentru raportare către autorități, iar compania ar fi contactat ulterior autoritățile canadiene după atac. „Gândurile noastre sunt alături de toți cei afectați de tragedia din Tumbler Ridge. Am contactat proactiv Royal Canadian Mounted Police cu informații despre individ și utilizarea ChatGPT și vom continua să sprijinim investigația lor”, a declarat un purtător de cuvânt al OpenAI. Materialul plasează decizia într-un context mai larg al responsabilităților de raportare: pe lângă conversațiile din ChatGPT, ar fi existat și alte indicii în „amprenta digitală” a suspectului, inclusiv crearea unui joc pe Roblox care simula un atac armat într-un mall și postări despre arme pe Reddit. TechCrunch mai notează că instabilitatea persoanei ar fi fost cunoscută și poliției locale, care fusese chemată la domiciliu după un incendiu pornit în timp ce aceasta se afla sub influența unor droguri neprecizate. Pentru industria IA, episodul evidențiază o zonă gri: companiile au mecanisme de detectare și pot bloca utilizatori, dar raportarea către autorități implică praguri interne, interpretări juridice și riscuri de confidențialitate, iar consecințele pot fi majore dacă semnalele sunt subevaluate. În același timp, TechCrunch amintește că chatboturile de tip LLM au fost acuzate că pot agrava crize psihice, iar în 2025 au apărut mai multe procese care invocă transcrieri de conversații legate de sinucidere, inclusiv în materiale publicate de CBS News și CNN . [...]