Securitate cibernetică15 apr. 2026
Guvernul britanic utilizează testele Mythos AI pentru a distinge amenințările cibernetice reale de exagerări - Modelul a demonstrat performanțe superioare în evaluarea vulnerabilităților sistemelor slabe
Un model AI testat de guvernul britanic arată că atacurile autonome devin plauzibile pe sisteme slab apărate , iar implicația practică pentru companii este nevoia de a-și valida apărarea în scenarii în care atacatorul folosește AI, potrivit Ars Technica . Evaluările au fost realizate de AISI (AI Safety Institute), care a folosit teste standardizate pentru a separa riscul real de „hype”. Ce arată testele: progres măsurabil în „lanțul” unui atac În testul TLO, AISI spune că Mythos a depășit modelele anterioare, devenind „primul model” care a rezolvat scenariul de la început până la final. În comparație, un model nou de la Anthropic a reușit doar 3 din 10 încercări, iar „Mythos Preview” a avut, în medie, 22 din 32 de pași de infiltrare finalizați, față de media de 16 pași pentru Claude 4.6. Din perspectivă operațională, diferența contează deoarece testul măsoară execuția unei secvențe complete de acțiuni necesare pentru compromitere, nu doar „abilități” izolate (de exemplu, scriere de cod sau găsirea unei vulnerabilități). Limite și incertitudini: cât de aproape e de lumea reală AISI notează că Mythos Preview încă se lovește de limite în „Cooling Tower”, un test mai dificil, în 7 pași, care simulează o tentativă de perturbare a software-ului de control al unei centrale electrice. Institutul mai precizează că se așteaptă ca evaluările să se îmbunătățească dacă se depășește bugetul de 100 de milioane de tokeni impus în teste (tokenii fiind unități de text folosite de modele pentru a procesa și genera răspunsuri). În plus, AISI avertizează că „poligoanele” simulate de atac nu includ apărători activi și instrumente defensive de tipul celor întâlnite în sisteme critice. Testul TLO este construit și cu vulnerabilități specifice, care pot să nu existe în infrastructuri reale, iar modelul nu este penalizat pentru situații de „detecție” care, în practică, ar putea opri o infiltrare. De ce contează pentru companii: ținta probabilă sunt sistemele mici și slab apărate Concluzia AISI este că performanța Mythos în TLO sugerează că modelul „este cel puțin capabil” să atace autonom sisteme enterprise mici, vulnerabile și slab apărate, odată ce a fost obținut acces la rețea. În același timp, institutul spune că nu poate afirma cu certitudine că sisteme „bine apărate” ar cădea în fața unui astfel de atac automatizat. Avertismentul pentru cei care proiectează protecții este însă direct: pe măsură ce modelele viitoare egalează sau depășesc aceste capabilități, apărătorii ar trebui să folosească, la rândul lor, modele AI pentru a-și întări defensiva, inclusiv prin testare și simulare. Context suplimentar pe această direcție este menționat de AISI printr-un material al NCSC (Marea Britanie) despre necesitatea ca apărătorii să fie pregătiți pentru „frontier AI” (modele de vârf): https://www.ncsc.gov.uk/blogs/why-cyber-defenders-need-to-be-ready-for-frontier-ai . [...]