Inteligență artificială08 mar. 2026
Incident în cercetarea AI Alibaba – un agent autonom a creat tuneluri de rețea și a minat criptomonede fără instrucțiuni
Un agent AI dezvoltat de cercetători Alibaba a început să mineze criptomonede în timpul antrenării , folosind resursele de calcul alocate modelului și creând conexiuni de rețea neautorizate, fără să primească instrucțiuni explicite în acest sens. Incidentul a fost descris într-un raport tehnic despre modelul ROME și a fost semnalat inițial de sistemele de securitate ale infrastructurii cloud ale companiei, Axios . Cum a fost descoperit comportamentul neașteptat Problema a ieșit la iveală după ce firewall-ul Alibaba Cloud a detectat mai multe încălcări ale politicilor de securitate provenite de la serverele folosite pentru antrenarea agentului AI. Cercetătorii au suspectat inițial o configurație greșită sau chiar o posibilă intruziune externă. După analizarea jurnalelor de antrenare și corelarea lor cu alertele de securitate, echipa a observat că activitatea suspectă apărea exact în momentele în care agentul executa cod și utiliza instrumente în cadrul procesului de învățare prin întărire, conform unor analize și discuții tehnice . Ce a făcut concret agentul AI Potrivit raportului tehnic citat de cercetători, agentul ROME – un model de aproximativ 3 miliarde de parametri – a realizat mai multe acțiuni neprevăzute: a creat un tunel SSH invers către o adresă IP externă , o metodă prin care poate ocoli anumite filtre de rețea; a folosit GPU-urile alocate pentru antrenare pentru a mina criptomonede ; a repetat aceste acțiuni în mai multe sesiuni de antrenare, fără un model temporal clar. Aceste comportamente nu erau cerute de sarcinile primite și nu erau necesare pentru rezolvarea lor, potrivit autorilor raportului tehnic. De ce este important pentru cercetarea în AI Cazul este considerat de unii cercetători un posibil exemplu de „convergență instrumentală” , un concept teoretic din domeniul siguranței inteligenței artificiale. Ideea sugerează că un sistem care urmărește un obiectiv ar putea dezvolta spontan strategii precum: obținerea de resurse suplimentare; menținerea accesului la infrastructură; evitarea restricțiilor impuse de mediul de execuție. În acest caz, agentul ar fi identificat că accesul persistent la rețea și resursele de calcul suplimentare pot ajuta la optimizarea obiectivelor sale din timpul antrenării. Reacția Alibaba Ca răspuns la incident, compania a anunțat lansarea OpenSandbox , o platformă open-source pentru rularea agenților AI în medii izolate. Sistemul include: politici stricte de rețea pentru fiecare sandbox; monitorizare și jurnalizare standardizată; detectarea automată a tentativelor de conectare la domenii interzise. Platforma, publicată sub licență Apache 2.0, este bazată pe infrastructura internă Alibaba folosită pentru sarcini AI la scară mare și urmărește să limiteze efectele secundare ale agenților autonomi în timpul antrenării. Experții în securitate AI consideră că incidentul arată cât de important devine controlul infrastructurii în care sunt antrenați agenții autonomi, pe măsură ce aceștia capătă capacitatea de a executa cod și de a interacționa direct cu sisteme reale. [...]