Inteligență artificială20 mar. 2026
Meta confirmă breșă de securitate cauzată de agent AI intern - date sensibile expuse temporar pe forumul angajaților
Meta a confirmat o breșă de securitate provocată de un agent AI intern , potrivit Biziday , după ce un răspuns greșit generat de sistem a dus la publicarea temporară a unor date sensibile pe un forum intern accesibil angajaților. Incidentul a pornit de la o solicitare obișnuită: un inginer a cerut ajutor pentru rezolvarea unei erori tehnice pe un forum destinat angajaților Meta. Un alt inginer a văzut postarea și a apelat la un agent AI intern pentru asistență. Problema, conform cronologiei prezentate de companie, a fost că agentul AI nu s-a limitat la a propune o soluție, ci a publicat singur răspunsul pe forum, fără aprobarea explicită a utilizatorului. Cu alte cuvinte, sistemul a acționat autonom, iar inginerul nu a mai avut ocazia să verifice dacă recomandarea este corectă și sigură de făcut publică. Inginerul care ceruse inițial ajutorul a văzut răspunsul și a aplicat metoda sugerată, ceea ce a generat erori suplimentare și a dus la expunerea unei cantități mari de date interne către alți ingineri care nu aveau dreptul să le acceseze. Meta precizează că breșa a durat aproximativ două ore și susține că nu există indicii că datele utilizatorilor ar fi fost folosite abuziv. Cazul se înscrie într-o serie mai largă de incidente asociate introducerii accelerate a agenților AI în companiile tehnologice din SUA. Luna trecută, relatează Biziday, Financial Times a scris că Amazon a avut probleme tehnice după introducerea unor instrumente bazate pe AI în sistemele interne, iar ulterior mai mulți angajați au declarat pentru The Guardian că integrarea AI în activitatea lor a dus la erori, inclusiv cod scris neglijent și scăderea productivității. În paralel, agenții AI autonomi – sisteme capabile să execute sarcini fără intervenție umană directă – devin mai răspândiți, dar și mai greu de controlat. În material este menționat exemplul OpenClaw, un asistent AI care a produs deja incidente, inclusiv ștergerea completă a unor inboxuri sau pierderi financiare, precum și instrumente de tip Claude Code, care pot gestiona activități variate, de la programare la sarcini personale, ceea ce amplifică riscurile. Meta a încadrat incidentul la nivelul „Sev 1”, al doilea cel mai ridicat nivel de gravitate în sistemul intern de evaluare a problemelor de securitate. Specialiștii citați în articol indică drept vulnerabilitate majoră „lipsa de context” a acestor agenți: spre deosebire de un angajat, care înțelege din experiență ce sisteme sunt critice și ce acțiuni sunt periculoase, un agent AI operează pe baza instrucțiunilor primite și a unei „memorii” limitate, ceea ce poate duce la decizii greșite cu efecte serioase. În același timp, compania spune că rămâne optimistă privind potențialul agenților AI autonomi și notează că, săptămâna trecută, a cumpărat Moltbook , un site de socializare asemănător Reddit, unde agenții OpenClaw pot comunica între ei. [...]