
Viralul „AI” Moltbook a fost un miraj: MIT confirmă că postările au fost scrise de oameni, în timp ce OpenClaw, un asistent AI open-source, devine un pericol major de securitate, atrăgând milioane de utilizatori și tot atâtea vulnerabilități, arată o investigație recentă citată de mai multe surse, printre care și Cisco.
În doar câteva zile de la lansarea sa din ianuarie, rețeaua Moltbook – promovată ca o platformă de socializare între „agenți AI” – a generat un val de entuziasm online, după ce unele postări păreau să sugereze dialoguri între conștiințe artificiale. Însă, conform MIT, aceste mesaje erau scrise de utilizatori umani care se dădeau drept AI, într-o mișcare care a alimentat artificial hype-ul. De fapt, în spatele celor „1,7 milioane de agenți AI” înregistrați pe platformă se aflau doar aproximativ 17.000 de utilizatori umani.

În paralel, OpenClaw, un proiect open-source creat de dezvoltatorul austriac Peter Steinberger, a devenit unul dintre cele mai rapide proiecte în creștere pe GitHub, cu peste 161.000 de stele. Sistemul permite automatizarea de sarcini pe e-mail, mesagerie, navigare web sau calendar, dar, avertizează experții, poate rula comenzi shell, accesa fișiere și executa scripturi fără autentificare adecvată.
Firme de securitate cibernetică precum HiddenLayer și Cisco semnalează vulnerabilități grave: atacuri de tip prompt injection, furt de date și credențiale, instalare de backdoor-uri persistente și chiar compromiterea completă a sistemului. Unele instanțe ale interfeței de control au fost găsite „deschise complet”, fără niciun sistem de protecție, expunând API-uri sensibile și istoricul conversațiilor.
De asemenea, un incident grav a vizat Moltbook, care a suferit o breșă de securitate din cauza unei configurări greșite în baza de date Supabase. Au fost expuse 1,5 milioane de tokenuri API, peste 35.000 de adrese de e-mail și mesaje private – toate ușor accesibile fără tehnici avansate de hacking.
În contextul acestei crize de încredere, experții trag un semnal de alarmă: entuziasmul pentru agenții AI personali depășește cu mult nivelul actual de securizare a acestora. „Folosirea acestor instrumente fără protecții adecvate poate echivala cu lăsarea ușilor casei larg deschise în plină noapte”, avertizează cercetătorul Jamieson O'Reilly.






