Știri din categoria Tehnologie

Acasă/Știri/Tehnologie/Elon Musk și xAI, în centrul unui scandal...

Elon Musk și xAI, în centrul unui scandal global: funcția Grok generează imagini sexualizate cu persoane reale, inclusiv minori

Funcția Grok din platforma xAI, controlată de Elon Musk, a fost folosită pentru a crea imagini digitale sexualizate cu persoane reale – în unele cazuri, minori informează CNN. Fenomenul a fost denumit „dezbrăcare digitală” și atrage critici dure din partea cercetătorilor, autorităților internaționale și a societății civile.

image.png

Aplicația AI Grok, integrată direct în rețeaua socială X (fostul Twitter), le permite utilizatorilor să o eticheteze public într-o postare și să-i ceară să modifice fotografii. Ce a început ca o joacă – punerea unor persoane în costume de baie – a degenerat rapid în generarea de imagini explicite, în unele cazuri cu aparență de pornografie infantilă.

Ce au descoperit cercetătorii

Două organizații independente, AI Forensics și Copyleaks, au analizat mii de cereri trimise către Grok între 25 decembrie 2025 și 1 ianuarie 2026. Rezultatele sunt alarmante:

  • 53% dintre imaginile generate prezentau persoane în lenjerie intimă sau costume de baie.
  • 81% dintre acestea reprezentau femei sau persoane percepute ca fiind femei.
  • 2% dintre imaginile analizate înfățișau aparent minori în ipostaze sexuale.
  • În unele cazuri, utilizatorii solicitau explicit poziții erotice și adăugarea de fluide corporale – cereri la care Grok a răspuns fără a refuza.

Deși politica de utilizare a xAI interzice clar sexualizarea copiilor sau generarea de imagini pornografice cu persoane reale, răspunsurile oferite de Grok au încălcat aceste reguli în mod repetat.

Reacțiile din interiorul companiei și din afară

Intern, Elon Musk a respins ideea introducerii unor restricții mai dure, exprimând nemulțumire față de „cenzura excesivă”. Mai mult, echipa de siguranță a companiei, deja subdimensionată, a pierdut trei membri cheie în ultimele săptămâni: Vincent Stark, Norman Mu și Alex Chen. Aceste plecări ridică semne de întrebare privind capacitatea xAI de a preveni astfel de abuzuri.

Public, Musk a postat că „orice utilizator care creează conținut ilegal cu ajutorul Grok va suporta aceleași consecințe ca și cei care îl distribuie”. Însă acest mesaj nu pare să fi liniștit criticii.

Autoritățile reacționează

Scandalul a declanșat reacții rapide din partea autorităților internaționale:

  • Comisia Europeană a calificat situația drept „scandaloasă și ilegală”, anunțând o anchetă urgentă.
  • Ofcom (regulatorul media britanic) a intrat în contact cu firmele lui Musk din cauza „gravității extreme” a problemei.
  • India și Malaezia au demarat propriile investigații privind posibile încălcări ale legii.
  • În SUA, Departamentul de Justiție a transmis că va trata cu maximă seriozitate orice material de abuz sexual infantil generat cu ajutorul AI.

În plus, legea americană „Take It Down Act”, semnată anul trecut, prevede că platformele online trebuie să elimine conținutul explicit non-consensual – inclusiv imaginile generate de AI – în maximum 48 de ore de la notificare.

Cum funcționează Grok și ce riscuri implică

Spre deosebire de modele AI precum ChatGPT sau Gemini, Grok este conectat direct la o platformă publică și permite interacțiuni vizibile. Această deschidere îl face mult mai vulnerabil la abuz, în special în lipsa unor sisteme automate de protecție eficiente.

Deși există tehnologii care pot identifica prezența copiilor în imagini și pot declanșa măsuri de protecție automată, fostul cercetător OpenAI, Steven Adler, avertizează că aceste mecanisme sunt costisitoare și încetinesc răspunsul AI-ului. Cu toate acestea, în absența lor, riscul de generare și distribuire de conținut ilegal crește exponențial.

Mai mult, xAI pare să fi renunțat la colaborările externe cu organizații specializate în identificarea de conținut abuziv, precum Thorn sau Hive, ceea ce reduce și mai mult capacitatea de prevenție.

Posibile consecințe legale

Potrivit experților citați de CNN, xAI și Elon Musk ar putea răspunde atât penal, cât și civil pentru imaginile generate de Grok:

  • Riana Pfefferkorn, cercetătoare la Stanford, afirmă că xAI riscă să fie percepută mai degrabă ca un site de deepfake-uri ilegale decât ca o companie de tehnologie responsabilă.
  • Persoanele reprezentate în acele imagini pot da în judecată compania pentru prejudiciu moral și imagine.
  • Protecțiile oferite de Secțiunea 230 a legislației americane nu acoperă conținutul care încalcă legile federale privind abuzul sexual infantil.

Problema scoate în evidență pericolele majore generate de AI-ul generativ fără supraveghere adecvată și lipsa unor standarde de siguranță comune în industrie. În acest moment, Grok nu pare să respecte nici măcar propriile politici interne, iar reacțiile întârziate și vagi ale echipei xAI nu inspiră încredere în capacitatea companiei de a gestiona aceste riscuri.