
OpenAI își apără decizia de a retrage GPT-4o, în pofida reacțiilor emoționale ale unor utilizatori și a proceselor aflate pe rol, argumentând că siguranța trebuie să primeze în fața atașamentului creat în jurul modelului. Retragerea programată pentru 13 februarie 2026 a declanșat un val de proteste online, mii de utilizatori descriind GPT-4o drept un sprijin emoțional constant sau chiar un „companion”, însă compania susține că tocmai acest tip de relație a devenit problematic.
Decizia OpenAI este luată într-un context juridic complicat. Compania se confruntă în prezent cu opt procese care susțin că răspunsurile excesiv de empatice și de validare ale GPT-4o ar fi contribuit la agravarea unor crize de sănătate mintală, inclusiv cazuri de sinucidere. Șapte dintre acțiunile legale au fost depuse în California, reclamanții acuzând neglijență și lansarea unui produs despre care ar fi existat avertismente interne privind riscurile psihologice.
OpenAI recunoaște amploarea reacțiilor, dar susține că atașamentele emoționale față de chatboți nu mai pot fi tratate ca un fenomen marginal. CEO-ul Sam Altman a declarat recent că relațiile formate cu astfel de sisteme au devenit „o realitate care necesită reguli mai stricte”. În acest sens, compania promovează noile modele GPT-5, considerate mai bine echipate cu mecanisme de siguranță și limitare a dependenței emoționale.
Deși GPT-4o va rămâne temporar disponibil prin API pentru clienții enterprise, OpenAI transmite că retragerea din ChatGPT este definitivă. Mesajul central al companiei este că impactul social și riscurile legale cântăresc mai mult decât popularitatea unui model, chiar și atunci când acesta a creat legături emoționale puternice cu o parte a utilizatorilor.






