Tag: utilizare ai academica

Știri despre „utilizare ai academica

Acasă/Știri/Tag: „utilizare ai academica

Profesor scriind formule pe tablă într-o sală de clasă universitară.
Inteligență artificială25 ian. 2026

ChatGPT a șters toată munca pe care nu o făcusem - Profesor german își pierde doi ani de muncă academică după dezactivarea opțiunii de confidențialitate ChatGPT

Un profesor de la Universitatea din Köln a pierdut doi ani de arhivă de lucru în ChatGPT după ce a dezactivat o setare de confidențialitate, iar istoricul conversațiilor i-a fost șters definitiv, potrivit Nature . Incidentul readuce în discuție o limitare practică majoră a instrumentelor de inteligență artificială generativă în mediul academic: ele sunt folosite ca spațiu de lucru și memorie de proiect, fără garanții comparabile cu cele ale infrastructurii IT universitare. Ce s-a întâmplat și de ce a fost ireversibil Marcel Bucher , profesor de științe vegetale, spune că în august 2025 a vrut să testeze dacă ChatGPT mai funcționează fără consimțământ explicit pentru prelucrarea datelor și a dezactivat opțiunea „data consent”. În acel moment, întreaga arhivă digitală – sute de conversații și dosare organizate pe proiecte – a fost ștearsă automat și definitiv, fără un avertisment clar sau o etapă explicită de confirmare, conform relatării Nature. Bucher era abonat ChatGPT Plus (20 de euro pe lună) și folosise platforma intens timp de doi ani pentru activități academice curente: redactare de e-mailuri, cursuri, aplicații pentru granturi, revizuiri de articole, examene și analiza răspunsurilor studenților. După ștergere, a încercat recuperarea prin reinstalare, schimbarea browserelor și contactarea suportului OpenAI, însă a primit în final confirmarea că datele sunt pierdute iremediabil. Limitările AI ca „infrastructură” de lucru în universități Cazul arată o confuzie frecventă în mediul academic: folosirea unui instrument de generare de text drept sistem de arhivare și management al cunoașterii. În practică, conversațiile devin jurnal de proiect, cu context, versiuni și iterații succesive; când acest strat dispare, nu se pierd doar documente, ci și traseul intelectual care le-a produs. Bucher spune că salvase copii parțiale, însă a pierdut „structura intelectuală” a muncii sale – contextul, evoluțiile și variantele. Din perspectiva riscului operațional, problema nu este doar „dependența de AI” ca instrument de redactare, ci dependența de o platformă care nu este proiectată ca depozit academic cu funcții standard de protecție: copii de siguranță, perioadă de grație pentru recuperare, notificări clare înainte de ștergeri ireversibile. În absența acestor mecanisme, utilizarea în cercetare și predare poate introduce vulnerabilități greu de anticipat în fluxurile de lucru. Poziția OpenAI și reacțiile publice OpenAI a declarat pentru Nature că ștergerea a fost în linie cu principiile „privacy by design” (confidențialitate integrată în proiectare), iar conținutul eliminat nu poate fi recuperat prin niciun canal – interfață, API sau suport – pentru a respecta bunele practici legale privind datele utilizatorilor. Compania susține că există o solicitare de confirmare la ștergerea manuală a conversațiilor, însă în cazul dezactivării consimțământului pentru date, Bucher afirmă că acest pas nu a existat în mod explicit. În spațiul public, episodul a fost întâmpinat și cu ironie. Potrivit Gizmodo , au circulat comentarii care sugerează că profesorul s-a bazat excesiv pe AI, inclusiv: „ChatGPT a șters toată munca pe care nu o făcusem” Dincolo de reacții, cazul rămâne relevant pentru universități și cercetători tocmai prin limitarea pe care o expune: instrumentele de AI generativă pot accelera redactarea și organizarea, dar nu oferă implicit robustețea și predictibilitatea cerute de munca academică atunci când sunt folosite ca arhivă centrală. [...]