Inteligență artificială16 apr. 2026
Google Gemini depășește ChatGPT în imitarea scrisului uman - Studiile arată că Gemini evită mai eficient detectarea conținutului generat de AI
Instrumentele de detectare a textelor generate de AI dau rezultate contradictorii , iar asta complică deciziile operaționale în educație și companii, arată o analiză citată de TechRadar . În testele Open Resource Applications (ORA), Google Gemini a produs cel mai „uman” text dintre mai multe modele populare, trecând mai des de filtrele de detecție decât rivali precum ChatGPT sau Grok. Ce a testat ORA și de ce contează pentru utilizatori și organizații ORA a evaluat aproximativ o duzină de sisteme AI, cerând fiecăruia să scrie același tip de material: un articol lung, cu stil „uman”. Textele au fost apoi verificate cu trei platforme de detecție: Grammarly, QuillBot și GPTZero , pentru a vedea cât de ușor sunt etichetate drept conținut generat de mașină. Concluzia centrală nu este doar că „un model a câștigat”, ci că diferențele dintre detectoare sunt suficient de mari încât aceeași lucrare poate fi considerată „umană” într-un instrument și „AI” în altul — fără ca autorul să poată controla criteriile după care este judecat. Rezultatele: Gemini „trece” mai ușor, iar detectoarele nu sunt aliniate Potrivit analizei, Gemini a avut cea mai mică rată totală de detectare dintre modelele testate. În același timp, performanța detectoarelor a variat puternic: Gemini a fost semnalat mult mai rar de Grammarly și deloc de QuillBot. GPTZero a identificat „cea mai mare parte” a textului AI „per ansamblu”, fiind instrumentul cu cele mai bune rezultate în test. Grammarly a avut cea mai slabă capacitate de detecție în setul analizat, identificând 43,5% din conținutul generat de AI. GPTZero a fost cel mai eficient, recunoscând corect textul AI în aproape 98,8% dintre cazuri. Implicația practică: politicile interne care se bazează pe un singur detector (în școli, redacții, departamente juridice sau de conformitate) pot produce decizii inconsistente, inclusiv contestări sau sancțiuni diferite pentru conținut similar. De ce este ChatGPT „prins” mai des În același test, ChatGPT a performat relativ slab la „evadarea” detecției. ORA sugerează că motivul ține de familiaritate: fiind primul model cu adopție masivă, „vocea” lui a devenit un reper ușor de recunoscut, iar instrumentele de detecție au avut timp să învețe tipare asociate cu acest stil. „ChatGPT se clasează atât de jos pentru că a fost primul AI mare de pe piață și toată lumea știe cum sună”, a spus un reprezentant Open Resource Applications. „Multe modele apărute după el au sunat inițial ca Chat, înainte să devină mai unice. De aceea detectoarele îl semnalează atât de ușor.” Ce urmează: mai puțină certitudine, mai mult risc operațional TechRadar notează că miza crește pe măsură ce internetul se umple de conținut generat de AI, iar unele studii (fără a fi detaliate în material) sugerează că o parte foarte mare din conținutul online ar include deja AI „într-o formă sau alta”. Platformele încearcă să filtreze conținutul „prea artificial”, dar eficiența depinde de detectoare care, în acest moment, nu oferă rezultate stabile. În termeni operaționali, mesajul este că separarea „om vs. AI” în scris devine tot mai greu de făcut în mod fiabil, iar organizațiile care folosesc detectoare pentru decizii (evaluare, conformitate, control editorial) ar trebui să trateze rezultatele ca indicatori probabilistici, nu ca verdict tehnic definitiv. [...]