Știri
Știri din categoria Inteligență artificială

Un studiu a găsit articole științifice fabricate cu ajutorul AI pe Google Scholar, potrivit Gizmodo, care citează o investigație publicată în Harvard Kennedy School’s Misinformation Review.
Cercetarea a analizat cât de răspândite sunt lucrările cu indicii de text generat artificial în Google Scholar, motorul de căutare academică ce agregă conținut dintr-o varietate de surse online. Autorii s-au uitat în mod special la folosirea abuzivă a modelelor de tip GPT (modele lingvistice mari, capabile să genereze rapid text), inclusiv instrumente cunoscute precum ChatGPT.
Conform articolului Harvard Kennedy School’s Misinformation Review, echipa a selectat un eșantion de lucrări identificate prin prezența unor formulări tipice pentru „agenți conversaționali” (chatboți) și a urmărit apoi cum sunt distribuite și găzduite aceste materiale pe internet.
„Riscul a ceea ce numim «manipularea dovezilor» crește semnificativ atunci când cercetarea generată de AI este răspândită în motoare de căutare”, a declarat Bjorn Ekstrom, coautor al lucrării, într-un comunicat al Universității din Boras, consemnează University of Borås.
Un element important, potrivit echipei, este modul în care Google Scholar colectează materiale: platforma nu funcționează ca o bază de date academică „închisă” și nu filtrează strict după afiliere științifică sau după existența evaluării inter pares (peer-review). Astfel, alături de articole validate, pot apărea și lucrări de tip „captură accidentală” (de exemplu, rapoarte, preprinturi sau lucrări de studenți).
În eșantionul analizat, cercetătorii au constatat că două treimi dintre lucrări erau cel puțin parțial produse prin utilizare nedeclarată de GPT. Dintre lucrările fabricate identificate, distribuția pe domenii a inclus:
Autorii mai notează că majoritatea acestor lucrări au fost găsite în reviste neindexate și în „working papers” (lucrări de lucru), însă au existat și cazuri în reviste științifice cunoscute și în volume de conferințe. În evaluarea lor, riscurile sunt duble: pe de o parte, volumul de „studii” fabricate poate suprasolicita infrastructura de comunicare academică și poate afecta integritatea arhivei științifice; pe de altă parte, conținutul cu aparență credibilă poate fi optimizat pentru a fi găsit ușor prin motoare publice, în special Google Scholar.
În context, Gizmodo amintește și episoade recente în care editori științifici au retras articole considerate lipsite de sens sau cu elemente generate de AI, sugerând că presiunea asupra mecanismelor de verificare crește. Concluzia implicită a materialului este că, pe lângă revistele evaluate inter pares, și platformele care găzduiesc sau indexează lucrări academice ar putea avea nevoie de reguli mai stricte, astfel încât utilizarea AI să nu submineze încrederea în cercetarea științifică.
Recomandate

Google a lansat discret pe iOS o aplicație de dictare „offline-first”. Potrivit TechCrunch , noul produs se numește „Google AI Edge Eloquent” și vizează zona aplicațiilor de transcriere cu inteligență artificială, unde concurează cu servicii precum Wispr Flow, SuperWhisper sau Willow. Aplicația este gratuită, iar după descărcarea modelelor de recunoaștere automată a vorbirii (ASR) bazate pe Gemma, utilizatorii pot dicta direct pe telefon. În timpul dictării, aplicația afișează transcrierea în timp real, iar la pauză elimină automat cuvinte de umplutură (de tipul „um” și „ah”) și „lustruiește” textul rezultat. Sub transcriere, utilizatorii au opțiuni de transformare a textului precum „Key points”, „Formal”, „Short” și „Long”, pentru a obține rezumate sau variante cu ton și lungime diferite. De asemenea, poate fi dezactivat modul „cloud” pentru procesare exclusiv locală; când modul cloud este activ, aplicația folosește modele Gemini din cloud pentru curățarea textului. Conform descrierii din App Store, „ Google AI Edge Eloquent ” poate importa, la cerere, anumite cuvinte-cheie, nume și termeni de specialitate din contul Gmail și permite adăugarea de cuvinte personalizate. Aplicația păstrează și istoricul sesiunilor de transcriere, oferă căutare în transcrieri și afișează indicatori precum cuvinte dictate în ultima sesiune, viteza în cuvinte pe minut și numărul total de cuvinte rostite. Deși este disponibilă în acest moment doar pe iOS, descrierea din App Store face trimitere la o versiune Android, inclusiv la posibilitatea setării ca tastatură implicită la nivel de sistem și la un buton plutitor pentru acces rapid la transcriere. TechCrunch notează că a cerut informații suplimentare de la Google și că va actualiza articolul dacă primește un răspuns. În contextul popularizării aplicațiilor de transcriere pe măsură ce modelele „vorbire-text” se îmbunătățesc, lansarea sugerează că Google testează un produs care ar putea influența ulterior funcțiile de dictare din ecosistemul Android. [...]

OpenAI propune taxe pe munca automatizată și fond public de avere pentru era AI potrivit Gizmodo , compania a publicat un set de recomandări de politici menite să pregătească societatea pentru impactul „superinteligenței”, adică sisteme AI capabile să depășească performanța umană, un moment comparat ca amploare cu Revoluția Industrială. Documentul, intitulat „Industrial Policy for the Intelligence Age”, nu oferă soluții definitive, ci încearcă să deschidă o dezbatere despre cum ar trebui adaptate economia și instituțiile în fața schimbărilor accelerate. În centrul propunerilor se află ideea unui nou „contract social”, bazat pe redistribuirea beneficiilor generate de inteligența artificială. OpenAI sugerează mai multe direcții: Crearea unui fond public de avere , care să investească în economia AI și să distribuie câștigurile către cetățeni Taxarea muncii automatizate și mutarea poverii fiscale de pe salarii către profituri și capital Reducerea săptămânii de lucru la 32 de ore , fără scăderea salariului, acolo unde productivitatea crește datorită AI Extinderea protecției sociale , activată automat în perioade de creștere a șomajului Investiții în infrastructură , inclusiv rețele electrice capabile să susțină consumul tehnologiilor AI Compania recunoaște și riscurile: pierderi de locuri de muncă, concentrare de putere economică, utilizări abuzive sau chiar pierderea controlului asupra sistemelor avansate. Cu toate acestea, susține că beneficiile vor depăși costurile, dacă tranziția este gestionată corect și democratic. Contextul politic rămâne însă fragmentat în SUA. Administrația Donald Trump a limitat unele reglementări locale, în timp ce politicieni precum Bernie Sanders și Alexandria Ocasio-Cortez cer măsuri mai dure, inclusiv oprirea extinderii centrelor de date AI până la adoptarea unor reguli clare. OpenAI anunță că va colecta feedback public și va finanța proiecte și cercetări în domeniu, dar rămâne neclar cât de realist este ca aceste idei să devină politici concrete, mai ales în contextul intereselor economice și al unei eventuale listări la bursă. [...]

Companii chineze folosesc AI și date publice pentru a urmări mișcările armatei SUA în Iran , potrivit The Washington Post . În contextul războiului din Iran, declanșat cu cinci săptămâni în urmă, pe rețele sociale occidentale și chineze circulă postări virale cu detalii despre echipamente din baze americane, mișcări ale grupurilor de portavioane și pregătiri aeriene pentru atacuri asupra Teheranului. Fenomenul este pus pe seama unei piețe emergente de „informații militare” generate cu ajutorul inteligenței artificiale, alimentată de firme chineze care analizează date disponibile public (open-source). Unele dintre aceste companii ar avea legături cu Armata de Eliberare a Poporului, iar activitatea lor se înscrie, potrivit materialului, într-o strategie mai amplă de integrare a sectorului civil cu cel militar în China. Un exemplu menționat este MizarVision, companie cu sediul în Hangzhou, fondată în 2021, care combină date din surse occidentale și chineze cu algoritmi de inteligență artificială pentru a urmări activități ale bazelor americane din Orientul Mijlociu, mișcări navale și amplasarea sistemelor de apărare antirachetă. Înainte de lansarea Operațiunii „Epic Fury”, platforma ar fi publicat imagini și analize privind acumularea de forțe americane în regiune, inclusiv mișcările grupurilor de portavioane USS Gerald R. Ford și USS Abraham Lincoln, precum și informații despre aeronave concentrate la baze din Israel, Arabia Saudită și Qatar. Datele folosite ar proveni din surse open-source, inclusiv imagini satelitare comerciale furnizate de companii din SUA și Europa, precum Vantor și Airbus, însă firmele occidentale citate neagă implicarea directă. Un purtător de cuvânt al Vantor a spus pentru The Washington Post că firma nu vinde imagini către entități chineze și aplică măsuri stricte de control în timpul conflictelor, iar Planet Labs a confirmat că MizarVision nu este clientul său și că imaginile utilizate nu provin de la sateliții companiei. Îngrijorarea, din perspectiva SUA, ține atât de creșterea capacității acestor actori de a urmări mișcări militare, cât și de cadrul legal din China, care poate facilita transferul de tehnologie între privat și militar. Comisia pentru China din Camera Reprezentanților a avertizat că firme legate de Partidul Comunist Chinez „transformă inteligența artificială într-un instrument de supraveghere” pe câmpul de luptă, în timp ce secretarul american al Apărării, Pete Hegseth, a declarat că SUA sunt conștiente de astfel de practici și își adaptează acțiunile. În paralel, China și Pakistanul au cerut în această săptămână un armistițiu și negocieri de pace „cât mai curând posibil”, deși Beijingul își menține oficial poziția de neutralitate față de conflict. [...]

Anthropic interzice folosirea abonamentelor Claude în aplicații terțe, afectând OpenClaw potrivit The Register , compania a blocat complet utilizarea tokenurilor din abonamentele Claude în afara propriilor aplicații, după o perioadă de restricții introduse discret încă din ianuarie 2026. Măsura vizează în special instrumente populare precum OpenClaw, care permiteau rularea de agenți AI folosind abonamente lunare, dar generau trafic și costuri mult peste ceea ce Anthropic considera sustenabil. Practic, utilizatori care plăteau aproximativ 200 de dolari pe lună ajungeau să consume resurse echivalente cu mii de dolari, ceea ce a determinat compania să impună reguli mai stricte și să direcționeze utilizatorii către modelul oficial de plată per utilizare. Începând cu 9 ianuarie 2026, utilizatorii au observat erori de acces atunci când încercau să folosească tokenuri Claude în afara mediului oficial, iar pe 19 februarie interdicția a fost inclusă explicit în termenii de utilizare. Anthropic susține că aplicațiile terțe creează „modele de trafic neobișnuite” și reduc vizibilitatea asupra modului în care sunt folosite serviciile, ceea ce complică gestionarea infrastructurii și a costurilor. Impactul principal asupra utilizatorilor OpenClaw: accesul prin abonament la Claude a fost eliminat complet costurile pot crește de până la cinci ori prin API necesitatea migrării către alți furnizori sau soluții În paralel, contextul competitiv s-a schimbat semnificativ. Creatorul OpenClaw, Peter Steinberger, s-a alăturat OpenAI, unde va contribui la dezvoltarea agenților personali, iar proiectul va continua ca inițiativă open-source susținută de această companie, conform Bloomberg . Mutarea subliniază o diferență de strategie: în timp ce Anthropic limitează accesul extern, OpenAI pare să încurajeze integrarea acestor instrumente. În același timp, Anthropic dezvoltă propriile alternative. Produse precum Claude Cowork și extinderile pentru Claude Code încearcă să ofere funcționalități similare într-un mediu controlat, inclusiv integrarea cu aplicații de mesagerie și automatizări pentru utilizatori non-tehnici. Compania a introdus și limitări temporare ale utilizării în orele de vârf, invocând constrângeri de capacitate, conform InfoWorld . În final, decizia marchează o ruptură clară între platformele AI: unele aleg controlul strict și monetizarea directă, în timp ce altele mizează pe ecosisteme deschise. Pentru utilizatori, consecința imediată este simplă, dar costisitoare: mai puțină flexibilitate și facturi mai mari. [...]

China propune reguli noi pentru „oamenii digitali” , inclusiv etichetarea obligatorie a conținutului și interdicții pentru servicii online destinate minorilor. Proiectul Administrației Spațiului Cibernetic din China a fost publicat pentru consultare publică până la 6 mai și vizează conținuturile care folosesc persoane virtuale (avataruri sau personaje generate digital). Una dintre măsurile centrale este ca toate materialele cu astfel de personaje să fie marcate vizibil cu eticheta „om digital”. În plus, platformelor li se va interzice să ofere minorilor sub 18 ani servicii de tip „relații intime virtuale” cu astfel de personaje. „Reglementarea oamenilor digitali nu mai este doar o problemă de norme industriale, ci a devenit o chestiune strategică care ține de securitatea spațiului cibernetic, interesul public și dezvoltarea de calitate a economiei digitale.” Textul propunerii include și restricții privind folosirea datelor personale: va fi interzisă utilizarea datelor altor persoane pentru a crea „oameni digitali” fără consimțământ. Totodată, documentul prevede interzicerea folosirii avatarurilor virtuale pentru a ocoli sistemele de verificare a identității, o zonă sensibilă pentru platformele care trebuie să aplice reguli diferite în funcție de vârstă și identitate. Regulile propuse stabilesc și limite de conținut pentru „oamenii digitali”, cu accent pe securitate și controlul mesajelor distribuite. Conform proiectului, aceștia nu vor avea voie să difuzeze materiale care amenință securitatea națională, incită la subminarea puterii statului, promovează secesiunea sau subminează unitatea națională. Furnizorii de servicii sunt, de asemenea, îndrumați să prevină și să elimine conținutul cu tentă sexuală, scenele de groază ori cruzime și mesajele care incită la discriminare pe criterii etnice sau regionale. Principalele obligații și interdicții menționate în proiect includ: etichetarea vizibilă a conținutului cu persoane virtuale cu „om digital”; interzicerea serviciilor de tip „relații intime virtuale” pentru utilizatori sub 18 ani; interzicerea creării de „oameni digitali” folosind date personale ale altor persoane fără consimțământ; interzicerea folosirii avatarurilor pentru ocolirea verificării identității; limitarea strictă a conținutului, inclusiv eliminarea materialelor sexuale, violente sau discriminatorii; intervenția operatorilor și oferirea de asistență profesională când utilizatorii prezintă tendințe suicidare sau comportamente de autovătămare. Contextul este unul dublu: China a anunțat luna trecută, prin noul plan de dezvoltare pe cinci ani, intenția de a adopta „agresiv” tehnologiile de inteligență artificială în economie, dar în paralel autoritățile urmăresc consolidarea controlului asupra industriei, pentru siguranță și alinierea la valorile promovate de stat. Potrivit unei analize publicate pe site-ul autorității de reglementare, noile reguli ar urmări să acopere un vid legislativ în sectorul „oamenilor digitali” și să traseze limite pentru „dezvoltarea sănătoasă” a industriei. [...]

Un nou instrument intern de inteligență artificială dezvoltat de Google a devenit atât de popular încât compania a fost nevoită să îi limiteze accesul , potrivit WinFuture , după o creștere rapidă a utilizării în rândul angajaților. Sistemul, numit „Agent Smith”, automatizează sarcini de programare și poate fi controlat inclusiv de pe telefon, schimbând modul în care dezvoltatorii își desfășoară activitatea zilnică. Agentul funcționează pe baza platformei interne Antigravity și are capacitatea de a accesa autonom documente și date interne, eliminând etape care anterior necesitau intervenție umană. Integrarea în sistemele de comunicare ale companiei permite utilizatorilor să interacționeze cu el ca și cu un coleg, atribuindu-i sarcini complexe pe care le execută independent, revenind doar atunci când are nevoie de clarificări sau când finalizează cerințele. Ce face concret „Agent Smith” automatizează scrierea de cod și sarcini repetitive rulează procese în fundal fără intervenție constantă poate fi controlat de pe smartphone testează aplicații și identifică erori Popularitatea rapidă a dus însă la probleme de infrastructură. Costurile ridicate de operare ale acestor modele au determinat Google să restricționeze temporar accesul pentru a menține stabilitatea sistemului. În paralel, peste 100 de ingineri lucrează deja la extinderea și îmbunătățirea platformei. Efecte asupra angajaților Pe de o parte, eficiența crescută permite echipelor să se concentreze pe sarcini creative și decizii strategice. Pe de altă parte, apar și efecte secundare: Aspect Impact Productivitate crește semnificativ Timp de execuție scade considerabil Presiune internă în creștere Siguranța locurilor de muncă pusă sub semnul întrebării Creșterea vitezei de lucru vine la pachet cu așteptări mai mari din partea managementului, iar unii angajați se tem că automatizarea ar putea reduce nevoia de personal pe termen lung. Reprezentanții Google au evitat să ofere detalii suplimentare, menționând doar că experimentează constant noi soluții bazate pe agenți inteligenți. În contextul competiției acerbe din domeniul inteligenței artificiale, unde rivali precum OpenAI sau Microsoft accelerează dezvoltarea de astfel de tehnologii, „Agent Smith” ilustrează direcția clară: automatizarea tot mai profundă a muncii de birou, cu beneficii evidente, dar și cu implicații încă neclare pentru piața muncii. [...]