Știri
Știri din categoria Inteligență artificială

Din 2 august 2026, AI Act devine aplicabil ca regulă generală în UE, iar companiile care folosesc inteligență artificială în procese curente trebuie să se pregătească pentru obligații de transparență, control uman și documentare, potrivit Digi24. Avocatul specializat în tehnologie Marius Stanciu avertizează că inclusiv utilizări uzuale, precum filtrarea CV-urilor cu ChatGPT, evaluarea performanței angajaților prin algoritmi sau folosirea de chatboți pentru clienți, intră în aria de aplicare a regulamentului.
AI Act este Regulamentul (UE) 2024/1689, adoptat pentru a stabili reguli armonizate privind inteligența artificială în Uniunea Europeană. A intrat în vigoare la 1 august 2024 și se aplică direct în toate statele membre, fără a necesita o lege de transpunere, inclusiv companiilor din afara UE dacă sistemele lor afectează persoane aflate pe teritoriul Uniunii.
Regulamentul folosește o abordare bazată pe risc: cu cât un sistem poate afecta mai mult viața, siguranța sau drepturile oamenilor, cu atât cerințele sunt mai stricte. AI Act împarte sistemele în niveluri de risc, de la „inacceptabil” (interzis) la „ridicat” (obligații stricte) și „limitat” sau „minim” (cerințe mai reduse), iar obligațiile nu se opresc la dezvoltatori, ci se extind și la firmele care folosesc AI în recrutare, evaluarea angajaților, relația cu clienții sau creditare.
Potrivit calendarului de implementare, 2 august 2026 este momentul aplicării generale a regulamentului, când devin relevante obligațiile complete pentru multe sisteme cu risc ridicat, inclusiv cele utilizate în zona ocupării forței de muncă și a accesului la servicii. Pentru companii, asta înseamnă că folosirea AI în procese sensibile nu mai poate fi tratată doar ca un instrument de eficientizare, fără consecințe juridice.
Pentru sistemele cu risc ridicat, AI Act impune cerințe precum documentarea, păstrarea evidențelor, evaluarea impactului și supravegherea umană. Transparența devine o cerință centrală, iar în anumite situații oamenii trebuie informați că interacționează cu un sistem AI sau că o decizie este influențată de un algoritm.
„Sistemele nu pot fi lăsate să ia decizii de capul lor, iar angajații trebuie să știe cum și când să intervină”, a explicat Marius Stanciu.
O parte dintre prevederi sunt deja aplicabile din 2 februarie 2025, când au intrat în vigoare interdicțiile pentru anumite practici și obligațiile de „AI literacy” (alfabetizare în domeniul inteligenței artificiale, adică pregătirea minimă a personalului pentru a înțelege și utiliza responsabil astfel de sisteme). Sunt vizate utilizările considerate inacceptabile, precum cele care manipulează comportamentul uman, exploatează vulnerabilități sau creează forme de „scoring social” incompatibile cu standardele europene.
Aplicarea este etapizată și pentru modelele de inteligență artificială de uz general (GPAI), precum ChatGPT, Claude sau Gemini, pentru care regulile se aplică din 2 august 2025. Digi24 subliniază că acestea nu trebuie confundate cu sistemele AI cu risc ridicat, pentru care obligațiile complete devin relevante odată cu aplicarea generală din 2026.
AI Act introduce sancțiuni care pot ajunge, pentru practicile interzise, până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală. Pentru alte încălcări, plafonul este de până la 15 milioane de euro sau 3%, iar furnizarea de informații incorecte sau înșelătoare poate fi sancționată separat, cu până la 7,5 milioane de euro sau 1%.
Marius Stanciu compară nivelul sancțiunilor cu cele din GDPR și susține că, după o perioadă în care multe companii au tratat regulile ca pe un risc teoretic, aplicarea efectivă a amenzilor poate schimba rapid comportamentele de conformare.
În România, Guvernul a adoptat la 12 martie 2026 un memorandum privind desemnarea autorităților naționale competente, potrivit informațiilor din articolul Digi24, însă textul furnizat se oprește înainte de a detalia măsurile și instituțiile vizate.
În practică, pentru firmele care folosesc deja AI în recrutare, evaluare, relația cu clienții sau accesul la servicii, miza este să trateze perioada rămasă până la 2 august 2026 ca pe un interval de pregătire: inventarierea sistemelor utilizate, stabilirea responsabilităților interne și introducerea unui control uman funcțional, acolo unde deciziile pot afecta direct persoane.
Recomandate

Un studiu a găsit articole științifice fabricate cu ajutorul AI pe Google Scholar , potrivit Gizmodo , care citează o investigație publicată în Harvard Kennedy School’s Misinformation Review . Cercetarea a analizat cât de răspândite sunt lucrările cu indicii de text generat artificial în Google Scholar, motorul de căutare academică ce agregă conținut dintr-o varietate de surse online. Autorii s-au uitat în mod special la folosirea abuzivă a modelelor de tip GPT (modele lingvistice mari, capabile să genereze rapid text), inclusiv instrumente cunoscute precum ChatGPT. Conform articolului Harvard Kennedy School’s Misinformation Review , echipa a selectat un eșantion de lucrări identificate prin prezența unor formulări tipice pentru „agenți conversaționali” (chatboți) și a urmărit apoi cum sunt distribuite și găzduite aceste materiale pe internet. „Riscul a ceea ce numim «manipularea dovezilor» crește semnificativ atunci când cercetarea generată de AI este răspândită în motoare de căutare”, a declarat Bjorn Ekstrom, coautor al lucrării, într-un comunicat al Universității din Boras, consemnează University of Borås . Un element important, potrivit echipei, este modul în care Google Scholar colectează materiale: platforma nu funcționează ca o bază de date academică „închisă” și nu filtrează strict după afiliere științifică sau după existența evaluării inter pares (peer-review). Astfel, alături de articole validate, pot apărea și lucrări de tip „captură accidentală” (de exemplu, rapoarte, preprinturi sau lucrări de studenți). În eșantionul analizat, cercetătorii au constatat că două treimi dintre lucrări erau cel puțin parțial produse prin utilizare nedeclarată de GPT. Dintre lucrările fabricate identificate, distribuția pe domenii a inclus: 14,5% legate de sănătate 19,5% legate de mediu 23% legate de informatică Autorii mai notează că majoritatea acestor lucrări au fost găsite în reviste neindexate și în „working papers” (lucrări de lucru), însă au existat și cazuri în reviste științifice cunoscute și în volume de conferințe. În evaluarea lor, riscurile sunt duble: pe de o parte, volumul de „studii” fabricate poate suprasolicita infrastructura de comunicare academică și poate afecta integritatea arhivei științifice; pe de altă parte, conținutul cu aparență credibilă poate fi optimizat pentru a fi găsit ușor prin motoare publice, în special Google Scholar. În context, Gizmodo amintește și episoade recente în care editori științifici au retras articole considerate lipsite de sens sau cu elemente generate de AI, sugerând că presiunea asupra mecanismelor de verificare crește. Concluzia implicită a materialului este că, pe lângă revistele evaluate inter pares, și platformele care găzduiesc sau indexează lucrări academice ar putea avea nevoie de reguli mai stricte, astfel încât utilizarea AI să nu submineze încrederea în cercetarea științifică. [...]

Ambasadorul SUA la UE critică sancțiunile împotriva Big Tech și avertizează asupra riscurilor pentru economia AI , potrivit CNBC , unde Andrew Puzder a susținut că reglementarea excesivă ar putea îndepărta Europa de dezvoltarea tehnologiilor bazate pe inteligență artificială. Declarațiile vin într-un moment tensionat, după o serie de amenzi consistente aplicate companiilor americane. Oficialul american afirmă că Uniunea Europeană riscă să își limiteze propriul acces la infrastructura esențială pentru AI: centre de date acces la date hardware specializat dezvoltat în SUA În opinia sa, sancțiunile repetate și schimbările de reglementare descurajează investițiile. „Dacă reglementezi aceste companii până le scoți de pe continent, nu vei face parte din economia AI”, a spus Puzder . Mesajul este unul direct: fără colaborare cu marile companii tehnologice, Europa ar putea rămâne în urma altor regiuni în cursa pentru inteligență artificială. Contextul conflictului dintre UE și companiile tech În ultimul an, Comisia Europeană a intensificat controalele asupra giganților tehnologici: Apple a primit o amendă de 500 milioane euro Meta a fost sancționată cu 200 milioane euro Google a fost amendată cu aproape 3 miliarde euro platforma X a lui Elon Musk a primit o sancțiune de 120 milioane euro Mai recent, autoritățile europene au deschis o investigație și împotriva Snapchat, în baza legislației privind serviciile digitale, pe tema siguranței minorilor. De partea cealaltă, oficialii europeni își apără poziția. Teresa Ribera , responsabilă de concurență, a subliniat anterior că toate companiile care operează în UE trebuie să respecte legislația și valorile europene, indiferent de origine. Ce este în joc Disputa nu ține doar de amenzi, ci de direcția strategică a industriei tehnologice: Europa vrea reguli stricte privind concurența și protecția utilizatorilor SUA susține un cadru mai permisiv pentru inovație și investiții Declarațiile lui Puzder reflectă o tensiune tot mai vizibilă între două modele economice. Europa încearcă să controleze influența Big Tech, în timp ce SUA avertizează că prea multe restricții pot afecta competitivitatea globală. În centrul disputei se află inteligența artificială, unde accesul la infrastructură și date devine decisiv. În perioada următoare, relația dintre UE și marile companii tehnologice ar putea influența nu doar piața digitală, ci și poziția Europei într-un domeniu considerat strategic la nivel global. [...]

Anthropic declară că a depășit 30 mld. dolari venit anualizat , și confirmă că își va extinde capacitatea de calcul pentru inteligență artificială printr-o colaborare cu Broadcom și Google, pe fondul creșterii cererii pentru serviciul Claude. Compania afirmă că „revenue run rate” (venit anualizat, un indicator estimat pe baza vânzărilor curente) a trecut de 30 de miliarde de dolari, față de 9 miliarde de dolari la finalul lui 2025. Anthropic susține că, în 2026, cererea pentru Claude a continuat să crească, iar peste 1.000 de clienți corporate ar cheltui, în medie, mai mult de 1 milion de dolari pe an; nivelul ar fi crescut de peste două ori din februarie. Într-o declarație citată de publicație, directorul financiar Krishna Rao a spus că parteneriatul anunțat luna trecută cu Broadcom și Google va ajuta compania să „construiască capacitatea de calcul necesară” pentru a răspunde extinderii bazei de clienți. Noile date sugerează că disputa publică a companiei cu guvernul SUA nu i-a blocat creșterea: după un conflict legat de reguli de siguranță în inteligența artificială, Departamentul Apărării a inclus Anthropic pe o listă de risc pentru lanțul de aprovizionare, iar compania a deschis un proces. Avocații Anthropic au spus recent, într-o audiere la San Francisco, că peste 100 de clienți au contactat compania cu îngrijorări privind continuarea colaborării, în timp ce directorul comercial Paul Smith a declarat într-un interviu de săptămâna trecută că unii clienți apreciază faptul că firma „își apără principiile” în relația cu guvernul. Din documente depuse luni de Broadcom reiese că firma dezvoltă cipuri pe baza Tensor Processing Unit (TPU) de la Google, ca alternativă la tehnologia Nvidia. Broadcom și Google (Alphabet) au un acord pe termen lung pentru furnizarea acestor cipuri și o înțelegere de garantare a livrărilor până în 2031, iar cele trei companii intenționează să aprofundeze cooperarea: din 2027, Anthropic ar urma să primească sprijin de calcul de circa 3,5 gigawați putere totală. Broadcom a precizat că accesul Anthropic la această capacitate extinsă depinde de evoluția comercială a companiei și că părțile discută implementarea cu parteneri operaționali și financiari. Elementele-cheie ale anunțului, așa cum sunt prezentate în material, sunt: Venit anualizat Anthropic de peste 30 mld. dolari, față de 9 mld. dolari la finalul lui 2025 Peste 1.000 de clienți enterprise care ar cheltui peste 1 mil. dolari/an pentru Claude, cu o creștere de peste două ori din februarie Colaborare Anthropic–Broadcom–Google pentru extinderea capacității de calcul, cu țintă de aproximativ 3,5 GW din 2027 Broadcom dezvoltă cipuri pe baza TPU Google și are acorduri de furnizare până în 2031 După publicarea documentelor, acțiunile Broadcom au urcat cu până la 3,6% în tranzacțiile după închidere În același context, publicația consemnează că directorul general al Broadcom, Hock Tan, a discutat anterior despre parteneriat și a spus, într-un apel cu investitorii, că se așteaptă ca vânzările de cipuri pentru inteligență artificială ale companiei să depășească 100 de miliarde de dolari anul viitor, pe fondul competiției cu Nvidia. TPU-urile Google, proiectate inițial pentru accelerarea calculelor din motorul de căutare, sunt folosite acum și la dezvoltarea și rularea software-ului de inteligență artificială, iar Broadcom realizează proiectarea completă a cipurilor pe baza specificațiilor Google, urmând ca producția să fie externalizată către fabrici specializate. [...]

Google a lansat discret pe iOS o aplicație de dictare „offline-first”. Potrivit TechCrunch , noul produs se numește „Google AI Edge Eloquent” și vizează zona aplicațiilor de transcriere cu inteligență artificială, unde concurează cu servicii precum Wispr Flow, SuperWhisper sau Willow. Aplicația este gratuită, iar după descărcarea modelelor de recunoaștere automată a vorbirii (ASR) bazate pe Gemma, utilizatorii pot dicta direct pe telefon. În timpul dictării, aplicația afișează transcrierea în timp real, iar la pauză elimină automat cuvinte de umplutură (de tipul „um” și „ah”) și „lustruiește” textul rezultat. Sub transcriere, utilizatorii au opțiuni de transformare a textului precum „Key points”, „Formal”, „Short” și „Long”, pentru a obține rezumate sau variante cu ton și lungime diferite. De asemenea, poate fi dezactivat modul „cloud” pentru procesare exclusiv locală; când modul cloud este activ, aplicația folosește modele Gemini din cloud pentru curățarea textului. Conform descrierii din App Store, „ Google AI Edge Eloquent ” poate importa, la cerere, anumite cuvinte-cheie, nume și termeni de specialitate din contul Gmail și permite adăugarea de cuvinte personalizate. Aplicația păstrează și istoricul sesiunilor de transcriere, oferă căutare în transcrieri și afișează indicatori precum cuvinte dictate în ultima sesiune, viteza în cuvinte pe minut și numărul total de cuvinte rostite. Deși este disponibilă în acest moment doar pe iOS, descrierea din App Store face trimitere la o versiune Android, inclusiv la posibilitatea setării ca tastatură implicită la nivel de sistem și la un buton plutitor pentru acces rapid la transcriere. TechCrunch notează că a cerut informații suplimentare de la Google și că va actualiza articolul dacă primește un răspuns. În contextul popularizării aplicațiilor de transcriere pe măsură ce modelele „vorbire-text” se îmbunătățesc, lansarea sugerează că Google testează un produs care ar putea influența ulterior funcțiile de dictare din ecosistemul Android. [...]

OpenAI propune taxe pe munca automatizată și fond public de avere pentru era AI potrivit Gizmodo , compania a publicat un set de recomandări de politici menite să pregătească societatea pentru impactul „superinteligenței”, adică sisteme AI capabile să depășească performanța umană, un moment comparat ca amploare cu Revoluția Industrială. Documentul, intitulat „Industrial Policy for the Intelligence Age”, nu oferă soluții definitive, ci încearcă să deschidă o dezbatere despre cum ar trebui adaptate economia și instituțiile în fața schimbărilor accelerate. În centrul propunerilor se află ideea unui nou „contract social”, bazat pe redistribuirea beneficiilor generate de inteligența artificială. OpenAI sugerează mai multe direcții: Crearea unui fond public de avere , care să investească în economia AI și să distribuie câștigurile către cetățeni Taxarea muncii automatizate și mutarea poverii fiscale de pe salarii către profituri și capital Reducerea săptămânii de lucru la 32 de ore , fără scăderea salariului, acolo unde productivitatea crește datorită AI Extinderea protecției sociale , activată automat în perioade de creștere a șomajului Investiții în infrastructură , inclusiv rețele electrice capabile să susțină consumul tehnologiilor AI Compania recunoaște și riscurile: pierderi de locuri de muncă, concentrare de putere economică, utilizări abuzive sau chiar pierderea controlului asupra sistemelor avansate. Cu toate acestea, susține că beneficiile vor depăși costurile, dacă tranziția este gestionată corect și democratic. Contextul politic rămâne însă fragmentat în SUA. Administrația Donald Trump a limitat unele reglementări locale, în timp ce politicieni precum Bernie Sanders și Alexandria Ocasio-Cortez cer măsuri mai dure, inclusiv oprirea extinderii centrelor de date AI până la adoptarea unor reguli clare. OpenAI anunță că va colecta feedback public și va finanța proiecte și cercetări în domeniu, dar rămâne neclar cât de realist este ca aceste idei să devină politici concrete, mai ales în contextul intereselor economice și al unei eventuale listări la bursă. [...]

Companii chineze folosesc AI și date publice pentru a urmări mișcările armatei SUA în Iran , potrivit The Washington Post . În contextul războiului din Iran, declanșat cu cinci săptămâni în urmă, pe rețele sociale occidentale și chineze circulă postări virale cu detalii despre echipamente din baze americane, mișcări ale grupurilor de portavioane și pregătiri aeriene pentru atacuri asupra Teheranului. Fenomenul este pus pe seama unei piețe emergente de „informații militare” generate cu ajutorul inteligenței artificiale, alimentată de firme chineze care analizează date disponibile public (open-source). Unele dintre aceste companii ar avea legături cu Armata de Eliberare a Poporului, iar activitatea lor se înscrie, potrivit materialului, într-o strategie mai amplă de integrare a sectorului civil cu cel militar în China. Un exemplu menționat este MizarVision, companie cu sediul în Hangzhou, fondată în 2021, care combină date din surse occidentale și chineze cu algoritmi de inteligență artificială pentru a urmări activități ale bazelor americane din Orientul Mijlociu, mișcări navale și amplasarea sistemelor de apărare antirachetă. Înainte de lansarea Operațiunii „Epic Fury”, platforma ar fi publicat imagini și analize privind acumularea de forțe americane în regiune, inclusiv mișcările grupurilor de portavioane USS Gerald R. Ford și USS Abraham Lincoln, precum și informații despre aeronave concentrate la baze din Israel, Arabia Saudită și Qatar. Datele folosite ar proveni din surse open-source, inclusiv imagini satelitare comerciale furnizate de companii din SUA și Europa, precum Vantor și Airbus, însă firmele occidentale citate neagă implicarea directă. Un purtător de cuvânt al Vantor a spus pentru The Washington Post că firma nu vinde imagini către entități chineze și aplică măsuri stricte de control în timpul conflictelor, iar Planet Labs a confirmat că MizarVision nu este clientul său și că imaginile utilizate nu provin de la sateliții companiei. Îngrijorarea, din perspectiva SUA, ține atât de creșterea capacității acestor actori de a urmări mișcări militare, cât și de cadrul legal din China, care poate facilita transferul de tehnologie între privat și militar. Comisia pentru China din Camera Reprezentanților a avertizat că firme legate de Partidul Comunist Chinez „transformă inteligența artificială într-un instrument de supraveghere” pe câmpul de luptă, în timp ce secretarul american al Apărării, Pete Hegseth, a declarat că SUA sunt conștiente de astfel de practici și își adaptează acțiunile. În paralel, China și Pakistanul au cerut în această săptămână un armistițiu și negocieri de pace „cât mai curând posibil”, deși Beijingul își menține oficial poziția de neutralitate față de conflict. [...]