Inteligență artificială08 apr. 2026
Uniunea Europeană aplică integral AI Act din august 2026 - firmele din România trebuie să se conformeze noilor reguli și riscă amenzi
Din 2 august 2026, AI Act devine aplicabil ca regulă generală în UE , iar companiile care folosesc inteligență artificială în procese curente trebuie să se pregătească pentru obligații de transparență, control uman și documentare, potrivit Digi24 . Avocatul specializat în tehnologie Marius Stanciu avertizează că inclusiv utilizări uzuale, precum filtrarea CV-urilor cu ChatGPT, evaluarea performanței angajaților prin algoritmi sau folosirea de chatboți pentru clienți, intră în aria de aplicare a regulamentului. Ce este AI Act și pe cine vizează AI Act este Regulamentul (UE) 2024/1689, adoptat pentru a stabili reguli armonizate privind inteligența artificială în Uniunea Europeană. A intrat în vigoare la 1 august 2024 și se aplică direct în toate statele membre, fără a necesita o lege de transpunere, inclusiv companiilor din afara UE dacă sistemele lor afectează persoane aflate pe teritoriul Uniunii. Regulamentul folosește o abordare bazată pe risc: cu cât un sistem poate afecta mai mult viața, siguranța sau drepturile oamenilor, cu atât cerințele sunt mai stricte. AI Act împarte sistemele în niveluri de risc, de la „inacceptabil” (interzis) la „ridicat” (obligații stricte) și „limitat” sau „minim” (cerințe mai reduse), iar obligațiile nu se opresc la dezvoltatori, ci se extind și la firmele care folosesc AI în recrutare, evaluarea angajaților, relația cu clienții sau creditare. Ce se schimbă din 2 august 2026 pentru firme Potrivit calendarului de implementare, 2 august 2026 este momentul aplicării generale a regulamentului, când devin relevante obligațiile complete pentru multe sisteme cu risc ridicat, inclusiv cele utilizate în zona ocupării forței de muncă și a accesului la servicii. Pentru companii, asta înseamnă că folosirea AI în procese sensibile nu mai poate fi tratată doar ca un instrument de eficientizare, fără consecințe juridice. Pentru sistemele cu risc ridicat, AI Act impune cerințe precum documentarea, păstrarea evidențelor, evaluarea impactului și supravegherea umană. Transparența devine o cerință centrală, iar în anumite situații oamenii trebuie informați că interacționează cu un sistem AI sau că o decizie este influențată de un algoritm. „Sistemele nu pot fi lăsate să ia decizii de capul lor, iar angajații trebuie să știe cum și când să intervină”, a explicat Marius Stanciu. Ce era deja aplicabil și cum a fost etapizată implementarea O parte dintre prevederi sunt deja aplicabile din 2 februarie 2025, când au intrat în vigoare interdicțiile pentru anumite practici și obligațiile de „AI literacy” (alfabetizare în domeniul inteligenței artificiale, adică pregătirea minimă a personalului pentru a înțelege și utiliza responsabil astfel de sisteme). Sunt vizate utilizările considerate inacceptabile, precum cele care manipulează comportamentul uman, exploatează vulnerabilități sau creează forme de „scoring social” incompatibile cu standardele europene. Aplicarea este etapizată și pentru modelele de inteligență artificială de uz general (GPAI), precum ChatGPT, Claude sau Gemini, pentru care regulile se aplică din 2 august 2025. Digi24 subliniază că acestea nu trebuie confundate cu sistemele AI cu risc ridicat, pentru care obligațiile complete devin relevante odată cu aplicarea generală din 2026. Amenzi și risc de conformare AI Act introduce sancțiuni care pot ajunge, pentru practicile interzise, până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală. Pentru alte încălcări, plafonul este de până la 15 milioane de euro sau 3%, iar furnizarea de informații incorecte sau înșelătoare poate fi sancționată separat, cu până la 7,5 milioane de euro sau 1%. Marius Stanciu compară nivelul sancțiunilor cu cele din GDPR și susține că, după o perioadă în care multe companii au tratat regulile ca pe un risc teoretic, aplicarea efectivă a amenzilor poate schimba rapid comportamentele de conformare. România: desemnarea autorităților și problema întârzierii În România, Guvernul a adoptat la 12 martie 2026 un memorandum privind desemnarea autorităților naționale competente, potrivit informațiilor din articolul Digi24, însă textul furnizat se oprește înainte de a detalia măsurile și instituțiile vizate. În practică, pentru firmele care folosesc deja AI în recrutare, evaluare, relația cu clienții sau accesul la servicii, miza este să trateze perioada rămasă până la 2 august 2026 ca pe un interval de pregătire: inventarierea sistemelor utilizate, stabilirea responsabilităților interne și introducerea unui control uman funcțional, acolo unde deciziile pot afecta direct persoane. [...]