Știri
Știri din categoria Inteligență artificială

Comisia Europeană evaluează dacă ChatGPT intră sub regimul DSA pentru „platforme online foarte mari”, ceea ce ar putea aduce obligații suplimentare de conformitate pentru OpenAI în UE, pe fondul unei baze de utilizatori care depășește pragul legal, potrivit ithome.com.
Evaluarea vizează aplicarea standardelor din Legea serviciilor digitale (DSA) pentru „platforme online foarte mari” (VLOP), categorie care se activează atunci când un serviciu depășește 45 de milioane de utilizatori activi lunar în Uniunea Europeană. Un purtător de cuvânt al Comisiei, Thomas Regnier, a declarat că numărul utilizatorilor ChatGPT a trecut acest prag, iar instituția verifică și evaluează datele raportate.
În același timp, oficialul a indicat că, pe viitor, modelele mari de inteligență artificială ar putea fi incluse în cadrul DSA, însă aplicarea ar urma să fie decisă „de la caz la caz”, fără a rezulta automat că toate astfel de servicii vor intra sub același regim.
OpenAI a transmis că datele publicate se referă la utilizatorii activi lunar ai funcției de căutare din ChatGPT în UE, calculați ca medie pe ultimele șase luni, în linie cu obligațiile actuale de raportare. Pentru perioada de șase luni încheiată în septembrie 2025, ChatGPT ar fi avut în UE aproximativ 120,4 milioane de utilizatori activi lunar, conform informațiilor prezentate în material.
Dacă ChatGPT este încadrat oficial ca „platformă online foarte mare” în sensul DSA, OpenAI ar putea intra într-un regim de supraveghere și conformitate mai strict în UE, cu efecte directe asupra modului în care serviciul este operat și raportat în spațiul comunitar. În acest moment, Comisia se află în etapa de verificare a datelor, iar concluzia evaluării nu este încă anunțată.
Pe termen scurt, decizia depinde de validarea de către Comisie a indicatorilor de utilizare comunicați. Separat, discuția despre includerea modelelor mari de inteligență artificială în sfera DSA rămâne deschisă, dar, din informațiile disponibile, nu există încă o regulă generală, ci doar posibilitatea unei evaluări punctuale.
Recomandate

OpenAI introduce un nou prag de preț la ChatGPT, cu un abonament Pro de 100 dolari/lună (aprox. 460 lei), mizând pe utilizarea intensivă a instrumentului de programare Codex și pe o poziționare directă împotriva ofertei similare a rivalului Anthropic, potrivit Vietnam.vn . Noul plan vine să umple un gol între Plus (20 dolari/lună) și pachetul Pro de top, de 200 dolari/lună, pe care compania spune că îl menține disponibil, chiar dacă nu mai apare pe pagina principală. Unghiul economic este relevant pentru piața de abonamente AI: OpenAI își segmentează mai fin clienții care folosesc ChatGPT în muncă, în special dezvoltatorii, și încearcă să capteze bugete recurente la un nivel unde concurența are deja un reper de preț. Compania afirmă că planul de 100 dolari este construit în jurul Codex (instrument de programare integrat în ChatGPT), oferind de cinci ori mai multă utilizare decât planul Plus. Ce primește utilizatorul și de ce contează pentru costuri Noul Pro de 100 dolari/lună este prezentat ca o opțiune pentru „sesiuni de lucru intense”, unde limitările de utilizare (așa-numitele limite de viteză) devin problema principală. Un reprezentant OpenAI susține că, raportat la Claude Code (oferta Anthropic), Codex ar oferi „mai multe capacități de programare per dolar” în abonamentele plătite. „Noul abonament Pro de 100 USD este conceput pentru a oferi dezvoltatorilor capacități de programare mai practice pentru banii cheltuiți, în special în sesiunile de lucru intense, unde limitările sunt cea mai importantă problemă.” Limite, „nelimitat” și perioada promoțională OpenAI aplică o limită Codex mai mare pentru planul de 100 dolari până la 31 mai, dar avertismentul implicit este că utilizarea „nelimitată” fără notificări privind limitarea ar putea să nu fie permanentă. Publicația notează că, în practică, niciun plan OpenAI nu oferă utilizare complet nelimitată. Pentru utilizatorii cu cerințe foarte mari, pachetul de 200 dolari/lună (aprox. 920 lei) rămâne opțiunea de vârf, cu limite de 20 de ori mai mari decât Plus, conform informațiilor din articol. Context: creșterea Codex și presiunea concurențială Lansarea are loc pe fondul creșterii accelerate a Codex: OpenAI spune că peste 3 milioane de persoane folosesc instrumentul săptămânal la nivel global, de cinci ori mai mult decât în urmă cu trei luni, iar utilizarea ar crește cu peste 70% lunar. În acest context, diferențele de limite de viteză între planuri sunt prezentate ca factorul decisiv în alegerea abonamentului, mai ales pentru cei care folosesc ChatGPT ca unealtă de lucru, nu ocazional. Ce urmează: pentru utilizatorii care vor să testeze noul prag de 100 dolari, fereastra până la 31 mai este importantă, deoarece condițiile de utilizare (în special limitele) pot fi ajustate ulterior. [...]

Meta AI actualizat mizează pe „tendințe” și recomandări ferme, ceea ce îl face util operațional în sarcini locale și creative, dar mai puțin neutru decât ChatGPT. Într-un test comparativ publicat de techradar.com , diferența majoră dintre cele două chatboți apare când utilizatorul cere mai mult decât fapte: Meta AI, bazat pe noul model Muse Spark, „trage” spre stratul social (opinii, trenduri, context local), în timp ce ChatGPT rămâne mai rezervat și mai echilibrat. Ce se schimbă, practic, pentru utilizatori Testele descrise indică o orientare mai „decisivă” a Meta AI: oferă sugestii concrete, ancorate în ideea de ce „se poartă” sau ce e „în discuție”, și își asumă mai ușor o recomandare finală. ChatGPT, în aceeași comparație, tinde să livreze răspunsuri mai generale, cu argumente pro și contra, evitând să împingă utilizatorul într-o direcție. Din perspectivă operațională, asta contează în special pentru sarcini unde utilizatorul vrea: idei locale și actuale (ce e „în trend” într-o zonă); inspirație creativă (stiluri, personaje, povești); un „imbold” către o decizie (nu doar opțiuni). Exemplele din test: local, stil, decizie Într-o întrebare despre activități „în trend” în zona utilizatorului, Meta AI a răspuns cu recomandări foarte specifice (inclusiv evenimente cu zi și oră), în timp ce ChatGPT a rămas la categorii generale și a indicat o pagină de turism local, fără să pretindă că știe ce discută oamenii „acum”. La o cerere de generare de imagine pornind de la o fotografie („cum ar arăta un look de vară pe mine”), diferența a fost mai ales de justificare: Meta AI a legat propunerea de trenduri discutate pe social media (de tip „Tenniscore” și „old money summer”), pe când ChatGPT a produs o imagine și o descriere, dar cu mai puțină explicație despre de ce acel stil ar fi „al verii”. Într-un scenariu de alegere între lucrat de acasă sau mers la cafenea, ChatGPT a livrat o listă clasică de avantaje/dezavantaje și a recomandat testare pe cont propriu. Meta AI, în schimb, a combinat argumente despre productivitate cu verificarea vremii și a dat o concluzie tranșantă: „azi câștigă cafeneaua”, plus sugestii de locuri din apropiere. Unde diferențele se estompează: sarcini tehnice La o cerere de a construi o mică aplicație web pentru urmărirea somnului și a consumului de cofeină, rezultatele au fost descrise ca fiind similare: ambele au generat o soluție comparabilă ca structură și utilitate, fără un avantaj net pentru Meta AI, în pofida poziționării sale. Ce urmează și cum ar trebui interpretat Concluzia testului este că alegerea devine una de „stil de asistență”: Meta AI pare mai potrivit când ai nevoie de sensibilitate la trenduri, localizare și o recomandare mai fermă, iar ChatGPT când vrei raționament mai neutru, fără „împingeri”. Publicația sugerează chiar o utilizare combinată, în funcție de tipul de sarcină. Limitare importantă: comparația este un test practic, realizat de un singur autor, pe un set de prompturi; articolul nu oferă o evaluare standardizată sau măsurători cantitative ale performanței. [...]

OpenAI își întărește măsurile de securitate după atacul cu un dispozitiv incendiar asupra locuinței lui Sam Altman , iar compania le-a transmis angajaților că birourile din San Francisco rămân deschise, cu prezență sporită a forțelor de ordine în zonă. Incidentul a avut loc la locuința din San Francisco a CEO-ului OpenAI, Sam Altman . Conform unui memorandum intern citat în material, un suspect ar fi aruncat un dispozitiv incendiar în jurul orei 3:45 (ora locală), acesta căzând lângă poarta exterioară și stingându-se de la sine. Au fost raportate doar pagube minore, fără răniți. La scurt timp după atac, o persoană care corespundea descrierii suspectului a apărut în apropierea sediului OpenAI de pe Third Street 1455 și ar fi amenințat că va distruge clădirea companiei. Poliția din San Francisco l-a reținut rapid, iar compania a informat personalul că a suplimentat paza și prezența de securitate în jurul clădirii, menținând totuși programul normal de lucru pentru ziua de vineri. Ce spun autoritățile și ce se știe despre suspect Poliția a transmis că a ajuns la fața locului la 4:12, după un apel privind un incendiu, și a confirmat că un bărbat a aruncat dispozitivul incendiar și a provocat un incendiu. Aproximativ o oră mai târziu, suspectul a fost găsit în zona Third Street (segmentul 1400), în fața unui spațiu comercial, fiind recunoscut ca persoana implicată în incidentul anterior. Autoritățile spun că este vorba despre un bărbat de 20 de ani; identitatea nu a fost făcută publică, iar acuzațiile sunt în curs de analiză în instanță. Reacția lui Altman: îngrijorările despre AI nu justifică violența Altman a publicat vineri pe blogul personal o fotografie de familie, afirmând că speră ca gestul să descurajeze atacuri similare. El a recunoscut că există îngrijorări legate de inteligența artificială, dar a insistat că dezbaterea nu trebuie să degenereze în violență și a cerut reducerea confruntării în discurs și acțiuni, inclusiv a „explozilor” reale sau simbolice. Pentru OpenAI , episodul mută discuția despre riscurile AI și tensiunile publice într-o zonă operațională imediată: continuitatea activității și protecția angajaților, în condițiile unei securități întărite la sediul din San Francisco. [...]

Incidentul de securitate de la locuința lui Sam Altman ridică miza protecției pentru companiile de inteligență artificială , după ce poliția din San Francisco a reținut un suspect acuzat că a aruncat un cocktail Molotov la casa CEO-ului OpenAI și a făcut amenințări în fața sediului companiei, potrivit reuters.com . OpenAI a transmis că nimeni nu a fost rănit și că firma colaborează cu autoritățile în anchetă. Compania a mulțumit poliției din San Francisco pentru intervenția rapidă și sprijinul acordat în menținerea siguranței angajaților. Poliția din San Francisco a precizat, într-o postare pe X, că un bărbat necunoscut a aruncat un dispozitiv incendiar la o locuință din cartierul North Beach, după care ar fi formulat amenințări că va incendia o clădire. Suspectul a fost „imediat” reținut, iar în urma investigației ofițerii au stabilit „cauză probabilă” pentru arestarea unui tânăr de 20 de ani. Autoritățile nu au oferit detalii suplimentare despre atac sau amenințări și nu l-au numit pe Altman și nici OpenAI în postarea citată de Reuters. De ce contează pentru industria AI Cazul adaugă presiune pe zona de securitate operațională a companiilor de inteligență artificială, într-un moment în care OpenAI se confruntă cu reacții critice legate de intenția de a încheia un acord cu guvernul SUA pentru utilizarea tehnologiei sale în operațiuni militare clasificate, pe fondul unor tensiuni publice în industrie. Reuters mai notează și un indicator de percepție publică: un sondaj NBC News a constatat că inteligența artificială este mai puțin populară decât agenția americană de imigrație ICE. [...]

Din 2 august 2026, AI Act devine aplicabil ca regulă generală în UE , iar companiile care folosesc inteligență artificială în procese curente trebuie să se pregătească pentru obligații de transparență, control uman și documentare, potrivit Digi24 . Avocatul specializat în tehnologie Marius Stanciu avertizează că inclusiv utilizări uzuale, precum filtrarea CV-urilor cu ChatGPT, evaluarea performanței angajaților prin algoritmi sau folosirea de chatboți pentru clienți, intră în aria de aplicare a regulamentului. Ce este AI Act și pe cine vizează AI Act este Regulamentul (UE) 2024/1689, adoptat pentru a stabili reguli armonizate privind inteligența artificială în Uniunea Europeană. A intrat în vigoare la 1 august 2024 și se aplică direct în toate statele membre, fără a necesita o lege de transpunere, inclusiv companiilor din afara UE dacă sistemele lor afectează persoane aflate pe teritoriul Uniunii. Regulamentul folosește o abordare bazată pe risc: cu cât un sistem poate afecta mai mult viața, siguranța sau drepturile oamenilor, cu atât cerințele sunt mai stricte. AI Act împarte sistemele în niveluri de risc, de la „inacceptabil” (interzis) la „ridicat” (obligații stricte) și „limitat” sau „minim” (cerințe mai reduse), iar obligațiile nu se opresc la dezvoltatori, ci se extind și la firmele care folosesc AI în recrutare, evaluarea angajaților, relația cu clienții sau creditare. Ce se schimbă din 2 august 2026 pentru firme Potrivit calendarului de implementare, 2 august 2026 este momentul aplicării generale a regulamentului, când devin relevante obligațiile complete pentru multe sisteme cu risc ridicat, inclusiv cele utilizate în zona ocupării forței de muncă și a accesului la servicii. Pentru companii, asta înseamnă că folosirea AI în procese sensibile nu mai poate fi tratată doar ca un instrument de eficientizare, fără consecințe juridice. Pentru sistemele cu risc ridicat, AI Act impune cerințe precum documentarea, păstrarea evidențelor, evaluarea impactului și supravegherea umană. Transparența devine o cerință centrală, iar în anumite situații oamenii trebuie informați că interacționează cu un sistem AI sau că o decizie este influențată de un algoritm. „Sistemele nu pot fi lăsate să ia decizii de capul lor, iar angajații trebuie să știe cum și când să intervină”, a explicat Marius Stanciu. Ce era deja aplicabil și cum a fost etapizată implementarea O parte dintre prevederi sunt deja aplicabile din 2 februarie 2025, când au intrat în vigoare interdicțiile pentru anumite practici și obligațiile de „AI literacy” (alfabetizare în domeniul inteligenței artificiale, adică pregătirea minimă a personalului pentru a înțelege și utiliza responsabil astfel de sisteme). Sunt vizate utilizările considerate inacceptabile, precum cele care manipulează comportamentul uman, exploatează vulnerabilități sau creează forme de „scoring social” incompatibile cu standardele europene. Aplicarea este etapizată și pentru modelele de inteligență artificială de uz general (GPAI), precum ChatGPT, Claude sau Gemini, pentru care regulile se aplică din 2 august 2025. Digi24 subliniază că acestea nu trebuie confundate cu sistemele AI cu risc ridicat, pentru care obligațiile complete devin relevante odată cu aplicarea generală din 2026. Amenzi și risc de conformare AI Act introduce sancțiuni care pot ajunge, pentru practicile interzise, până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală. Pentru alte încălcări, plafonul este de până la 15 milioane de euro sau 3%, iar furnizarea de informații incorecte sau înșelătoare poate fi sancționată separat, cu până la 7,5 milioane de euro sau 1%. Marius Stanciu compară nivelul sancțiunilor cu cele din GDPR și susține că, după o perioadă în care multe companii au tratat regulile ca pe un risc teoretic, aplicarea efectivă a amenzilor poate schimba rapid comportamentele de conformare. România: desemnarea autorităților și problema întârzierii În România, Guvernul a adoptat la 12 martie 2026 un memorandum privind desemnarea autorităților naționale competente, potrivit informațiilor din articolul Digi24, însă textul furnizat se oprește înainte de a detalia măsurile și instituțiile vizate. În practică, pentru firmele care folosesc deja AI în recrutare, evaluare, relația cu clienții sau accesul la servicii, miza este să trateze perioada rămasă până la 2 august 2026 ca pe un interval de pregătire: inventarierea sistemelor utilizate, stabilirea responsabilităților interne și introducerea unui control uman funcțional, acolo unde deciziile pot afecta direct persoane. [...]

OpenAI propune taxe pe munca automatizată și fond public de avere pentru era AI potrivit Gizmodo , compania a publicat un set de recomandări de politici menite să pregătească societatea pentru impactul „superinteligenței”, adică sisteme AI capabile să depășească performanța umană, un moment comparat ca amploare cu Revoluția Industrială. Documentul, intitulat „Industrial Policy for the Intelligence Age”, nu oferă soluții definitive, ci încearcă să deschidă o dezbatere despre cum ar trebui adaptate economia și instituțiile în fața schimbărilor accelerate. În centrul propunerilor se află ideea unui nou „contract social”, bazat pe redistribuirea beneficiilor generate de inteligența artificială. OpenAI sugerează mai multe direcții: Crearea unui fond public de avere , care să investească în economia AI și să distribuie câștigurile către cetățeni Taxarea muncii automatizate și mutarea poverii fiscale de pe salarii către profituri și capital Reducerea săptămânii de lucru la 32 de ore , fără scăderea salariului, acolo unde productivitatea crește datorită AI Extinderea protecției sociale , activată automat în perioade de creștere a șomajului Investiții în infrastructură , inclusiv rețele electrice capabile să susțină consumul tehnologiilor AI Compania recunoaște și riscurile: pierderi de locuri de muncă, concentrare de putere economică, utilizări abuzive sau chiar pierderea controlului asupra sistemelor avansate. Cu toate acestea, susține că beneficiile vor depăși costurile, dacă tranziția este gestionată corect și democratic. Contextul politic rămâne însă fragmentat în SUA. Administrația Donald Trump a limitat unele reglementări locale, în timp ce politicieni precum Bernie Sanders și Alexandria Ocasio-Cortez cer măsuri mai dure, inclusiv oprirea extinderii centrelor de date AI până la adoptarea unor reguli clare. OpenAI anunță că va colecta feedback public și va finanța proiecte și cercetări în domeniu, dar rămâne neclar cât de realist este ca aceste idei să devină politici concrete, mai ales în contextul intereselor economice și al unei eventuale listări la bursă. [...]