Știri
Știri din categoria Inteligență artificială

Meta AI actualizat mizează pe „tendințe” și recomandări ferme, ceea ce îl face util operațional în sarcini locale și creative, dar mai puțin neutru decât ChatGPT. Într-un test comparativ publicat de techradar.com, diferența majoră dintre cele două chatboți apare când utilizatorul cere mai mult decât fapte: Meta AI, bazat pe noul model Muse Spark, „trage” spre stratul social (opinii, trenduri, context local), în timp ce ChatGPT rămâne mai rezervat și mai echilibrat.
Testele descrise indică o orientare mai „decisivă” a Meta AI: oferă sugestii concrete, ancorate în ideea de ce „se poartă” sau ce e „în discuție”, și își asumă mai ușor o recomandare finală. ChatGPT, în aceeași comparație, tinde să livreze răspunsuri mai generale, cu argumente pro și contra, evitând să împingă utilizatorul într-o direcție.
Din perspectivă operațională, asta contează în special pentru sarcini unde utilizatorul vrea:
Într-o întrebare despre activități „în trend” în zona utilizatorului, Meta AI a răspuns cu recomandări foarte specifice (inclusiv evenimente cu zi și oră), în timp ce ChatGPT a rămas la categorii generale și a indicat o pagină de turism local, fără să pretindă că știe ce discută oamenii „acum”.
La o cerere de generare de imagine pornind de la o fotografie („cum ar arăta un look de vară pe mine”), diferența a fost mai ales de justificare: Meta AI a legat propunerea de trenduri discutate pe social media (de tip „Tenniscore” și „old money summer”), pe când ChatGPT a produs o imagine și o descriere, dar cu mai puțină explicație despre de ce acel stil ar fi „al verii”.
Într-un scenariu de alegere între lucrat de acasă sau mers la cafenea, ChatGPT a livrat o listă clasică de avantaje/dezavantaje și a recomandat testare pe cont propriu. Meta AI, în schimb, a combinat argumente despre productivitate cu verificarea vremii și a dat o concluzie tranșantă: „azi câștigă cafeneaua”, plus sugestii de locuri din apropiere.
La o cerere de a construi o mică aplicație web pentru urmărirea somnului și a consumului de cofeină, rezultatele au fost descrise ca fiind similare: ambele au generat o soluție comparabilă ca structură și utilitate, fără un avantaj net pentru Meta AI, în pofida poziționării sale.
Concluzia testului este că alegerea devine una de „stil de asistență”: Meta AI pare mai potrivit când ai nevoie de sensibilitate la trenduri, localizare și o recomandare mai fermă, iar ChatGPT când vrei raționament mai neutru, fără „împingeri”. Publicația sugerează chiar o utilizare combinată, în funcție de tipul de sarcină.
Limitare importantă: comparația este un test practic, realizat de un singur autor, pe un set de prompturi; articolul nu oferă o evaluare standardizată sau măsurători cantitative ale performanței.
Recomandate

Comisia Europeană evaluează dacă ChatGPT intră sub regimul DSA pentru „platforme online foarte mari” , ceea ce ar putea aduce obligații suplimentare de conformitate pentru OpenAI în UE, pe fondul unei baze de utilizatori care depășește pragul legal, potrivit ithome.com . Evaluarea vizează aplicarea standardelor din Legea serviciilor digitale (DSA) pentru „platforme online foarte mari” (VLOP), categorie care se activează atunci când un serviciu depășește 45 de milioane de utilizatori activi lunar în Uniunea Europeană. Un purtător de cuvânt al Comisiei, Thomas Regnier, a declarat că numărul utilizatorilor ChatGPT a trecut acest prag, iar instituția verifică și evaluează datele raportate. În același timp, oficialul a indicat că, pe viitor, modelele mari de inteligență artificială ar putea fi incluse în cadrul DSA, însă aplicarea ar urma să fie decisă „de la caz la caz”, fără a rezulta automat că toate astfel de servicii vor intra sub același regim. OpenAI a transmis că datele publicate se referă la utilizatorii activi lunar ai funcției de căutare din ChatGPT în UE, calculați ca medie pe ultimele șase luni, în linie cu obligațiile actuale de raportare. Pentru perioada de șase luni încheiată în septembrie 2025, ChatGPT ar fi avut în UE aproximativ 120,4 milioane de utilizatori activi lunar, conform informațiilor prezentate în material. De ce contează pentru OpenAI și pentru piață Dacă ChatGPT este încadrat oficial ca „platformă online foarte mare” în sensul DSA, OpenAI ar putea intra într-un regim de supraveghere și conformitate mai strict în UE, cu efecte directe asupra modului în care serviciul este operat și raportat în spațiul comunitar. În acest moment, Comisia se află în etapa de verificare a datelor, iar concluzia evaluării nu este încă anunțată. Ce urmează Pe termen scurt, decizia depinde de validarea de către Comisie a indicatorilor de utilizare comunicați. Separat, discuția despre includerea modelelor mari de inteligență artificială în sfera DSA rămâne deschisă, dar, din informațiile disponibile, nu există încă o regulă generală, ci doar posibilitatea unei evaluări punctuale. [...]

OpenAI introduce un nou prag de preț la ChatGPT, cu un abonament Pro de 100 dolari/lună (aprox. 460 lei), mizând pe utilizarea intensivă a instrumentului de programare Codex și pe o poziționare directă împotriva ofertei similare a rivalului Anthropic, potrivit Vietnam.vn . Noul plan vine să umple un gol între Plus (20 dolari/lună) și pachetul Pro de top, de 200 dolari/lună, pe care compania spune că îl menține disponibil, chiar dacă nu mai apare pe pagina principală. Unghiul economic este relevant pentru piața de abonamente AI: OpenAI își segmentează mai fin clienții care folosesc ChatGPT în muncă, în special dezvoltatorii, și încearcă să capteze bugete recurente la un nivel unde concurența are deja un reper de preț. Compania afirmă că planul de 100 dolari este construit în jurul Codex (instrument de programare integrat în ChatGPT), oferind de cinci ori mai multă utilizare decât planul Plus. Ce primește utilizatorul și de ce contează pentru costuri Noul Pro de 100 dolari/lună este prezentat ca o opțiune pentru „sesiuni de lucru intense”, unde limitările de utilizare (așa-numitele limite de viteză) devin problema principală. Un reprezentant OpenAI susține că, raportat la Claude Code (oferta Anthropic), Codex ar oferi „mai multe capacități de programare per dolar” în abonamentele plătite. „Noul abonament Pro de 100 USD este conceput pentru a oferi dezvoltatorilor capacități de programare mai practice pentru banii cheltuiți, în special în sesiunile de lucru intense, unde limitările sunt cea mai importantă problemă.” Limite, „nelimitat” și perioada promoțională OpenAI aplică o limită Codex mai mare pentru planul de 100 dolari până la 31 mai, dar avertismentul implicit este că utilizarea „nelimitată” fără notificări privind limitarea ar putea să nu fie permanentă. Publicația notează că, în practică, niciun plan OpenAI nu oferă utilizare complet nelimitată. Pentru utilizatorii cu cerințe foarte mari, pachetul de 200 dolari/lună (aprox. 920 lei) rămâne opțiunea de vârf, cu limite de 20 de ori mai mari decât Plus, conform informațiilor din articol. Context: creșterea Codex și presiunea concurențială Lansarea are loc pe fondul creșterii accelerate a Codex: OpenAI spune că peste 3 milioane de persoane folosesc instrumentul săptămânal la nivel global, de cinci ori mai mult decât în urmă cu trei luni, iar utilizarea ar crește cu peste 70% lunar. În acest context, diferențele de limite de viteză între planuri sunt prezentate ca factorul decisiv în alegerea abonamentului, mai ales pentru cei care folosesc ChatGPT ca unealtă de lucru, nu ocazional. Ce urmează: pentru utilizatorii care vor să testeze noul prag de 100 dolari, fereastra până la 31 mai este importantă, deoarece condițiile de utilizare (în special limitele) pot fi ajustate ulterior. [...]

Din 2 august 2026, AI Act devine aplicabil ca regulă generală în UE , iar companiile care folosesc inteligență artificială în procese curente trebuie să se pregătească pentru obligații de transparență, control uman și documentare, potrivit Digi24 . Avocatul specializat în tehnologie Marius Stanciu avertizează că inclusiv utilizări uzuale, precum filtrarea CV-urilor cu ChatGPT, evaluarea performanței angajaților prin algoritmi sau folosirea de chatboți pentru clienți, intră în aria de aplicare a regulamentului. Ce este AI Act și pe cine vizează AI Act este Regulamentul (UE) 2024/1689, adoptat pentru a stabili reguli armonizate privind inteligența artificială în Uniunea Europeană. A intrat în vigoare la 1 august 2024 și se aplică direct în toate statele membre, fără a necesita o lege de transpunere, inclusiv companiilor din afara UE dacă sistemele lor afectează persoane aflate pe teritoriul Uniunii. Regulamentul folosește o abordare bazată pe risc: cu cât un sistem poate afecta mai mult viața, siguranța sau drepturile oamenilor, cu atât cerințele sunt mai stricte. AI Act împarte sistemele în niveluri de risc, de la „inacceptabil” (interzis) la „ridicat” (obligații stricte) și „limitat” sau „minim” (cerințe mai reduse), iar obligațiile nu se opresc la dezvoltatori, ci se extind și la firmele care folosesc AI în recrutare, evaluarea angajaților, relația cu clienții sau creditare. Ce se schimbă din 2 august 2026 pentru firme Potrivit calendarului de implementare, 2 august 2026 este momentul aplicării generale a regulamentului, când devin relevante obligațiile complete pentru multe sisteme cu risc ridicat, inclusiv cele utilizate în zona ocupării forței de muncă și a accesului la servicii. Pentru companii, asta înseamnă că folosirea AI în procese sensibile nu mai poate fi tratată doar ca un instrument de eficientizare, fără consecințe juridice. Pentru sistemele cu risc ridicat, AI Act impune cerințe precum documentarea, păstrarea evidențelor, evaluarea impactului și supravegherea umană. Transparența devine o cerință centrală, iar în anumite situații oamenii trebuie informați că interacționează cu un sistem AI sau că o decizie este influențată de un algoritm. „Sistemele nu pot fi lăsate să ia decizii de capul lor, iar angajații trebuie să știe cum și când să intervină”, a explicat Marius Stanciu. Ce era deja aplicabil și cum a fost etapizată implementarea O parte dintre prevederi sunt deja aplicabile din 2 februarie 2025, când au intrat în vigoare interdicțiile pentru anumite practici și obligațiile de „AI literacy” (alfabetizare în domeniul inteligenței artificiale, adică pregătirea minimă a personalului pentru a înțelege și utiliza responsabil astfel de sisteme). Sunt vizate utilizările considerate inacceptabile, precum cele care manipulează comportamentul uman, exploatează vulnerabilități sau creează forme de „scoring social” incompatibile cu standardele europene. Aplicarea este etapizată și pentru modelele de inteligență artificială de uz general (GPAI), precum ChatGPT, Claude sau Gemini, pentru care regulile se aplică din 2 august 2025. Digi24 subliniază că acestea nu trebuie confundate cu sistemele AI cu risc ridicat, pentru care obligațiile complete devin relevante odată cu aplicarea generală din 2026. Amenzi și risc de conformare AI Act introduce sancțiuni care pot ajunge, pentru practicile interzise, până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală. Pentru alte încălcări, plafonul este de până la 15 milioane de euro sau 3%, iar furnizarea de informații incorecte sau înșelătoare poate fi sancționată separat, cu până la 7,5 milioane de euro sau 1%. Marius Stanciu compară nivelul sancțiunilor cu cele din GDPR și susține că, după o perioadă în care multe companii au tratat regulile ca pe un risc teoretic, aplicarea efectivă a amenzilor poate schimba rapid comportamentele de conformare. România: desemnarea autorităților și problema întârzierii În România, Guvernul a adoptat la 12 martie 2026 un memorandum privind desemnarea autorităților naționale competente, potrivit informațiilor din articolul Digi24, însă textul furnizat se oprește înainte de a detalia măsurile și instituțiile vizate. În practică, pentru firmele care folosesc deja AI în recrutare, evaluare, relația cu clienții sau accesul la servicii, miza este să trateze perioada rămasă până la 2 august 2026 ca pe un interval de pregătire: inventarierea sistemelor utilizate, stabilirea responsabilităților interne și introducerea unui control uman funcțional, acolo unde deciziile pot afecta direct persoane. [...]

Un studiu a găsit articole științifice fabricate cu ajutorul AI pe Google Scholar , potrivit Gizmodo , care citează o investigație publicată în Harvard Kennedy School’s Misinformation Review . Cercetarea a analizat cât de răspândite sunt lucrările cu indicii de text generat artificial în Google Scholar, motorul de căutare academică ce agregă conținut dintr-o varietate de surse online. Autorii s-au uitat în mod special la folosirea abuzivă a modelelor de tip GPT (modele lingvistice mari, capabile să genereze rapid text), inclusiv instrumente cunoscute precum ChatGPT. Conform articolului Harvard Kennedy School’s Misinformation Review , echipa a selectat un eșantion de lucrări identificate prin prezența unor formulări tipice pentru „agenți conversaționali” (chatboți) și a urmărit apoi cum sunt distribuite și găzduite aceste materiale pe internet. „Riscul a ceea ce numim «manipularea dovezilor» crește semnificativ atunci când cercetarea generată de AI este răspândită în motoare de căutare”, a declarat Bjorn Ekstrom, coautor al lucrării, într-un comunicat al Universității din Boras, consemnează University of Borås . Un element important, potrivit echipei, este modul în care Google Scholar colectează materiale: platforma nu funcționează ca o bază de date academică „închisă” și nu filtrează strict după afiliere științifică sau după existența evaluării inter pares (peer-review). Astfel, alături de articole validate, pot apărea și lucrări de tip „captură accidentală” (de exemplu, rapoarte, preprinturi sau lucrări de studenți). În eșantionul analizat, cercetătorii au constatat că două treimi dintre lucrări erau cel puțin parțial produse prin utilizare nedeclarată de GPT. Dintre lucrările fabricate identificate, distribuția pe domenii a inclus: 14,5% legate de sănătate 19,5% legate de mediu 23% legate de informatică Autorii mai notează că majoritatea acestor lucrări au fost găsite în reviste neindexate și în „working papers” (lucrări de lucru), însă au existat și cazuri în reviste științifice cunoscute și în volume de conferințe. În evaluarea lor, riscurile sunt duble: pe de o parte, volumul de „studii” fabricate poate suprasolicita infrastructura de comunicare academică și poate afecta integritatea arhivei științifice; pe de altă parte, conținutul cu aparență credibilă poate fi optimizat pentru a fi găsit ușor prin motoare publice, în special Google Scholar. În context, Gizmodo amintește și episoade recente în care editori științifici au retras articole considerate lipsite de sens sau cu elemente generate de AI, sugerând că presiunea asupra mecanismelor de verificare crește. Concluzia implicită a materialului este că, pe lângă revistele evaluate inter pares, și platformele care găzduiesc sau indexează lucrări academice ar putea avea nevoie de reguli mai stricte, astfel încât utilizarea AI să nu submineze încrederea în cercetarea științifică. [...]

OpenAI își întărește măsurile de securitate după atacul cu un dispozitiv incendiar asupra locuinței lui Sam Altman , iar compania le-a transmis angajaților că birourile din San Francisco rămân deschise, cu prezență sporită a forțelor de ordine în zonă. Incidentul a avut loc la locuința din San Francisco a CEO-ului OpenAI, Sam Altman . Conform unui memorandum intern citat în material, un suspect ar fi aruncat un dispozitiv incendiar în jurul orei 3:45 (ora locală), acesta căzând lângă poarta exterioară și stingându-se de la sine. Au fost raportate doar pagube minore, fără răniți. La scurt timp după atac, o persoană care corespundea descrierii suspectului a apărut în apropierea sediului OpenAI de pe Third Street 1455 și ar fi amenințat că va distruge clădirea companiei. Poliția din San Francisco l-a reținut rapid, iar compania a informat personalul că a suplimentat paza și prezența de securitate în jurul clădirii, menținând totuși programul normal de lucru pentru ziua de vineri. Ce spun autoritățile și ce se știe despre suspect Poliția a transmis că a ajuns la fața locului la 4:12, după un apel privind un incendiu, și a confirmat că un bărbat a aruncat dispozitivul incendiar și a provocat un incendiu. Aproximativ o oră mai târziu, suspectul a fost găsit în zona Third Street (segmentul 1400), în fața unui spațiu comercial, fiind recunoscut ca persoana implicată în incidentul anterior. Autoritățile spun că este vorba despre un bărbat de 20 de ani; identitatea nu a fost făcută publică, iar acuzațiile sunt în curs de analiză în instanță. Reacția lui Altman: îngrijorările despre AI nu justifică violența Altman a publicat vineri pe blogul personal o fotografie de familie, afirmând că speră ca gestul să descurajeze atacuri similare. El a recunoscut că există îngrijorări legate de inteligența artificială, dar a insistat că dezbaterea nu trebuie să degenereze în violență și a cerut reducerea confruntării în discurs și acțiuni, inclusiv a „explozilor” reale sau simbolice. Pentru OpenAI , episodul mută discuția despre riscurile AI și tensiunile publice într-o zonă operațională imediată: continuitatea activității și protecția angajaților, în condițiile unei securități întărite la sediul din San Francisco. [...]

Google extinde global rezervările „agentice” în AI Mode , o funcție care poate căuta și face rezervări la restaurante în numele utilizatorului, în timp ce interfața primește o reproiectare a casetei de prompt, potrivit 9to5google.com . Miza practică este creșterea utilității operaționale a modului AI din Google, prin automatizarea unei sarcini concrete (rezervarea), nu doar generarea de răspunsuri. Funcția de rezervări pentru dining, anunțată inițial în SUA, se extinde în opt piețe noi: Australia, Canada, Hong Kong, India, Noua Zeelandă, Singapore, Africa de Sud și Regatul Unit. Utilizatorul trebuie să includă în cerere detalii precum ora, locația, tipul de bucătărie, numărul de persoane sau preferințe de atmosferă, iar AI Mode caută opțiuni disponibile consultând mai multe platforme de rezervări și site-uri, inclusiv prin parteneriate locale. Extinderea se face direct în AI Mode, fără a fi necesară activarea prin Labs (programul de testare al Google). Publicația nu precizează un calendar exact pentru disponibilitatea completă în fiecare piață. Reproiectare de interfață: caseta de prompt trece la „bottom sheet” pe mobil În paralel, AI Mode primește o modificare de design a casetei de prompt, similară cu aplicația Gemini. Pe mobil, în locul unui meniu de tip pop-up (care se potrivea cu interfața web), Google trece la un panou glisant din partea de jos („bottom sheet”). În noua interfață apar: butoane mari pentru „Gallery” și „Camera”; o secțiune „Tools”, unde pe mobil este disponibil doar „Create images”; un comutator pentru „Gemini 3 models”, cu opțiunile Auto sau Pro. Schimbarea apare pe Android și iOS și este încă în curs de distribuire către canalul stabil, ceea ce sugerează o implementare graduală. [...]