Știri
Știri din categoria Inteligență artificială

OpenAI a lansat GPT-5.3 Instant, o actualizare a modelului ChatGPT axată pe răspunsuri mai clare și conversații mai naturale, cu mai puține refuzuri inutile și o acuratețe îmbunătățită. Noua versiune este disponibilă din 3 martie 2026 pentru toți utilizatorii ChatGPT și pentru dezvoltatori prin API, sub numele „gpt-5.3-chat-latest”.
Noua actualizare vizează în special experiența zilnică a utilizatorilor: tonul conversației, relevanța răspunsurilor și fluiditatea dialogului. Compania spune că modelul răspunde acum mai direct la întrebări și evită introducerile lungi sau avertismentele excesive care întrerupeau conversația în versiunile anterioare.
Una dintre schimbările majore este modul în care modelul gestionează întrebările sensibile. În versiunea anterioară, GPT-5.2 Instant refuza uneori întrebări care puteau fi totuși abordate în siguranță sau începea răspunsul cu explicații lungi despre limitele sale.
GPT-5.3 Instant:
Astfel, conversațiile ar trebui să devină mai fluide și mai apropiate de dialogul natural.

Modelul a fost îmbunătățit și în modul în care combină informațiile găsite online cu propriile cunoștințe. În loc să listeze multe linkuri sau să rezume mecanic rezultatele căutării, GPT-5.3 Instant încearcă să sintetizeze informația și să ofere context.
Scopul este ca răspunsurile să fie:
OpenAI afirmă că noua versiune este mai fiabilă din punct de vedere factual. Conform evaluărilor interne, rata halucinațiilor a scăzut semnificativ:
| Tip evaluare | Reducere halucinații |
|---|---|
| Domenii sensibile (medicină, drept, finanțe) cu web | 26,8% |
| Domenii sensibile fără web | 19,7% |
| Conversații reale semnalate de utilizatori (cu web) | 22,5% |
| Conversații reale fără web | 9,6% |
Aceste îmbunătățiri sunt menite să reducă erorile factuale și să crească încrederea în răspunsuri.
OpenAI spune că GPT-5.3 Instant oferă și rezultate mai bune la scriere creativă sau redactare. Modelul ar trebui să producă texte mai expresive și mai variate, fără a pierde claritatea.
În același timp, compania recunoaște că există încă limitări. De exemplu, tonul conversațiilor în unele limbi, precum japoneza sau coreeana, poate suna încă rigid sau prea literal.
GPT-5.3 Instant este disponibil imediat în ChatGPT și în API pentru dezvoltatori. Modelul anterior, GPT-5.2 Instant, va rămâne accesibil încă trei luni în secțiunea „Legacy Models” pentru utilizatorii plătitori, urmând să fie retras pe 3 iunie 2026.
Actualizarea face parte din seria de îmbunătățiri continue ale platformei, care urmăresc să facă interacțiunea cu inteligența artificială mai naturală, mai utilă și mai fiabilă.
Recomandate

Claude a depășit ChatGPT în descărcările din SUA după refuzul unui contract militar , potrivit Android Headlines . Aplicația dezvoltată de Anthropic a urcat pe primul loc în clasamentul Apple App Store din Statele Unite, pe fondul reacțiilor critice la adresa OpenAI, care a acceptat un acord similar cu autoritățile americane din domeniul apărării. Creșterea vine după ce Anthropic a anunțat că nu poate finaliza un parteneriat cu Departamentul de Război al SUA, invocând lipsa unor garanții suficiente privind utilizarea inteligenței artificiale în supraveghere în masă și arme autonome. Conducerea companiei a indicat că limitele etice legate de utilizarea militară au stat la baza deciziei. În paralel, OpenAI a confirmat un acord pentru furnizarea tehnologiei ChatGPT către structuri guvernamentale, susținând că a primit asigurări privind respectarea principiilor de siguranță. Cu toate acestea, pe forumuri și rețele sociale au apărut mesaje critice din partea utilizatorilor, care se declară preocupați de implicarea politică și militară în dezvoltarea inteligenței artificiale. Potrivit Axios , Claude a depășit temporar ChatGPT la ritmul descărcărilor din SUA. Controversa a căpătat și o dimensiune politică după ce președintele Donald Trump a criticat public Anthropic și a cerut agențiilor federale să renunțe la instrumentele sale. Totuși, conform relatărilor din The Wall Street Journal , sistemele Anthropic sunt încă utilizate în anumite structuri, iar o tranziție completă către alte soluții ar putea dura luni. Episodul arată că, dincolo de performanțele tehnice, încrederea publică și poziționarea etică influențează rapid preferințele utilizatorilor într-o piață a inteligenței artificiale tot mai sensibilă la deciziile politice. [...]

Perplexity a lansat „Perplexity Computer” , un sistem care orchestrează 19 modele de inteligență artificială , într-o platformă unificată capabilă să gestioneze proiecte complete, de la documentare și proiectare până la scriere de cod și implementare. Anunțul a fost făcut pe 25 februarie 2026, iar detaliile au fost prezentate de directorul executiv Aravind Srinivas într-o postare pe LinkedIn , ulterior reluată și pe X . Noua platformă funcționează ca o „orchestră” de modele, fiecare specializat pe o anumită sarcină: unul analizează, altul scrie cod, altul redactează texte. Utilizatorii pot atribui manual modele pentru sub-sarcini distincte, ceea ce permite un control mai fin al resurselor și al costurilor de procesare. Ce integrează „Perplexity Computer” Sistemul combină într-un singur mediu: un sistem de fișiere; instrumente de tip linie de comandă; un navigator cu acces la internet în timp real; conexiuni personale la aplicații externe; memorie persistentă pentru proiecte complexe. Potrivit companiei, platforma poate „cerceta, proiecta, scrie cod, implementa și administra orice proiect cap-coadă”, mutând practic funcțiile unui calculator tradițional în cloud. Acces și costuri Produsul este disponibil inițial pentru abonații Max, nivelul premium al companiei, la 200 de dolari pe lună, cu tarifare suplimentară în funcție de utilizare. Abonații Pro vor primi acces ulterior, după finalizarea testelor de încărcare. Modelul de monetizare este bazat pe consum, nu pe publicitate. Contextul lansării Lansarea vine într-o perioadă intensă pentru companie. În ultima lună, Perplexity a: actualizat funcția Deep Research; introdus opțiunea Model Council, care consultă simultan mai multe modele avansate; anunțat extinderea navigatorului Comet pe iPhone în martie. Tot pe 25 februarie, Samsung a organizat un eveniment dedicat noii game Galaxy S26 , unde a fost prezentată integrarea asistentului Perplexity sub comanda vocală „Hey Plex”.. Prin „Perplexity Computer” , compania încearcă să redefinească rolul inteligenței artificiale, nu doar ca instrument de răspuns la întrebări, ci ca infrastructură completă de execuție a sarcinilor digitale, într-un moment în care competiția pentru automatizarea proiectelor complexe se intensifică. [...]

ChatGPT a înregistrat o creștere de 295% a dezinstalărilor într-o singură zi , pe 28 februarie 2026, imediat după anunțul privind un acord între OpenAI și Pentagon, potrivit Știrile ProTV . Datele companiei de analiză Sensor Tower arată că reacția utilizatorilor a fost aproape instantanee, în contextul în care armata americană a decis să înlocuiască sistemul Claude, dezvoltat de Anthropic , cu ChatGPT. În aceeași zi în care OpenAI a confirmat înțelegerea, numărul dezinstalărilor a explodat, iar efectele s-au văzut rapid și în alte statistici: instalările ChatGPT au scăzut cu 13% și 5% în ultimele două zile din februarie; recenziile cu o singură stea au crescut cu 775%; aplicația Claude a înregistrat o creștere a instalărilor de 37% pe 27 februarie și de 51% pe 28 februarie. Contextul tensiunii ține de condițiile în care tehnologia ar putea fi utilizată. Anthropic ar fi refuzat folosirea lui Claude pentru dezvoltarea armelor autonome și pentru programe de supraveghere în masă. În schimb, OpenAI a acceptat utilizarea ChatGPT „în toate scopurile legale”, formulare care a stârnit nemulțumiri în rândul unei părți a utilizatorilor, mai ales pe fondul opoziției față de politicile Pentagonului din actuala administrație americană. Inițial, conducerea OpenAI a susținut că termenii acordului sunt similari celor care au generat divergențe între Pentagon și Anthropic. Ulterior însă, directorul companiei a admis că grăbirea încheierii înțelegerii a fost o greșeală și a anunțat că termenii vor fi renegociați. Episodul arată cât de sensibilă rămâne relația dintre marile companii de inteligență artificială, instituțiile militare și publicul larg, într-un moment în care tehnologia este tot mai prezentă în decizii cu impact strategic și etic major. [...]

Inginerii Uber au creat un program de inteligență artificială care anticipează reacțiile șefului , folosind tehnologia pentru a testa ideile înainte de a le prezenta conducerii, relatează Mediafax . Inițiativa, apărută în cadrul companiei conduse de Dara Khosrowshahi, are un scop pragmatic: reducerea stresului și creșterea șanselor ca propunerile să fie în linie cu așteptările directorului executiv. Povestea a fost relatată chiar de Khosrowshahi în podcastul „ The Diary of a CEO ”. Liderul Uber a recunoscut că a fost surprins de ingeniozitatea echipei și a dorit să afle cum a fost construit sistemul care îi poate anticipa reacțiile, însă angajații au evitat să ofere detalii tehnice. Cum este folosită inteligența artificială în companie Potrivit declarațiilor sale, utilizarea inteligenței artificiale este deja extinsă în cadrul Uber: aproximativ 90% dintre ingineri folosesc instrumente de inteligență artificială; circa 30% le utilizează într-un ritm accelerat; impactul asupra productivității este considerat „real” și fără precedent. Khosrowshahi estimează că, pe termen lung, eficiența inginerilor ar putea crește cu până la 25%. Deși tehnologia ar permite reducerea personalului, compania intenționează, cel puțin pe termen scurt, să continue recrutările pentru a accelera dezvoltarea. Algoritmii pot ajunge la vârful ierarhiei? Discuția depășește însă nivelul operațional. Mai mulți lideri din industria tehnologică sugerează că, în viitor, inclusiv funcțiile de conducere ar putea fi preluate de algoritmi. Sam Altman, directorul OpenAI, a afirmat că inteligența artificială ar putea deveni într-o zi un director executiv mai bun decât el. O opinie similară a exprimat și Sundar Pichai, șeful Alphabet, care consideră că rolul de director executiv ar putea fi printre cele mai ușor de automatizat în viitor. Deocamdată, modelele actuale nu dispun de învățare în timp real suficient de avansată pentru a înlocui complet factorul uman. Totuși, experimentul intern de la Uber arată că inteligența artificială nu mai este doar un instrument tehnic, ci începe să influențeze direct procesele decizionale și dinamica relației dintre angajați și conducere. [...]

Administrația Trump interzice utilizarea Anthropic în guvern, iar OpenAI semnează un acord cu Pentagonul , potrivit unei investigații publicate de NBC News . Decizia vine după luni de tensiuni între Departamentul Apărării și compania Anthropic privind condițiile de utilizare a sistemelor sale de inteligență artificială în scopuri militare. Președintele Donald Trump a anunțat că toate agențiile federale trebuie să înceteze „imediat” folosirea tehnologiei Anthropic, iar secretarul Apărării, Pete Hegseth, a declarat că firma va fi desemnată „risc pentru lanțul de aprovizionare la adresa securității naționale”. O astfel de etichetare ar interzice contractorilor militari să colaboreze cu compania. Agențiile ar avea la dispoziție șase luni pentru a încheia contractele existente. Decizia survine pe fondul divergențelor legate de utilizarea inteligenței artificiale pentru arme autonome sau supraveghere internă. Anthropic, condusă de Dario Amodei , a cerut garanții ferme că tehnologia sa nu va fi folosită pentru supraveghere în masă sau sisteme letale complet autonome. Pentagonul a susținut că trebuie să poată utiliza modelele „pentru orice scop legal”. La scurt timp după anunțul Casei Albe, directorul OpenAI, Sam Altman, a transmis că firma sa a încheiat un acord cu Departamentul Apărării pentru a implementa modelele sale pe rețele clasificate. El a precizat că înțelegerea include interdicții privind supravegherea în masă și utilizarea autonomă a forței letale, precum și mecanisme suplimentare de siguranță. Anthropic a reacționat afirmând că nu a primit o notificare oficială și a amenințat cu acțiuni în instanță, susținând că desemnarea ar crea un precedent periculos pentru companiile americane care negociază cu guvernul. Mai mulți lideri din industria tehnologică au criticat măsura, iar un grup de parlamentari democrați a acuzat Pentagonul că exercită presiuni nejustificate asupra unei companii private. Până în această săptămână, Anthropic era singura companie majoră de inteligență artificială autorizată să opereze pe rețele clasificate ale guvernului american. Contractul său cu Pentagonul putea ajunge la 200 de milioane de dolari. Rămâne neclar cum va fi redistribuită această capacitate tehnologică și dacă alte companii vor urma modelul OpenAI în relația cu Departamentul Apărării. [...]

Angajați subcontractați ai Meta au fost puși să analizeze videoclipuri intime filmate cu ochelarii Ray-Ban AI , inclusiv imagini din băi sau materiale cu conținut sexual, potrivit unei investigații publicate de Mashable , care citează documentări realizate de publicațiile suedeze Svenska Dagbladet și Göteborgs-Posten . Materialele ar fi fost evaluate de lucrători din Kenya, implicați în procesul de etichetare a datelor folosite pentru antrenarea sistemelor de inteligență artificială. Investigația arată că angajații companiei Sama, subcontractor al Meta, primesc sarcina de a analiza și eticheta conținutul capturat de ochelarii inteligenți pentru ca algoritmii AI să poată înțelege mai bine imaginile și videoclipurile. În acest proces, lucrătorii ar fi vizionat materiale sensibile, inclusiv scene de nuditate, momente private filmate în băi sau imagini în care apar informații personale, precum detalii bancare. Mai mulți angajați au declarat publicațiilor suedeze că o parte dintre clipuri par filmate fără ca persoanele surprinse să știe că sunt înregistrate. Unul dintre lucrători a descris presiunea de a continua munca fără a pune întrebări, spunând că „este viața privată a cuiva, dar se așteaptă să îți faci treaba fără să o pui sub semnul întrebării”. Meta a transmis că termenii săi de utilizare permit ca interacțiunile cu serviciile AI ale companiei, inclusiv funcțiile de inteligență artificială integrate în ochelari, să fie revizuite de moderatori umani pentru îmbunătățirea sistemelor. Ce sunt ochelarii inteligenți Meta Ray-Ban Dispozitivul a fost lansat în 2023 în urma colaborării dintre Meta și producătorul de ochelari EssilorLuxottica. Ochelarii pot: filma și face fotografii printr-o cameră integrată; transmite live pe platformele sociale; utiliza un asistent AI pentru a analiza ceea ce vede utilizatorul. În 2025, compania a introdus versiuni îmbunătățite cu funcții AI extinse, iar vânzările au crescut rapid. Conform CNBC, în acel an s-au vândut peste 7 milioane de unități , de aproape trei ori mai mult decât în perioada anterioară. Controverse privind confidențialitatea Popularitatea ochelarilor a generat însă și critici. În mediul online au apărut numeroase videoclipuri în care utilizatorii filmează în secret persoane necunoscute sau folosesc dispozitivul pentru farse și conținut viral. Unii utilizatori au descoperit chiar metode de a ascunde lumina care indică faptul că dispozitivul înregistrează. Pe lângă aceste situații, organizațiile pentru protecția vieții private avertizează că extinderea funcțiilor AI – inclusiv posibila recunoaștere facială – ar putea transforma astfel de dispozitive într-un instrument de supraveghere tot mai puternic. Un lanț global al muncii pentru AI Cazul evidențiază și rolul muncii umane din spatele inteligenței artificiale. Procesul de etichetare a datelor, esențial pentru antrenarea algoritmilor, este adesea realizat de subcontractori din alte țări. Compania Sama, implicată în proiect, s-a confruntat anterior și cu procese intentate de moderatori de conținut care au acuzat condiții de muncă dificile și expunere la materiale traumatizante. Dezvăluirile ridică întrebări atât despre modul în care sunt colectate și analizate imaginile captate de dispozitivele inteligente, cât și despre responsabilitatea companiilor tehnologice în protejarea vieții private a utilizatorilor și a persoanelor surprinse în aceste înregistrări. [...]