Știri
Știri din categoria Inteligență artificială

OpenAI modifică acordul cu Pentagonul după reacții globale privind supravegherea prin inteligență artificială, compania condusă de Sam Altman a anunțat că va ajusta contractul recent semnat cu Departamentul Apărării al Statelor Unite, după un val de critici publice, proteste și dezinstalări ale aplicației ChatGPT. Decizia vine în urma temerilor că tehnologia ar putea fi folosită pentru supraveghere în masă sau pentru dezvoltarea unor sisteme militare autonome.
Acordul, încheiat la începutul lunii martie 2026, prevede integrarea modelelor de inteligență artificială dezvoltate de OpenAI în rețele militare clasificate ale Pentagonului. Anunțul a stârnit însă reacții puternice în rândul activiștilor, al utilizatorilor și chiar al unor angajați din industria tehnologică, care au avertizat asupra riscurilor legate de utilizarea AI în scopuri militare sau de monitorizare a populației.
Într-un mesaj publicat pe platforma X, Sam Altman a precizat că firma lucrează cu Pentagonul pentru a adăuga clarificări în contract. Potrivit acestuia, sistemele OpenAI nu vor fi utilizate intenționat pentru supravegherea internă a cetățenilor americani și nici de către agenții de informații precum NSA, decât dacă ar exista modificări contractuale ulterioare.
Altman a recunoscut totodată că modul în care a fost gestionată comunicarea privind acordul a fost greșit. El a admis că s-a grăbit să finalizeze tranzacția și că lipsa explicațiilor clare a alimentat suspiciunile publice. „Problemele sunt extrem de complexe și necesită o comunicare clară”, a scris acesta, sugerând că intenția inițială a fost evitarea unor consecințe considerate mai grave.
Controversa apare într-un moment tensionat pentru industria inteligenței artificiale, în care companiile sunt presate să stabilească limite etice privind utilizarea tehnologiei. Rivala Anthropic, de exemplu, ar fi refuzat un acord similar cu armata americană, insistând asupra unor interdicții explicite legate de supravegherea în masă și de dezvoltarea armelor autonome letale.
Nemulțumirea a depășit rapid mediul online. Proteste au avut loc în fața birourilor OpenAI din San Francisco și Londra, iar un grup de activiști a lansat campania „QuitGPT”, care promovează boicotarea serviciilor companiei. În paralel, aproape 500 de angajați din OpenAI și Google au semnat o scrisoare deschisă în sprijinul unor limite stricte privind utilizarea militară a inteligenței artificiale.
Situația reflectă tensiunea tot mai mare dintre dezvoltarea rapidă a tehnologiilor de inteligență artificială și presiunea publică pentru stabilirea unor reguli clare privind utilizarea lor în domenii sensibile precum securitatea, apărarea și supravegherea.
Recomandate

Administrația Trump interzice utilizarea Anthropic în guvern, iar OpenAI semnează un acord cu Pentagonul , potrivit unei investigații publicate de NBC News . Decizia vine după luni de tensiuni între Departamentul Apărării și compania Anthropic privind condițiile de utilizare a sistemelor sale de inteligență artificială în scopuri militare. Președintele Donald Trump a anunțat că toate agențiile federale trebuie să înceteze „imediat” folosirea tehnologiei Anthropic, iar secretarul Apărării, Pete Hegseth, a declarat că firma va fi desemnată „risc pentru lanțul de aprovizionare la adresa securității naționale”. O astfel de etichetare ar interzice contractorilor militari să colaboreze cu compania. Agențiile ar avea la dispoziție șase luni pentru a încheia contractele existente. Decizia survine pe fondul divergențelor legate de utilizarea inteligenței artificiale pentru arme autonome sau supraveghere internă. Anthropic, condusă de Dario Amodei , a cerut garanții ferme că tehnologia sa nu va fi folosită pentru supraveghere în masă sau sisteme letale complet autonome. Pentagonul a susținut că trebuie să poată utiliza modelele „pentru orice scop legal”. La scurt timp după anunțul Casei Albe, directorul OpenAI, Sam Altman, a transmis că firma sa a încheiat un acord cu Departamentul Apărării pentru a implementa modelele sale pe rețele clasificate. El a precizat că înțelegerea include interdicții privind supravegherea în masă și utilizarea autonomă a forței letale, precum și mecanisme suplimentare de siguranță. Anthropic a reacționat afirmând că nu a primit o notificare oficială și a amenințat cu acțiuni în instanță, susținând că desemnarea ar crea un precedent periculos pentru companiile americane care negociază cu guvernul. Mai mulți lideri din industria tehnologică au criticat măsura, iar un grup de parlamentari democrați a acuzat Pentagonul că exercită presiuni nejustificate asupra unei companii private. Până în această săptămână, Anthropic era singura companie majoră de inteligență artificială autorizată să opereze pe rețele clasificate ale guvernului american. Contractul său cu Pentagonul putea ajunge la 200 de milioane de dolari. Rămâne neclar cum va fi redistribuită această capacitate tehnologică și dacă alte companii vor urma modelul OpenAI în relația cu Departamentul Apărării. [...]

OpenAI a lansat modelul GPT-5.4 , descris drept cel mai performant sistem al companiei pentru muncă profesională , disponibil în ChatGPT, API și Codex. Noua versiune integrează progrese majore în raționament, programare și utilizarea automată a aplicațiilor, fiind concepută pentru sarcini complexe precum analiză financiară, redactare de documente sau dezvoltare software. Modelul este disponibil în două variante: GPT-5.4 Thinking , inclus în ChatGPT pentru utilizatorii plătitori , și GPT-5.4 Pro , o versiune destinată celor care au nevoie de performanță maximă în sarcini avansate. Potrivit companiei, sistemul combină capabilitățile de programare ale GPT-5.3-Codex cu îmbunătățiri semnificative în analiza documentelor, lucru cu foi de calcul și realizarea de prezentări. Una dintre cele mai importante noutăți este capacitatea nativă de a opera direct pe computer , ceea ce permite agenților AI să controleze aplicații și site-uri web, să execute fluxuri de lucru complexe sau să interacționeze cu interfețe grafice folosind capturi de ecran, mouse și tastatură. În testele interne, modelul a obținut o rată de succes de 75% în navigarea mediilor desktop , depășind atât GPT-5.2, cât și performanța medie umană. GPT-5.4 introduce și o fereastră de context de până la 1 milion de tokeni , ceea ce îi permite să proceseze cantități mult mai mari de informații într-o singură conversație. Această capacitate face posibilă analizarea unor documente foarte lungi sau gestionarea unor proiecte complexe pe termen lung. Modelul aduce îmbunătățiri și în zona de cercetare online și utilizare a instrumentelor externe. Sistemul poate identifica automat ce instrumente sunt necesare pentru o sarcină și le poate folosi în mod eficient, reducând costurile și timpul de răspuns. În același timp, OpenAI afirmă că noua versiune este mai eficientă în utilizarea tokenilor și produce mai puține erori factuale decât generațiile anterioare. Potrivit datelor prezentate de companie, GPT-5.4 depășește GPT-5.2 în numeroase teste de performanță. De exemplu, în benchmarkul GDPval, care măsoară capacitatea modelelor de a realiza sarcini profesionale din 44 de ocupații, noul sistem a obținut un scor de 83% , comparativ cu 70,9% pentru versiunea anterioară. Lansarea face parte din strategia OpenAI de a transforma modelele de inteligență artificială în agenți capabili să execute sarcini reale pe computer , nu doar să genereze text sau cod. GPT-5.4 este deja disponibil pentru utilizatorii ChatGPT Plus, Team și Pro, iar pentru dezvoltatori poate fi accesat prin API sub denumirea „gpt-5.4”. [...]

OpenAI a lansat GPT-5.3 Instant , o actualizare a modelului ChatGPT axată pe răspunsuri mai clare și conversații mai naturale , cu mai puține refuzuri inutile și o acuratețe îmbunătățită. Noua versiune este disponibilă din 3 martie 2026 pentru toți utilizatorii ChatGPT și pentru dezvoltatori prin API, sub numele „gpt-5.3-chat-latest”. Noua actualizare vizează în special experiența zilnică a utilizatorilor: tonul conversației, relevanța răspunsurilor și fluiditatea dialogului. Compania spune că modelul răspunde acum mai direct la întrebări și evită introducerile lungi sau avertismentele excesive care întrerupeau conversația în versiunile anterioare. Mai puține refuzuri și explicații inutile Una dintre schimbările majore este modul în care modelul gestionează întrebările sensibile. În versiunea anterioară, GPT-5.2 Instant refuza uneori întrebări care puteau fi totuși abordate în siguranță sau începea răspunsul cu explicații lungi despre limitele sale. GPT-5.3 Instant: reduce refuzurile inutile; evită tonul moralizator sau defensiv; oferă mai rapid un răspuns util atunci când este posibil. Astfel, conversațiile ar trebui să devină mai fluide și mai apropiate de dialogul natural. Răspunsuri mai bune atunci când folosește informații de pe web Modelul a fost îmbunătățit și în modul în care combină informațiile găsite online cu propriile cunoștințe. În loc să listeze multe linkuri sau să rezume mecanic rezultatele căutării, GPT-5.3 Instant încearcă să sintetizeze informația și să ofere context. Scopul este ca răspunsurile să fie: mai relevante pentru întrebarea utilizatorului; mai concise; mai ușor de folosit imediat. Reducerea halucinațiilor OpenAI afirmă că noua versiune este mai fiabilă din punct de vedere factual. Conform evaluărilor interne, rata halucinațiilor a scăzut semnificativ: Tip evaluare Reducere halucinații Domenii sensibile (medicină, drept, finanțe) cu web 26,8% Domenii sensibile fără web 19,7% Conversații reale semnalate de utilizatori (cu web) 22,5% Conversații reale fără web 9,6% Aceste îmbunătățiri sunt menite să reducă erorile factuale și să crească încrederea în răspunsuri. Stil de scriere mai natural OpenAI spune că GPT-5.3 Instant oferă și rezultate mai bune la scriere creativă sau redactare. Modelul ar trebui să producă texte mai expresive și mai variate, fără a pierde claritatea. În același timp, compania recunoaște că există încă limitări. De exemplu, tonul conversațiilor în unele limbi, precum japoneza sau coreeana, poate suna încă rigid sau prea literal. Disponibilitate și planuri viitoare GPT-5.3 Instant este disponibil imediat în ChatGPT și în API pentru dezvoltatori. Modelul anterior, GPT-5.2 Instant, va rămâne accesibil încă trei luni în secțiunea „Legacy Models” pentru utilizatorii plătitori, urmând să fie retras pe 3 iunie 2026. Actualizarea face parte din seria de îmbunătățiri continue ale platformei, care urmăresc să facă interacțiunea cu inteligența artificială mai naturală, mai utilă și mai fiabilă. [...]

ChatGPT a înregistrat o creștere de 295% a dezinstalărilor într-o singură zi , pe 28 februarie 2026, imediat după anunțul privind un acord între OpenAI și Pentagon, potrivit Știrile ProTV . Datele companiei de analiză Sensor Tower arată că reacția utilizatorilor a fost aproape instantanee, în contextul în care armata americană a decis să înlocuiască sistemul Claude, dezvoltat de Anthropic , cu ChatGPT. În aceeași zi în care OpenAI a confirmat înțelegerea, numărul dezinstalărilor a explodat, iar efectele s-au văzut rapid și în alte statistici: instalările ChatGPT au scăzut cu 13% și 5% în ultimele două zile din februarie; recenziile cu o singură stea au crescut cu 775%; aplicația Claude a înregistrat o creștere a instalărilor de 37% pe 27 februarie și de 51% pe 28 februarie. Contextul tensiunii ține de condițiile în care tehnologia ar putea fi utilizată. Anthropic ar fi refuzat folosirea lui Claude pentru dezvoltarea armelor autonome și pentru programe de supraveghere în masă. În schimb, OpenAI a acceptat utilizarea ChatGPT „în toate scopurile legale”, formulare care a stârnit nemulțumiri în rândul unei părți a utilizatorilor, mai ales pe fondul opoziției față de politicile Pentagonului din actuala administrație americană. Inițial, conducerea OpenAI a susținut că termenii acordului sunt similari celor care au generat divergențe între Pentagon și Anthropic. Ulterior însă, directorul companiei a admis că grăbirea încheierii înțelegerii a fost o greșeală și a anunțat că termenii vor fi renegociați. Episodul arată cât de sensibilă rămâne relația dintre marile companii de inteligență artificială, instituțiile militare și publicul larg, într-un moment în care tehnologia este tot mai prezentă în decizii cu impact strategic și etic major. [...]

Claude a depășit ChatGPT în descărcările din SUA după refuzul unui contract militar , potrivit Android Headlines . Aplicația dezvoltată de Anthropic a urcat pe primul loc în clasamentul Apple App Store din Statele Unite, pe fondul reacțiilor critice la adresa OpenAI, care a acceptat un acord similar cu autoritățile americane din domeniul apărării. Creșterea vine după ce Anthropic a anunțat că nu poate finaliza un parteneriat cu Departamentul de Război al SUA, invocând lipsa unor garanții suficiente privind utilizarea inteligenței artificiale în supraveghere în masă și arme autonome. Conducerea companiei a indicat că limitele etice legate de utilizarea militară au stat la baza deciziei. În paralel, OpenAI a confirmat un acord pentru furnizarea tehnologiei ChatGPT către structuri guvernamentale, susținând că a primit asigurări privind respectarea principiilor de siguranță. Cu toate acestea, pe forumuri și rețele sociale au apărut mesaje critice din partea utilizatorilor, care se declară preocupați de implicarea politică și militară în dezvoltarea inteligenței artificiale. Potrivit Axios , Claude a depășit temporar ChatGPT la ritmul descărcărilor din SUA. Controversa a căpătat și o dimensiune politică după ce președintele Donald Trump a criticat public Anthropic și a cerut agențiilor federale să renunțe la instrumentele sale. Totuși, conform relatărilor din The Wall Street Journal , sistemele Anthropic sunt încă utilizate în anumite structuri, iar o tranziție completă către alte soluții ar putea dura luni. Episodul arată că, dincolo de performanțele tehnice, încrederea publică și poziționarea etică influențează rapid preferințele utilizatorilor într-o piață a inteligenței artificiale tot mai sensibilă la deciziile politice. [...]

Inginerii Uber au creat un program de inteligență artificială care anticipează reacțiile șefului , folosind tehnologia pentru a testa ideile înainte de a le prezenta conducerii, relatează Mediafax . Inițiativa, apărută în cadrul companiei conduse de Dara Khosrowshahi, are un scop pragmatic: reducerea stresului și creșterea șanselor ca propunerile să fie în linie cu așteptările directorului executiv. Povestea a fost relatată chiar de Khosrowshahi în podcastul „ The Diary of a CEO ”. Liderul Uber a recunoscut că a fost surprins de ingeniozitatea echipei și a dorit să afle cum a fost construit sistemul care îi poate anticipa reacțiile, însă angajații au evitat să ofere detalii tehnice. Cum este folosită inteligența artificială în companie Potrivit declarațiilor sale, utilizarea inteligenței artificiale este deja extinsă în cadrul Uber: aproximativ 90% dintre ingineri folosesc instrumente de inteligență artificială; circa 30% le utilizează într-un ritm accelerat; impactul asupra productivității este considerat „real” și fără precedent. Khosrowshahi estimează că, pe termen lung, eficiența inginerilor ar putea crește cu până la 25%. Deși tehnologia ar permite reducerea personalului, compania intenționează, cel puțin pe termen scurt, să continue recrutările pentru a accelera dezvoltarea. Algoritmii pot ajunge la vârful ierarhiei? Discuția depășește însă nivelul operațional. Mai mulți lideri din industria tehnologică sugerează că, în viitor, inclusiv funcțiile de conducere ar putea fi preluate de algoritmi. Sam Altman, directorul OpenAI, a afirmat că inteligența artificială ar putea deveni într-o zi un director executiv mai bun decât el. O opinie similară a exprimat și Sundar Pichai, șeful Alphabet, care consideră că rolul de director executiv ar putea fi printre cele mai ușor de automatizat în viitor. Deocamdată, modelele actuale nu dispun de învățare în timp real suficient de avansată pentru a înlocui complet factorul uman. Totuși, experimentul intern de la Uber arată că inteligența artificială nu mai este doar un instrument tehnic, ci începe să influențeze direct procesele decizionale și dinamica relației dintre angajați și conducere. [...]