Știri
Știri din categoria Inteligență artificială

ChatGPT a înregistrat o creștere de 295% a dezinstalărilor într-o singură zi, pe 28 februarie 2026, imediat după anunțul privind un acord între OpenAI și Pentagon, potrivit Știrile ProTV. Datele companiei de analiză Sensor Tower arată că reacția utilizatorilor a fost aproape instantanee, în contextul în care armata americană a decis să înlocuiască sistemul Claude, dezvoltat de Anthropic, cu ChatGPT.
În aceeași zi în care OpenAI a confirmat înțelegerea, numărul dezinstalărilor a explodat, iar efectele s-au văzut rapid și în alte statistici:
Contextul tensiunii ține de condițiile în care tehnologia ar putea fi utilizată. Anthropic ar fi refuzat folosirea lui Claude pentru dezvoltarea armelor autonome și pentru programe de supraveghere în masă. În schimb, OpenAI a acceptat utilizarea ChatGPT „în toate scopurile legale”, formulare care a stârnit nemulțumiri în rândul unei părți a utilizatorilor, mai ales pe fondul opoziției față de politicile Pentagonului din actuala administrație americană.
Inițial, conducerea OpenAI a susținut că termenii acordului sunt similari celor care au generat divergențe între Pentagon și Anthropic. Ulterior însă, directorul companiei a admis că grăbirea încheierii înțelegerii a fost o greșeală și a anunțat că termenii vor fi renegociați.
Episodul arată cât de sensibilă rămâne relația dintre marile companii de inteligență artificială, instituțiile militare și publicul larg, într-un moment în care tehnologia este tot mai prezentă în decizii cu impact strategic și etic major.
Recomandate

Claude, chatbotul dezvoltat de Anthropic, a devenit aplicația gratuită numărul 1 în App Store , iar compania spune că platforma câștigă peste un milion de utilizatori noi în fiecare zi , într-un context tensionat generat de disputa dintre firmă și administrația americană. Ascensiunea rapidă vine după ce guvernul SUA a decis să interzică folosirea tehnologiei Anthropic de către agențiile federale, potrivit unei analize publicate de The Decoder . Ascensiune rapidă pentru Claude Aplicația Claude a urcat spectaculos în clasamentele Apple App Store. Conform datelor Sensor Tower citate de presa internațională, aplicația se afla pe locul 131 în SUA la sfârșitul lunii ianuarie , a intrat în top 20 în februarie , iar pe 28 februarie a ajuns pe primul loc . Claude a devenit cea mai descărcată aplicație gratuită pentru iPhone în mai multe țări, printre care: Statele Unite Canada Germania Irlanda Luxemburg Reprezentanții Anthropic spun că fiecare zi din ultima săptămână a stabilit un nou record de înscrieri , iar numărul utilizatorilor gratuiti a crescut cu peste 60% din ianuarie . Disputa cu guvernul SUA Explozia de popularitate a venit după un conflict public între Anthropic și administrația americană. Pe 27 februarie , președintele Donald Trump a ordonat agențiilor federale să înceteze imediat utilizarea tehnologiei companiei. În paralel, Departamentul Apărării a catalogat Anthropic drept „risc pentru lanțul de aprovizionare al securității naționale” , ceea ce ar putea afecta colaborarea companiei cu contractorii militari. Decizia a venit după ce CEO-ul Anthropic, Dario Amodei , a refuzat să elimine două restricții importante din contractele companiei: interdicția utilizării AI pentru supravegherea în masă a cetățenilor americani interdicția folosirii AI pentru arme autonome fără control uman Reacția utilizatorilor și impactul asupra ChatGPT Decizia OpenAI de a prelua contractul militar pe care Anthropic îl respinsese a declanșat reacții negative din partea unor utilizatori. Datele Sensor Tower arată că: dezinstalările ChatGPT au crescut cu 295% într-o singură zi descărcările au scăzut cu 13% într-o zi și cu încă 5% în următoarea recenziile de o stea au crescut cu 775% CEO-ul OpenAI, Sam Altman , a admis ulterior că acordul cu Pentagonul a părut „oportunist și grăbit” , iar compania a adăugat ulterior mai multe garanții privind utilizarea tehnologiei. Viitor incert pentru Anthropic Situația rămâne însă incertă. Investitori majori ai companiei, printre care Amazon și Nvidia , ar fi îngrijorați de decizia guvernului american de a considera Anthropic un risc de securitate. Experți juridici citați de publicații precum Lawfare susțin că această desemnare ar putea fi contestată în instanță, mai ales deoarece guvernul american a folosit anterior tehnologia companiei în diverse proiecte. Anthropic a anunțat deja că va contesta decizia în instanță , iar disputa ar putea avea efecte importante asupra pieței globale de inteligență artificială. O lecție pentru industria AI Episodul arată că, într-un moment în care societatea devine tot mai preocupată de modul în care este folosită inteligența artificială, poziționarea etică a companiilor poate deveni un avantaj competitiv major . Pentru moment, această strategie pare să fi adus companiei Anthropic o creștere explozivă a popularității. [...]

Claude a depășit ChatGPT în descărcările din SUA după refuzul unui contract militar , potrivit Android Headlines . Aplicația dezvoltată de Anthropic a urcat pe primul loc în clasamentul Apple App Store din Statele Unite, pe fondul reacțiilor critice la adresa OpenAI, care a acceptat un acord similar cu autoritățile americane din domeniul apărării. Creșterea vine după ce Anthropic a anunțat că nu poate finaliza un parteneriat cu Departamentul de Război al SUA, invocând lipsa unor garanții suficiente privind utilizarea inteligenței artificiale în supraveghere în masă și arme autonome. Conducerea companiei a indicat că limitele etice legate de utilizarea militară au stat la baza deciziei. În paralel, OpenAI a confirmat un acord pentru furnizarea tehnologiei ChatGPT către structuri guvernamentale, susținând că a primit asigurări privind respectarea principiilor de siguranță. Cu toate acestea, pe forumuri și rețele sociale au apărut mesaje critice din partea utilizatorilor, care se declară preocupați de implicarea politică și militară în dezvoltarea inteligenței artificiale. Potrivit Axios , Claude a depășit temporar ChatGPT la ritmul descărcărilor din SUA. Controversa a căpătat și o dimensiune politică după ce președintele Donald Trump a criticat public Anthropic și a cerut agențiilor federale să renunțe la instrumentele sale. Totuși, conform relatărilor din The Wall Street Journal , sistemele Anthropic sunt încă utilizate în anumite structuri, iar o tranziție completă către alte soluții ar putea dura luni. Episodul arată că, dincolo de performanțele tehnice, încrederea publică și poziționarea etică influențează rapid preferințele utilizatorilor într-o piață a inteligenței artificiale tot mai sensibilă la deciziile politice. [...]

Șefa diviziei de robotică a OpenAI a demisionat după acordul companiei cu Pentagonul , invocând îngrijorări legate de utilizarea inteligenței artificiale în supraveghere și sisteme militare. Potrivit The Next Web , Caitlin Kalinowski , responsabilă de programele de hardware și robotică ale companiei, a anunțat public plecarea după aproximativ 16 luni la OpenAI. Într-un mesaj publicat pe rețeaua X, Kalinowski a explicat că decizia este una de principiu și a criticat modul în care a fost gestionat acordul cu Departamentul Apărării al Statelor Unite. „Inteligența artificială are un rol important în securitatea națională, dar supravegherea americanilor fără control judiciar și autonomia letală fără autorizare umană sunt linii care ar fi meritat mai multă deliberare”, a scris ea. Contextul acordului dintre OpenAI și Pentagon Demisia vine după ce OpenAI a încheiat un acord pentru implementarea modelelor sale de inteligență artificială în rețelele clasificate ale Pentagonului. Decizia a venit la scurt timp după ce compania rivală Anthropic a pierdut un contract militar în urma unor negocieri tensionate cu Departamentul Apărării. Anthropic susținuse că modelele sale nu ar trebui folosite pentru supraveghere internă în masă sau arme complet autonome , însă Pentagonul a insistat asupra unor condiții mai largi de utilizare. După blocarea negocierilor, administrația americană a decis să oprească utilizarea tehnologiei Anthropic în agențiile federale. La scurt timp, Sam Altman a anunțat că OpenAI a ajuns la propriul acord cu armata americană. CEO-ul companiei a recunoscut ulterior că procesul a fost „grăbit” și a generat reacții negative. Ce a făcut Kalinowski la OpenAI Caitlin Kalinowski era una dintre cele mai importante figuri din zona de hardware a companiei. Ea fusese recrutată în 2024 pentru a dezvolta programul de „AI fizic” , care vizează integrarea inteligenței artificiale în sisteme robotice și dispozitive hardware. Anterior, Kalinowski a lucrat: aproape 6 ani la Apple , unde a contribuit la dezvoltarea MacBook Pro și Mac Pro peste 9 ani la Meta , unde a condus proiecte de hardware pentru realitate virtuală și ochelari de realitate augmentată La OpenAI, ea a coordonat inclusiv un laborator din San Francisco unde roboți sunt antrenați să execute sarcini domestice. Impactul asupra OpenAI Demisia lasă programul de robotică al companiei fără principalul său lider tehnic într-un moment în care OpenAI încearcă să extindă AI-ul dincolo de software, către dispozitive fizice și sisteme autonome. Reacțiile negative nu s-au limitat la interiorul companiei. După anunțul acordului militar, dezinstalările aplicației ChatGPT ar fi crescut cu aproximativ 295% , iar aplicația rivală Claude , dezvoltată de Anthropic, a urcat pe primul loc în App Store din SUA. OpenAI a declarat că acordul cu Pentagonul include limite clare, printre care interdicția folosirii AI pentru supraveghere internă în masă sau arme autonome , și a subliniat că va continua dialogul cu angajații și societatea civilă privind utilizarea responsabilă a tehnologiei. [...]

Administrația Trump pregătește reguli care obligă furnizorii de AI ai statului să acorde o licență irevocabilă , potrivit Biziday , care citează un draft guvernamental consultat de Financial Times. Proiectul vizează companiile ce semnează contracte cu guvernul federal și ar impune ca modelele lor să poată fi folosite de SUA „în toate situațiile permise de lege”, adică „pentru orice scop legal”, în limitele cadrului juridic american. Draftul este elaborat de GSA, agenția federală responsabilă de achizițiile publice, și face parte dintr-un plan mai amplu de standardizare a modului în care instituțiile statului cumpără servicii de inteligență artificială. Un oficial familiarizat cu subiectul a spus pentru Financial Times că abordarea este similară cu măsurile analizate pentru contractele militare, ceea ce sugerează o extindere a regulilor din zona apărării către întregul aparat federal. Pe lângă licența irevocabilă, documentul introduce cerințe de „neutralitate ideologică” pentru instrumentele livrate către agențiile federale. În forma descrisă, companiile ar trebui să furnizeze sisteme „neutre și non-partizane” și să nu favorizeze ideologii precum diversitatea, echitatea și incluziunea, iar dezvoltatorii nu ar trebui să „integreze intenționat judecăți partizane sau ideologice în rezultatele sistemelor AI”. Un alt punct cu impact direct asupra furnizorilor internaționali sau a celor care operează pe mai multe piețe este obligația de transparență privind adaptările făcute pentru alte jurisdicții. Draftul cere companiilor să dezvăluie dacă modelele au fost modificate pentru a respecta reglementări externe, inclusiv legislația europeană, precum Digital Services Act (DSA), act normativ al UE care stabilește obligații pentru platforme și servicii digitale. Contextul politic și comercial al acestor reguli este conflictul recent dintre Pentagon și Anthropic. Săptămâna trecută, Departamentul Apărării a anunțat anularea unui contract de 200 de milioane de dolari după ce Anthropic ar fi refuzat utilizarea nelimitată a tehnologiei sale, invocând riscuri de supraveghere în masă și dezvoltarea armelor autonome letale. Compania a cerut clauze speciale de protecție, însă secretarul apărării, Pete Hegseth, a susținut că obiectivul real ar fi fost obținerea unui drept de veto asupra deciziilor operaționale ale armatei; ulterior, Casa Albă a desemnat Anthropic drept „un risc pentru lanțul de aprovizionare”. „Inteligența artificială are un rol important în securitatea națională, însă supravegherea americanilor fără control judiciar și utilizarea autonomiei letale fără autorizare umană sunt limite care meritau o analiză mai aprofundată.” În paralel, șefa diviziei de robotică de la OpenAI, Caitlin Kalinowski, și-a anunțat demisia sâmbătă, invocând îngrijorări legate de acordul companiei cu Pentagonul și spunând că nu a existat suficient timp pentru a evalua implicațiile implementării modelelor pe rețele cloud clasificate. OpenAI a răspuns că acordul include măsuri de protecție suplimentare și că „liniile sale roșii” interzic utilizarea tehnologiei pentru supraveghere internă sau pentru arme autonome, adăugând că va continua dialogul cu angajații, autoritățile și societatea civilă. Din perspectiva reglementării contractelor federale pentru AI, draftul descris ar împinge piața către condiții mai dure pentru furnizori, în special pe trei direcții: licență irevocabilă acordată guvernului SUA pentru utilizarea sistemelor „în toate situațiile permise de lege”; cerințe de „neutralitate ideologică” și interdicția de a introduce deliberat judecăți partizane în rezultate; obligația de a declara dacă modelele au fost ajustate pentru a respecta reguli din alte jurisdicții, inclusiv DSA din UE. În ultimul an, agenția americană a încheiat acorduri cu OpenAI, Meta, xAI și Google pentru a oferi modele AI agențiilor guvernamentale la costuri reduse, ceea ce ridică miza acestor reguli: ele pot deveni un standard de facto pentru accesul la contracte federale. Dacă draftul va fi adoptat în forma descrisă, companiile de AI vor trebui să aleagă între acceptarea unei utilizări foarte largi a modelelor în sectorul public și renunțarea la o parte din controlul contractual asupra modului în care tehnologia lor este folosită de stat. [...]

OpenAI a lansat modelul GPT-5.4 , descris drept cel mai performant sistem al companiei pentru muncă profesională , disponibil în ChatGPT, API și Codex. Noua versiune integrează progrese majore în raționament, programare și utilizarea automată a aplicațiilor, fiind concepută pentru sarcini complexe precum analiză financiară, redactare de documente sau dezvoltare software. Modelul este disponibil în două variante: GPT-5.4 Thinking , inclus în ChatGPT pentru utilizatorii plătitori , și GPT-5.4 Pro , o versiune destinată celor care au nevoie de performanță maximă în sarcini avansate. Potrivit companiei, sistemul combină capabilitățile de programare ale GPT-5.3-Codex cu îmbunătățiri semnificative în analiza documentelor, lucru cu foi de calcul și realizarea de prezentări. Una dintre cele mai importante noutăți este capacitatea nativă de a opera direct pe computer , ceea ce permite agenților AI să controleze aplicații și site-uri web, să execute fluxuri de lucru complexe sau să interacționeze cu interfețe grafice folosind capturi de ecran, mouse și tastatură. În testele interne, modelul a obținut o rată de succes de 75% în navigarea mediilor desktop , depășind atât GPT-5.2, cât și performanța medie umană. GPT-5.4 introduce și o fereastră de context de până la 1 milion de tokeni , ceea ce îi permite să proceseze cantități mult mai mari de informații într-o singură conversație. Această capacitate face posibilă analizarea unor documente foarte lungi sau gestionarea unor proiecte complexe pe termen lung. Modelul aduce îmbunătățiri și în zona de cercetare online și utilizare a instrumentelor externe. Sistemul poate identifica automat ce instrumente sunt necesare pentru o sarcină și le poate folosi în mod eficient, reducând costurile și timpul de răspuns. În același timp, OpenAI afirmă că noua versiune este mai eficientă în utilizarea tokenilor și produce mai puține erori factuale decât generațiile anterioare. Potrivit datelor prezentate de companie, GPT-5.4 depășește GPT-5.2 în numeroase teste de performanță. De exemplu, în benchmarkul GDPval, care măsoară capacitatea modelelor de a realiza sarcini profesionale din 44 de ocupații, noul sistem a obținut un scor de 83% , comparativ cu 70,9% pentru versiunea anterioară. Lansarea face parte din strategia OpenAI de a transforma modelele de inteligență artificială în agenți capabili să execute sarcini reale pe computer , nu doar să genereze text sau cod. GPT-5.4 este deja disponibil pentru utilizatorii ChatGPT Plus, Team și Pro, iar pentru dezvoltatori poate fi accesat prin API sub denumirea „gpt-5.4”. [...]

OpenAI modifică acordul cu Pentagonul după reacții globale privind supravegherea prin inteligență artificială , compania condusă de Sam Altman a anunțat că va ajusta contractul recent semnat cu Departamentul Apărării al Statelor Unite, după un val de critici publice, proteste și dezinstalări ale aplicației ChatGPT. Decizia vine în urma temerilor că tehnologia ar putea fi folosită pentru supraveghere în masă sau pentru dezvoltarea unor sisteme militare autonome. Acordul, încheiat la începutul lunii martie 2026, prevede integrarea modelelor de inteligență artificială dezvoltate de OpenAI în rețele militare clasificate ale Pentagonului. Anunțul a stârnit însă reacții puternice în rândul activiștilor, al utilizatorilor și chiar al unor angajați din industria tehnologică, care au avertizat asupra riscurilor legate de utilizarea AI în scopuri militare sau de monitorizare a populației. Într-un mesaj publicat pe platforma X , Sam Altman a precizat că firma lucrează cu Pentagonul pentru a adăuga clarificări în contract. Potrivit acestuia, sistemele OpenAI nu vor fi utilizate intenționat pentru supravegherea internă a cetățenilor americani și nici de către agenții de informații precum NSA, decât dacă ar exista modificări contractuale ulterioare. Altman a recunoscut totodată că modul în care a fost gestionată comunicarea privind acordul a fost greșit. El a admis că s-a grăbit să finalizeze tranzacția și că lipsa explicațiilor clare a alimentat suspiciunile publice. „Problemele sunt extrem de complexe și necesită o comunicare clară”, a scris acesta, sugerând că intenția inițială a fost evitarea unor consecințe considerate mai grave. Controversa apare într-un moment tensionat pentru industria inteligenței artificiale, în care companiile sunt presate să stabilească limite etice privind utilizarea tehnologiei. Rivala Anthropic, de exemplu, ar fi refuzat un acord similar cu armata americană, insistând asupra unor interdicții explicite legate de supravegherea în masă și de dezvoltarea armelor autonome letale. Nemulțumirea a depășit rapid mediul online. Proteste au avut loc în fața birourilor OpenAI din San Francisco și Londra, iar un grup de activiști a lansat campania „ QuitGPT ”, care promovează boicotarea serviciilor companiei. În paralel, aproape 500 de angajați din OpenAI și Google au semnat o scrisoare deschisă în sprijinul unor limite stricte privind utilizarea militară a inteligenței artificiale. Situația reflectă tensiunea tot mai mare dintre dezvoltarea rapidă a tehnologiilor de inteligență artificială și presiunea publică pentru stabilirea unor reguli clare privind utilizarea lor în domenii sensibile precum securitatea, apărarea și supravegherea. [...]