Știri
Știri din categoria Inteligență artificială

Claude, chatbotul dezvoltat de Anthropic, a devenit aplicația gratuită numărul 1 în App Store, iar compania spune că platforma câștigă peste un milion de utilizatori noi în fiecare zi, într-un context tensionat generat de disputa dintre firmă și administrația americană. Ascensiunea rapidă vine după ce guvernul SUA a decis să interzică folosirea tehnologiei Anthropic de către agențiile federale, potrivit unei analize publicate de The Decoder.
Aplicația Claude a urcat spectaculos în clasamentele Apple App Store. Conform datelor Sensor Tower citate de presa internațională, aplicația se afla pe locul 131 în SUA la sfârșitul lunii ianuarie, a intrat în top 20 în februarie, iar pe 28 februarie a ajuns pe primul loc.
Claude a devenit cea mai descărcată aplicație gratuită pentru iPhone în mai multe țări, printre care:
Reprezentanții Anthropic spun că fiecare zi din ultima săptămână a stabilit un nou record de înscrieri, iar numărul utilizatorilor gratuiti a crescut cu peste 60% din ianuarie.
Explozia de popularitate a venit după un conflict public între Anthropic și administrația americană.
Pe 27 februarie, președintele Donald Trump a ordonat agențiilor federale să înceteze imediat utilizarea tehnologiei companiei. În paralel, Departamentul Apărării a catalogat Anthropic drept „risc pentru lanțul de aprovizionare al securității naționale”, ceea ce ar putea afecta colaborarea companiei cu contractorii militari.
Decizia a venit după ce CEO-ul Anthropic, Dario Amodei, a refuzat să elimine două restricții importante din contractele companiei:
Decizia OpenAI de a prelua contractul militar pe care Anthropic îl respinsese a declanșat reacții negative din partea unor utilizatori.
Datele Sensor Tower arată că:
CEO-ul OpenAI, Sam Altman, a admis ulterior că acordul cu Pentagonul a părut „oportunist și grăbit”, iar compania a adăugat ulterior mai multe garanții privind utilizarea tehnologiei.
Situația rămâne însă incertă. Investitori majori ai companiei, printre care Amazon și Nvidia, ar fi îngrijorați de decizia guvernului american de a considera Anthropic un risc de securitate.
Experți juridici citați de publicații precum Lawfare susțin că această desemnare ar putea fi contestată în instanță, mai ales deoarece guvernul american a folosit anterior tehnologia companiei în diverse proiecte.
Anthropic a anunțat deja că va contesta decizia în instanță, iar disputa ar putea avea efecte importante asupra pieței globale de inteligență artificială.
Episodul arată că, într-un moment în care societatea devine tot mai preocupată de modul în care este folosită inteligența artificială, poziționarea etică a companiilor poate deveni un avantaj competitiv major. Pentru moment, această strategie pare să fi adus companiei Anthropic o creștere explozivă a popularității.
Recomandate

Claude a depășit ChatGPT în descărcările din SUA după refuzul unui contract militar , potrivit Android Headlines . Aplicația dezvoltată de Anthropic a urcat pe primul loc în clasamentul Apple App Store din Statele Unite, pe fondul reacțiilor critice la adresa OpenAI, care a acceptat un acord similar cu autoritățile americane din domeniul apărării. Creșterea vine după ce Anthropic a anunțat că nu poate finaliza un parteneriat cu Departamentul de Război al SUA, invocând lipsa unor garanții suficiente privind utilizarea inteligenței artificiale în supraveghere în masă și arme autonome. Conducerea companiei a indicat că limitele etice legate de utilizarea militară au stat la baza deciziei. În paralel, OpenAI a confirmat un acord pentru furnizarea tehnologiei ChatGPT către structuri guvernamentale, susținând că a primit asigurări privind respectarea principiilor de siguranță. Cu toate acestea, pe forumuri și rețele sociale au apărut mesaje critice din partea utilizatorilor, care se declară preocupați de implicarea politică și militară în dezvoltarea inteligenței artificiale. Potrivit Axios , Claude a depășit temporar ChatGPT la ritmul descărcărilor din SUA. Controversa a căpătat și o dimensiune politică după ce președintele Donald Trump a criticat public Anthropic și a cerut agențiilor federale să renunțe la instrumentele sale. Totuși, conform relatărilor din The Wall Street Journal , sistemele Anthropic sunt încă utilizate în anumite structuri, iar o tranziție completă către alte soluții ar putea dura luni. Episodul arată că, dincolo de performanțele tehnice, încrederea publică și poziționarea etică influențează rapid preferințele utilizatorilor într-o piață a inteligenței artificiale tot mai sensibilă la deciziile politice. [...]

ChatGPT a înregistrat o creștere de 295% a dezinstalărilor într-o singură zi , pe 28 februarie 2026, imediat după anunțul privind un acord între OpenAI și Pentagon, potrivit Știrile ProTV . Datele companiei de analiză Sensor Tower arată că reacția utilizatorilor a fost aproape instantanee, în contextul în care armata americană a decis să înlocuiască sistemul Claude, dezvoltat de Anthropic , cu ChatGPT. În aceeași zi în care OpenAI a confirmat înțelegerea, numărul dezinstalărilor a explodat, iar efectele s-au văzut rapid și în alte statistici: instalările ChatGPT au scăzut cu 13% și 5% în ultimele două zile din februarie; recenziile cu o singură stea au crescut cu 775%; aplicația Claude a înregistrat o creștere a instalărilor de 37% pe 27 februarie și de 51% pe 28 februarie. Contextul tensiunii ține de condițiile în care tehnologia ar putea fi utilizată. Anthropic ar fi refuzat folosirea lui Claude pentru dezvoltarea armelor autonome și pentru programe de supraveghere în masă. În schimb, OpenAI a acceptat utilizarea ChatGPT „în toate scopurile legale”, formulare care a stârnit nemulțumiri în rândul unei părți a utilizatorilor, mai ales pe fondul opoziției față de politicile Pentagonului din actuala administrație americană. Inițial, conducerea OpenAI a susținut că termenii acordului sunt similari celor care au generat divergențe între Pentagon și Anthropic. Ulterior însă, directorul companiei a admis că grăbirea încheierii înțelegerii a fost o greșeală și a anunțat că termenii vor fi renegociați. Episodul arată cât de sensibilă rămâne relația dintre marile companii de inteligență artificială, instituțiile militare și publicul larg, într-un moment în care tehnologia este tot mai prezentă în decizii cu impact strategic și etic major. [...]

Armata SUA a folosit inteligența artificială Claude în atacurile asupra Iranului , la doar câteva ore după ce președintele Donald Trump a ordonat oprirea utilizării tehnologiei dezvoltate de compania Anthropic în instituțiile federale, potrivit informațiilor publicate de Moneycontrol , care citează relatări din presa americană. Conform sursei, Comandamentul Central al SUA (CENTCOM) ar fi utilizat modelul Claude pentru evaluări de informații, identificarea țintelor și simularea unor scenarii de luptă în cadrul operațiunilor împotriva Iranului. Oficialii militari nu au comentat public detalii despre sistemele folosite în misiunile în curs. Decizia Casei Albe de a întrerupe colaborarea cu Anthropic a venit pe 27 februarie 2026, după un conflict deschis între administrație și conducerea companiei. Potrivit NDTV , Trump a cerut agențiilor federale să renunțe la tehnologia firmei, invocând riscuri pentru securitatea națională. În paralel, Pentagonul ar fi primit un termen de șase luni pentru a elimina treptat sistemele bazate pe Claude. Tensiunile ar fi izbucnit după ce secretarul Apărării a solicitat acces extins la instrumentele de inteligență artificială pentru orice utilizare militară considerată „legală”, solicitare respinsă de conducerea Anthropic pe motive etice. În acest context, compania a fost desemnată drept posibil „risc în lanțul de aprovizionare”, decizie pe care intenționează să o conteste. Claude era, potrivit relatărilor, singurul model de inteligență artificială aprobat pentru fluxuri clasificate din infrastructura Pentagonului, prin parteneriate cu firme din domeniul tehnologic. Alte companii, precum OpenAI și xAI, au semnat între timp acorduri pentru medii securizate, însă înlocuirea completă a sistemelor existente ar putea dura luni. Episodul evidențiază dependența tot mai mare a armatei americane de soluții de inteligență artificială în operațiuni reale și dificultatea separării rapide de furnizori integrați adânc în infrastructura militară. Disputa dintre administrație și sectorul tehnologic ridică semne de întrebare privind echilibrul dintre considerentele etice, interesele comerciale și prioritățile de securitate națională. [...]

Administrația Trump interzice utilizarea Anthropic în guvern, iar OpenAI semnează un acord cu Pentagonul , potrivit unei investigații publicate de NBC News . Decizia vine după luni de tensiuni între Departamentul Apărării și compania Anthropic privind condițiile de utilizare a sistemelor sale de inteligență artificială în scopuri militare. Președintele Donald Trump a anunțat că toate agențiile federale trebuie să înceteze „imediat” folosirea tehnologiei Anthropic, iar secretarul Apărării, Pete Hegseth, a declarat că firma va fi desemnată „risc pentru lanțul de aprovizionare la adresa securității naționale”. O astfel de etichetare ar interzice contractorilor militari să colaboreze cu compania. Agențiile ar avea la dispoziție șase luni pentru a încheia contractele existente. Decizia survine pe fondul divergențelor legate de utilizarea inteligenței artificiale pentru arme autonome sau supraveghere internă. Anthropic, condusă de Dario Amodei , a cerut garanții ferme că tehnologia sa nu va fi folosită pentru supraveghere în masă sau sisteme letale complet autonome. Pentagonul a susținut că trebuie să poată utiliza modelele „pentru orice scop legal”. La scurt timp după anunțul Casei Albe, directorul OpenAI, Sam Altman, a transmis că firma sa a încheiat un acord cu Departamentul Apărării pentru a implementa modelele sale pe rețele clasificate. El a precizat că înțelegerea include interdicții privind supravegherea în masă și utilizarea autonomă a forței letale, precum și mecanisme suplimentare de siguranță. Anthropic a reacționat afirmând că nu a primit o notificare oficială și a amenințat cu acțiuni în instanță, susținând că desemnarea ar crea un precedent periculos pentru companiile americane care negociază cu guvernul. Mai mulți lideri din industria tehnologică au criticat măsura, iar un grup de parlamentari democrați a acuzat Pentagonul că exercită presiuni nejustificate asupra unei companii private. Până în această săptămână, Anthropic era singura companie majoră de inteligență artificială autorizată să opereze pe rețele clasificate ale guvernului american. Contractul său cu Pentagonul putea ajunge la 200 de milioane de dolari. Rămâne neclar cum va fi redistribuită această capacitate tehnologică și dacă alte companii vor urma modelul OpenAI în relația cu Departamentul Apărării. [...]

OpenAI a lansat modelul GPT-5.4 , descris drept cel mai performant sistem al companiei pentru muncă profesională , disponibil în ChatGPT, API și Codex. Noua versiune integrează progrese majore în raționament, programare și utilizarea automată a aplicațiilor, fiind concepută pentru sarcini complexe precum analiză financiară, redactare de documente sau dezvoltare software. Modelul este disponibil în două variante: GPT-5.4 Thinking , inclus în ChatGPT pentru utilizatorii plătitori , și GPT-5.4 Pro , o versiune destinată celor care au nevoie de performanță maximă în sarcini avansate. Potrivit companiei, sistemul combină capabilitățile de programare ale GPT-5.3-Codex cu îmbunătățiri semnificative în analiza documentelor, lucru cu foi de calcul și realizarea de prezentări. Una dintre cele mai importante noutăți este capacitatea nativă de a opera direct pe computer , ceea ce permite agenților AI să controleze aplicații și site-uri web, să execute fluxuri de lucru complexe sau să interacționeze cu interfețe grafice folosind capturi de ecran, mouse și tastatură. În testele interne, modelul a obținut o rată de succes de 75% în navigarea mediilor desktop , depășind atât GPT-5.2, cât și performanța medie umană. GPT-5.4 introduce și o fereastră de context de până la 1 milion de tokeni , ceea ce îi permite să proceseze cantități mult mai mari de informații într-o singură conversație. Această capacitate face posibilă analizarea unor documente foarte lungi sau gestionarea unor proiecte complexe pe termen lung. Modelul aduce îmbunătățiri și în zona de cercetare online și utilizare a instrumentelor externe. Sistemul poate identifica automat ce instrumente sunt necesare pentru o sarcină și le poate folosi în mod eficient, reducând costurile și timpul de răspuns. În același timp, OpenAI afirmă că noua versiune este mai eficientă în utilizarea tokenilor și produce mai puține erori factuale decât generațiile anterioare. Potrivit datelor prezentate de companie, GPT-5.4 depășește GPT-5.2 în numeroase teste de performanță. De exemplu, în benchmarkul GDPval, care măsoară capacitatea modelelor de a realiza sarcini profesionale din 44 de ocupații, noul sistem a obținut un scor de 83% , comparativ cu 70,9% pentru versiunea anterioară. Lansarea face parte din strategia OpenAI de a transforma modelele de inteligență artificială în agenți capabili să execute sarcini reale pe computer , nu doar să genereze text sau cod. GPT-5.4 este deja disponibil pentru utilizatorii ChatGPT Plus, Team și Pro, iar pentru dezvoltatori poate fi accesat prin API sub denumirea „gpt-5.4”. [...]

OpenAI modifică acordul cu Pentagonul după reacții globale privind supravegherea prin inteligență artificială , compania condusă de Sam Altman a anunțat că va ajusta contractul recent semnat cu Departamentul Apărării al Statelor Unite, după un val de critici publice, proteste și dezinstalări ale aplicației ChatGPT. Decizia vine în urma temerilor că tehnologia ar putea fi folosită pentru supraveghere în masă sau pentru dezvoltarea unor sisteme militare autonome. Acordul, încheiat la începutul lunii martie 2026, prevede integrarea modelelor de inteligență artificială dezvoltate de OpenAI în rețele militare clasificate ale Pentagonului. Anunțul a stârnit însă reacții puternice în rândul activiștilor, al utilizatorilor și chiar al unor angajați din industria tehnologică, care au avertizat asupra riscurilor legate de utilizarea AI în scopuri militare sau de monitorizare a populației. Într-un mesaj publicat pe platforma X , Sam Altman a precizat că firma lucrează cu Pentagonul pentru a adăuga clarificări în contract. Potrivit acestuia, sistemele OpenAI nu vor fi utilizate intenționat pentru supravegherea internă a cetățenilor americani și nici de către agenții de informații precum NSA, decât dacă ar exista modificări contractuale ulterioare. Altman a recunoscut totodată că modul în care a fost gestionată comunicarea privind acordul a fost greșit. El a admis că s-a grăbit să finalizeze tranzacția și că lipsa explicațiilor clare a alimentat suspiciunile publice. „Problemele sunt extrem de complexe și necesită o comunicare clară”, a scris acesta, sugerând că intenția inițială a fost evitarea unor consecințe considerate mai grave. Controversa apare într-un moment tensionat pentru industria inteligenței artificiale, în care companiile sunt presate să stabilească limite etice privind utilizarea tehnologiei. Rivala Anthropic, de exemplu, ar fi refuzat un acord similar cu armata americană, insistând asupra unor interdicții explicite legate de supravegherea în masă și de dezvoltarea armelor autonome letale. Nemulțumirea a depășit rapid mediul online. Proteste au avut loc în fața birourilor OpenAI din San Francisco și Londra, iar un grup de activiști a lansat campania „ QuitGPT ”, care promovează boicotarea serviciilor companiei. În paralel, aproape 500 de angajați din OpenAI și Google au semnat o scrisoare deschisă în sprijinul unor limite stricte privind utilizarea militară a inteligenței artificiale. Situația reflectă tensiunea tot mai mare dintre dezvoltarea rapidă a tehnologiilor de inteligență artificială și presiunea publică pentru stabilirea unor reguli clare privind utilizarea lor în domenii sensibile precum securitatea, apărarea și supravegherea. [...]