Știri
Știri din categoria Inteligență artificială

Administrația Trump pregătește reguli care obligă furnizorii de AI ai statului să acorde o licență irevocabilă, potrivit Biziday, care citează un draft guvernamental consultat de Financial Times. Proiectul vizează companiile ce semnează contracte cu guvernul federal și ar impune ca modelele lor să poată fi folosite de SUA „în toate situațiile permise de lege”, adică „pentru orice scop legal”, în limitele cadrului juridic american.
Draftul este elaborat de GSA, agenția federală responsabilă de achizițiile publice, și face parte dintr-un plan mai amplu de standardizare a modului în care instituțiile statului cumpără servicii de inteligență artificială. Un oficial familiarizat cu subiectul a spus pentru Financial Times că abordarea este similară cu măsurile analizate pentru contractele militare, ceea ce sugerează o extindere a regulilor din zona apărării către întregul aparat federal.
Pe lângă licența irevocabilă, documentul introduce cerințe de „neutralitate ideologică” pentru instrumentele livrate către agențiile federale. În forma descrisă, companiile ar trebui să furnizeze sisteme „neutre și non-partizane” și să nu favorizeze ideologii precum diversitatea, echitatea și incluziunea, iar dezvoltatorii nu ar trebui să „integreze intenționat judecăți partizane sau ideologice în rezultatele sistemelor AI”.
Un alt punct cu impact direct asupra furnizorilor internaționali sau a celor care operează pe mai multe piețe este obligația de transparență privind adaptările făcute pentru alte jurisdicții. Draftul cere companiilor să dezvăluie dacă modelele au fost modificate pentru a respecta reglementări externe, inclusiv legislația europeană, precum Digital Services Act (DSA), act normativ al UE care stabilește obligații pentru platforme și servicii digitale.
Contextul politic și comercial al acestor reguli este conflictul recent dintre Pentagon și Anthropic. Săptămâna trecută, Departamentul Apărării a anunțat anularea unui contract de 200 de milioane de dolari după ce Anthropic ar fi refuzat utilizarea nelimitată a tehnologiei sale, invocând riscuri de supraveghere în masă și dezvoltarea armelor autonome letale. Compania a cerut clauze speciale de protecție, însă secretarul apărării, Pete Hegseth, a susținut că obiectivul real ar fi fost obținerea unui drept de veto asupra deciziilor operaționale ale armatei; ulterior, Casa Albă a desemnat Anthropic drept „un risc pentru lanțul de aprovizionare”.
„Inteligența artificială are un rol important în securitatea națională, însă supravegherea americanilor fără control judiciar și utilizarea autonomiei letale fără autorizare umană sunt limite care meritau o analiză mai aprofundată.”
În paralel, șefa diviziei de robotică de la OpenAI, Caitlin Kalinowski, și-a anunțat demisia sâmbătă, invocând îngrijorări legate de acordul companiei cu Pentagonul și spunând că nu a existat suficient timp pentru a evalua implicațiile implementării modelelor pe rețele cloud clasificate. OpenAI a răspuns că acordul include măsuri de protecție suplimentare și că „liniile sale roșii” interzic utilizarea tehnologiei pentru supraveghere internă sau pentru arme autonome, adăugând că va continua dialogul cu angajații, autoritățile și societatea civilă.
Din perspectiva reglementării contractelor federale pentru AI, draftul descris ar împinge piața către condiții mai dure pentru furnizori, în special pe trei direcții:
În ultimul an, agenția americană a încheiat acorduri cu OpenAI, Meta, xAI și Google pentru a oferi modele AI agențiilor guvernamentale la costuri reduse, ceea ce ridică miza acestor reguli: ele pot deveni un standard de facto pentru accesul la contracte federale. Dacă draftul va fi adoptat în forma descrisă, companiile de AI vor trebui să aleagă între acceptarea unei utilizări foarte largi a modelelor în sectorul public și renunțarea la o parte din controlul contractual asupra modului în care tehnologia lor este folosită de stat.
Recomandate

Claude, chatbotul dezvoltat de Anthropic, a devenit aplicația gratuită numărul 1 în App Store , iar compania spune că platforma câștigă peste un milion de utilizatori noi în fiecare zi , într-un context tensionat generat de disputa dintre firmă și administrația americană. Ascensiunea rapidă vine după ce guvernul SUA a decis să interzică folosirea tehnologiei Anthropic de către agențiile federale, potrivit unei analize publicate de The Decoder . Ascensiune rapidă pentru Claude Aplicația Claude a urcat spectaculos în clasamentele Apple App Store. Conform datelor Sensor Tower citate de presa internațională, aplicația se afla pe locul 131 în SUA la sfârșitul lunii ianuarie , a intrat în top 20 în februarie , iar pe 28 februarie a ajuns pe primul loc . Claude a devenit cea mai descărcată aplicație gratuită pentru iPhone în mai multe țări, printre care: Statele Unite Canada Germania Irlanda Luxemburg Reprezentanții Anthropic spun că fiecare zi din ultima săptămână a stabilit un nou record de înscrieri , iar numărul utilizatorilor gratuiti a crescut cu peste 60% din ianuarie . Disputa cu guvernul SUA Explozia de popularitate a venit după un conflict public între Anthropic și administrația americană. Pe 27 februarie , președintele Donald Trump a ordonat agențiilor federale să înceteze imediat utilizarea tehnologiei companiei. În paralel, Departamentul Apărării a catalogat Anthropic drept „risc pentru lanțul de aprovizionare al securității naționale” , ceea ce ar putea afecta colaborarea companiei cu contractorii militari. Decizia a venit după ce CEO-ul Anthropic, Dario Amodei , a refuzat să elimine două restricții importante din contractele companiei: interdicția utilizării AI pentru supravegherea în masă a cetățenilor americani interdicția folosirii AI pentru arme autonome fără control uman Reacția utilizatorilor și impactul asupra ChatGPT Decizia OpenAI de a prelua contractul militar pe care Anthropic îl respinsese a declanșat reacții negative din partea unor utilizatori. Datele Sensor Tower arată că: dezinstalările ChatGPT au crescut cu 295% într-o singură zi descărcările au scăzut cu 13% într-o zi și cu încă 5% în următoarea recenziile de o stea au crescut cu 775% CEO-ul OpenAI, Sam Altman , a admis ulterior că acordul cu Pentagonul a părut „oportunist și grăbit” , iar compania a adăugat ulterior mai multe garanții privind utilizarea tehnologiei. Viitor incert pentru Anthropic Situația rămâne însă incertă. Investitori majori ai companiei, printre care Amazon și Nvidia , ar fi îngrijorați de decizia guvernului american de a considera Anthropic un risc de securitate. Experți juridici citați de publicații precum Lawfare susțin că această desemnare ar putea fi contestată în instanță, mai ales deoarece guvernul american a folosit anterior tehnologia companiei în diverse proiecte. Anthropic a anunțat deja că va contesta decizia în instanță , iar disputa ar putea avea efecte importante asupra pieței globale de inteligență artificială. O lecție pentru industria AI Episodul arată că, într-un moment în care societatea devine tot mai preocupată de modul în care este folosită inteligența artificială, poziționarea etică a companiilor poate deveni un avantaj competitiv major . Pentru moment, această strategie pare să fi adus companiei Anthropic o creștere explozivă a popularității. [...]

Șefa diviziei de robotică a OpenAI a demisionat după acordul companiei cu Pentagonul , invocând îngrijorări legate de utilizarea inteligenței artificiale în supraveghere și sisteme militare. Potrivit The Next Web , Caitlin Kalinowski , responsabilă de programele de hardware și robotică ale companiei, a anunțat public plecarea după aproximativ 16 luni la OpenAI. Într-un mesaj publicat pe rețeaua X, Kalinowski a explicat că decizia este una de principiu și a criticat modul în care a fost gestionat acordul cu Departamentul Apărării al Statelor Unite. „Inteligența artificială are un rol important în securitatea națională, dar supravegherea americanilor fără control judiciar și autonomia letală fără autorizare umană sunt linii care ar fi meritat mai multă deliberare”, a scris ea. Contextul acordului dintre OpenAI și Pentagon Demisia vine după ce OpenAI a încheiat un acord pentru implementarea modelelor sale de inteligență artificială în rețelele clasificate ale Pentagonului. Decizia a venit la scurt timp după ce compania rivală Anthropic a pierdut un contract militar în urma unor negocieri tensionate cu Departamentul Apărării. Anthropic susținuse că modelele sale nu ar trebui folosite pentru supraveghere internă în masă sau arme complet autonome , însă Pentagonul a insistat asupra unor condiții mai largi de utilizare. După blocarea negocierilor, administrația americană a decis să oprească utilizarea tehnologiei Anthropic în agențiile federale. La scurt timp, Sam Altman a anunțat că OpenAI a ajuns la propriul acord cu armata americană. CEO-ul companiei a recunoscut ulterior că procesul a fost „grăbit” și a generat reacții negative. Ce a făcut Kalinowski la OpenAI Caitlin Kalinowski era una dintre cele mai importante figuri din zona de hardware a companiei. Ea fusese recrutată în 2024 pentru a dezvolta programul de „AI fizic” , care vizează integrarea inteligenței artificiale în sisteme robotice și dispozitive hardware. Anterior, Kalinowski a lucrat: aproape 6 ani la Apple , unde a contribuit la dezvoltarea MacBook Pro și Mac Pro peste 9 ani la Meta , unde a condus proiecte de hardware pentru realitate virtuală și ochelari de realitate augmentată La OpenAI, ea a coordonat inclusiv un laborator din San Francisco unde roboți sunt antrenați să execute sarcini domestice. Impactul asupra OpenAI Demisia lasă programul de robotică al companiei fără principalul său lider tehnic într-un moment în care OpenAI încearcă să extindă AI-ul dincolo de software, către dispozitive fizice și sisteme autonome. Reacțiile negative nu s-au limitat la interiorul companiei. După anunțul acordului militar, dezinstalările aplicației ChatGPT ar fi crescut cu aproximativ 295% , iar aplicația rivală Claude , dezvoltată de Anthropic, a urcat pe primul loc în App Store din SUA. OpenAI a declarat că acordul cu Pentagonul include limite clare, printre care interdicția folosirii AI pentru supraveghere internă în masă sau arme autonome , și a subliniat că va continua dialogul cu angajații și societatea civilă privind utilizarea responsabilă a tehnologiei. [...]

Nvidia a investit în Thinking Machines Lab , startupul de inteligență artificială fondat de fosta directoare tehnologică a OpenAI, Mira Murati , într-un parteneriat strategic care prevede utilizarea masivă a cipurilor companiei pentru dezvoltarea unor modele AI de ultimă generație, potrivit informațiilor publicate de The Wall Street Journal . Acordul presupune implementarea a cel puțin un gigawatt de cipuri Nvidia pentru antrenarea și rularea sistemelor de inteligență artificială dezvoltate de Thinking Machines Lab. De asemenea, cele două companii vor colabora pentru a construi infrastructuri dedicate antrenării și implementării modelelor AI la scară foarte mare. Startupul lansat de Mira Murati în februarie 2025 a crescut rapid în industria tehnologică. În iulie 2025, compania a atras 2 miliarde de dolari într-o rundă de finanțare de tip seed , evaluând startupul la aproximativ 12 miliarde de dolari , potrivit datelor publicate de Reuters . Echipa Thinking Machines Lab include mai mulți cercetători importanți din domeniul AI, printre care foști membri ai OpenAI, iar compania lucrează la dezvoltarea unor sisteme multimodale capabile să interacționeze cu utilizatorii prin conversație, imagini și alte forme naturale de comunicare . Investiția face parte din strategia mai amplă a Nvidia de a susține financiar și tehnologic companii care dezvoltă modele de inteligență artificială. Producătorul de cipuri a participat în ultimii ani la finanțări pentru mai multe startupuri majore din domeniu, inclusiv OpenAI, Anthropic, xAI sau Mistral AI. Parteneriatul cu Thinking Machines Lab ar putea folosi noua platformă de hardware Vera Rubin , anunțată de Nvidia pentru 2026, care promite performanțe de inferență mult mai eficiente decât arhitectura actuală Blackwell. [...]

Samsung vrea să transforme smartphone-urile Galaxy într-o platformă „multi-AI” , compania fiind în discuții cu mai multe firme din domeniul inteligenței artificiale pentru a integra modele diferite pe aceleași dispozitive. Potrivit Financial Times , strategia urmărește să ofere utilizatorilor acces simultan la mai multe servicii AI și să reducă dependența de un singur furnizor tehnologic. Președintele diviziei Device Experience (DX) a Samsung, Roh Tae-moon , a declarat că grupul sud-coreean este deschis la noi colaborări cu companii majore din domeniu, inclusiv OpenAI, pe lângă parteneriatele deja existente. Ideea este ca utilizatorii să poată alege între diferite modele de inteligență artificială direct pe smartphone, în funcție de preferințe sau de tipul de aplicație. Strategia „multi-AI phone” Pe cele mai recente modele Galaxy, Samsung a început deja integrarea unor servicii AI dezvoltate de parteneri externi. Printre acestea se numără: Google Gemini , integrat în funcțiile principale de asistență și productivitate Perplexity AI , utilizat pentru căutare și interacțiuni conversaționale avansate Planul companiei este ca viitoarele dispozitive, inclusiv seria Galaxy S26 , să ofere acces la mai multe modele AI, care ar putea fi utilizate pentru sarcini precum asistență vocală, generare de conținut sau căutare inteligentă. De ce vrea Samsung mai multe modele AI Strategia urmărește două obiective principale: diversificarea ecosistemului AI , astfel încât utilizatorii să nu depindă de un singur serviciu crearea unor noi surse de venit , prin abonamente sau funcții premium bazate pe AI În același timp, Samsung încearcă să se diferențieze de rivalii din piața smartphone-urilor, în special de Apple, unde integrarea inteligenței artificiale este mai centralizată în jurul propriului ecosistem. Posibile investiții în startup-uri AI Pe lângă parteneriatele comerciale, compania analizează și investiții în startup-uri din domeniul inteligenței artificiale , precum și integrarea mai profundă a unor servicii AI în aplicațiile sale native, inclusiv în browserul Samsung. Potrivit conducerii companiei, AI mobil ar putea deveni în următorii ani unul dintre principalele criterii de diferențiere între smartphone-uri. În acest context, Samsung încearcă să își consolideze poziția printr-un ecosistem deschis, care să combine tehnologii dezvoltate intern cu modele furnizate de mai multe companii din industrie. [...]

OpenAI renunță la extinderea uriașului centru de date Stargate din Texas , după ce negocierile cu Oracle privind finanțarea și capacitatea necesară au eșuat. Potrivit Tom’s Hardware , proiectul de extindere a campusului din Abilene, statul american Texas, a fost abandonat după luni de discuții complicate între OpenAI, Oracle și operatorul infrastructurii, Crusoe. Campusul face parte din proiectul „Stargate”, anunțat public în 2025 la Casa Albă și prezentat drept unul dintre cele mai ambițioase programe de infrastructură pentru inteligență artificială. Planul inițial prevedea creșterea capacității energetice a centrului de date de la aproximativ 1,2 gigawați la aproape 2 gigawați , ceea ce ar fi transformat instalația într-unul dintre cele mai mari hub-uri dedicate antrenării modelelor AI. Negocierile s-au blocat însă din două motive principale: condiții dificile de finanțare pentru extindere; estimări schimbătoare privind nevoile de capacitate ale OpenAI . Chiar dacă extinderea a fost anulată, proiectul existent continuă. Campusul de aproximativ 1.000 de acri are deja mai multe clădiri funcționale, unde Oracle instalează servere bazate pe hardware Nvidia folosite pentru antrenarea și rularea sistemelor de inteligență artificială. Probleme tehnice și tensiuni între parteneri Pe lângă aspectele financiare, proiectul s-a confruntat și cu dificultăți tehnice. La începutul anului 2026, condițiile meteo de iarnă au afectat infrastructura de răcire cu lichid , ceea ce a dus la oprirea temporară a mai multor clădiri din complex pentru câteva zile. Aceste incidente au tensionat relația dintre Oracle și Crusoe, compania responsabilă de operarea infrastructurii. Meta ar putea prelua capacitatea rămasă După blocarea negocierilor cu OpenAI, operatorul Crusoe a început să caute alți chiriași pentru capacitatea planificată. În acest context, Meta ar putea deveni un posibil utilizator al infrastructurii , deși compania nu a confirmat oficial intenția de a se extinde în campusul din Texas. În paralel, Nvidia ar fi intervenit pentru a sprijini proiectul și pentru a se asigura că centrul de date continuă să utilizeze hardware-ul său. Potrivit informațiilor apărute în presă, compania ar fi oferit un depozit financiar de aproximativ 150 de milioane de dolari pentru a susține dezvoltarea site-ului și pentru a atrage potențiali clienți. Parteneriatul OpenAI – Oracle continuă În ciuda anulării acestei extinderi, colaborarea dintre OpenAI și Oracle nu se oprește. În 2025, cele două companii au convenit dezvoltarea a 4,5 gigawați de capacitate totală pentru centre de date dedicate AI , proiect care include și alte locații din Statele Unite, printre care un site din apropierea orașului Detroit. Pentru comparație, un gigawatt de energie este aproximativ echivalent cu producția unui reactor nuclear , suficientă pentru alimentarea a sute de mii de locuințe la consum maxim. Tocmai cerințele uriașe de energie fac ca proiectele de infrastructură pentru inteligență artificială să devină din ce în ce mai complexe și controversate în comunitățile locale. [...]

Anthropic a publicat un ghid de 33 de pagini despre cum pot fi create „abilități” pentru Claude , un set de instrucțiuni care transformă chatbotul într-un asistent specializat pentru anumite sarcini, precum redactarea documentelor, planificarea proiectelor sau automatizarea unor procese repetitive. Informațiile apar în ghidul oficial , destinat în principal dezvoltatorilor, dar ideea din spatele lui este ușor de înțeles: în loc să explici de fiecare dată ce vrei de la inteligența artificială, îi poți „preda” o procedură pe care o va aplica automat în viitor. Pe scurt, un „skill” (abilitate) este un mic pachet de instrucțiuni și resurse care îi spune lui Claude cum să rezolve un anumit tip de problemă. În practică, este un folder cu un fișier principal numit SKILL.md , în care sunt descrise rolul, condițiile de utilizare și pașii pe care AI-ul trebuie să îi urmeze. Pot exista și fișiere suplimentare – scripturi, documentație sau modele de documente – pe care Claude le poate consulta atunci când execută sarcina. Conceptul este comparat în ghid cu o bucătărie profesională. Conectarea la diverse servicii externe oferă acces la „ingrediente și unelte”, iar skill-urile reprezintă „rețetele”. Cu alte cuvinte, AI-ul nu doar că are acces la date sau aplicații, ci știe și cum să le folosească într-o ordine logică pentru a obține un rezultat util . Autorii ghidului arată că aceste abilități sunt utile mai ales pentru procese repetitive. De exemplu, un skill poate automatiza planificarea unui sprint într-un proiect software: verifică statusul proiectului, analizează capacitatea echipei, propune priorități și creează automat taskuri în aplicația de management. În alte cazuri, skill-urile pot genera documente standardizate, pot organiza cercetări sau pot coordona mai multe servicii digitale într-un flux automat. Potrivit documentației, skill-urile sunt gândite să funcționeze pe mai multe niveluri: o descriere scurtă care îi spune lui Claude când trebuie activată abilitatea, instrucțiuni complete care se încarcă doar când este necesar și fișiere suplimentare consultate la nevoie. Acest sistem reduce consumul de resurse și menține conversațiile rapide. Anthropic susține că această abordare ar putea schimba modul în care sunt folosite modelele AI. În loc să fie simple chatboturi, ele pot deveni asistenți personalizați cu proceduri prestabilite , adaptate pentru companii, echipe sau proiecte specifice. Skill-urile pot fi distribuite și altor utilizatori, iar organizațiile pot instala astfel de „rețete” direct pentru toți angajații. În esență, ghidul arată direcția în care evoluează inteligența artificială: nu doar conversații generale, ci sisteme configurate să execute fluxuri de lucru concrete, aproape ca niște aplicații construite peste un model AI. [...]