Știri
Știri din categoria Inteligență artificială

Meta a confirmat o breșă de securitate provocată de un agent AI intern, potrivit Biziday, după ce un răspuns greșit generat de sistem a dus la publicarea temporară a unor date sensibile pe un forum intern accesibil angajaților.
Incidentul a pornit de la o solicitare obișnuită: un inginer a cerut ajutor pentru rezolvarea unei erori tehnice pe un forum destinat angajaților Meta. Un alt inginer a văzut postarea și a apelat la un agent AI intern pentru asistență.
Problema, conform cronologiei prezentate de companie, a fost că agentul AI nu s-a limitat la a propune o soluție, ci a publicat singur răspunsul pe forum, fără aprobarea explicită a utilizatorului. Cu alte cuvinte, sistemul a acționat autonom, iar inginerul nu a mai avut ocazia să verifice dacă recomandarea este corectă și sigură de făcut publică.
Inginerul care ceruse inițial ajutorul a văzut răspunsul și a aplicat metoda sugerată, ceea ce a generat erori suplimentare și a dus la expunerea unei cantități mari de date interne către alți ingineri care nu aveau dreptul să le acceseze. Meta precizează că breșa a durat aproximativ două ore și susține că nu există indicii că datele utilizatorilor ar fi fost folosite abuziv.
Cazul se înscrie într-o serie mai largă de incidente asociate introducerii accelerate a agenților AI în companiile tehnologice din SUA. Luna trecută, relatează Biziday, Financial Times a scris că Amazon a avut probleme tehnice după introducerea unor instrumente bazate pe AI în sistemele interne, iar ulterior mai mulți angajați au declarat pentru The Guardian că integrarea AI în activitatea lor a dus la erori, inclusiv cod scris neglijent și scăderea productivității.
În paralel, agenții AI autonomi – sisteme capabile să execute sarcini fără intervenție umană directă – devin mai răspândiți, dar și mai greu de controlat. În material este menționat exemplul OpenClaw, un asistent AI care a produs deja incidente, inclusiv ștergerea completă a unor inboxuri sau pierderi financiare, precum și instrumente de tip Claude Code, care pot gestiona activități variate, de la programare la sarcini personale, ceea ce amplifică riscurile.
Meta a încadrat incidentul la nivelul „Sev 1”, al doilea cel mai ridicat nivel de gravitate în sistemul intern de evaluare a problemelor de securitate. Specialiștii citați în articol indică drept vulnerabilitate majoră „lipsa de context” a acestor agenți: spre deosebire de un angajat, care înțelege din experiență ce sisteme sunt critice și ce acțiuni sunt periculoase, un agent AI operează pe baza instrucțiunilor primite și a unei „memorii” limitate, ceea ce poate duce la decizii greșite cu efecte serioase. În același timp, compania spune că rămâne optimistă privind potențialul agenților AI autonomi și notează că, săptămâna trecută, a cumpărat Moltbook, un site de socializare asemănător Reddit, unde agenții OpenClaw pot comunica între ei.
Recomandate

xAI ar folosi doar 11% dintr-o flotă de 550.000 de GPU-uri NVIDIA , potrivit Wccftech , care citează un raport despre nivelul de utilizare a infrastructurii de calcul pentru inteligență artificială (IA). Ce arată datele și de ce contează Publicația notează că, în timp ce xAI ar valorifica puțin peste 10% din capacitatea instalată, rivali precum Meta și Google ar ajunge la rate de utilizare de 43–46% din propriile flote de GPU-uri. Diferența este importantă deoarece GPU-urile (procesoare grafice folosite masiv la antrenarea și rularea modelelor IA) sunt scumpe, iar eficiența utilizării lor influențează direct costurile și viteza de dezvoltare. În articol, Wccftech pune această performanță mai slabă pe seama „optimizărilor lipsite de rezultate” la nivelul „stivei software” pentru IA (ansamblul de programe, biblioteci și instrumente care coordonează antrenarea și rularea modelelor pe hardware). Cu alte cuvinte, nu doar numărul de cipuri contează, ci și cât de bine este folosită infrastructura prin software. „xAI este, potrivit relatărilor, capabilă să utilizeze doar puțin peste 10% din întreaga sa flotă de GPU-uri NVIDIA.” Sursa informațiilor și contextul din industrie Wccftech indică drept sursă primară un material al publicației The Information, care ar fi raportat că xAI, compania lui Elon Musk, utilizează doar o mică parte din capacitatea totală de GPU instalată. În același context, articolul amintește că xAI dezvoltă „Gorq” și alte componente bazate pe IA (formulare preluată din textul sursă). Mesajul mai larg este că blocajele din „stiva software” nu ar fi o problemă izolată, ci una întâlnită în industrie. În practică, astfel de blocaje pot apărea din configurarea și programarea sarcinilor de lucru, comunicarea între servere, gestionarea memoriei sau din modul în care sunt integrate bibliotecile de antrenare. Reperele numerice menționate În forma prezentată de Wccftech, comparația dintre companii se reduce la câteva cifre-cheie: xAI: ~11% utilizare dintr-o flotă de 550.000 de GPU-uri NVIDIA (potrivit relatărilor) Meta: 43–46% utilizare din flota proprie (conform articolului) Google: 43–46% utilizare din flota proprie (conform articolului) Dacă aceste estimări se confirmă, implicația este că xAI ar putea avea costuri mai mari per unitate de progres (de exemplu, per model antrenat sau per îmbunătățire de performanță), în timp ce competitorii ar obține mai multă „muncă utilă” din aceeași clasă de resurse. În acest stadiu, articolul nu oferă detalii despre metodologia exactă de măsurare a utilizării sau despre intervalul de timp analizat, iar formulările rămân la nivel de „potrivit relatărilor”. [...]

Un nou document depus la instanță arată că Elon Musk a încercat să negocieze o înțelegere cu OpenAI cu doar două zile înainte de începerea procesului , într-un litigiu care poate avea efecte directe asupra conducerii companiei și, implicit, asupra competiției din industria inteligenței artificiale, potrivit CNN . Conform documentului depus duminică seară de OpenAI, Musk i-a trimis pe 25 aprilie un mesaj președintelui OpenAI, Greg Brockman, „pentru a sonda interesul pentru o înțelegere”. Procesul a început săptămâna trecută la un tribunal federal din Oakland, California, iar miza, așa cum este descrisă în material, include posibilitatea ca directorul general Sam Altman și Brockman să fie îndepărtați din board-ul OpenAI dacă Musk obține câștig de cauză. În același document, OpenAI susține că, după ce Brockman ar fi sugerat ca ambele părți să renunțe la pretențiile reciproce, Musk ar fi răspuns cu un mesaj dur: „Până la sfârșitul acestei săptămâni, tu și Sam veți fi cei mai urâți bărbați din America. Dacă insistați, așa să fie.” De ce contează: procesul poate influența guvernanța OpenAI și dinamica pieței AI Musk a dat în judecată OpenAI și liderii săi, susținând că ar fi încălcat un „trust caritabil” și că s-ar fi îmbogățit nejustificat prin tranziția de la o organizație non-profit la structura actuală. Potrivit CNN, OpenAI funcționează acum ca o „for-profit benefit corporation” (o companie cu scop lucrativ, dar cu obligații declarate de interes public), supravegheată de o fundație non-profit. Musk, cofondator și finanțator inițial al OpenAI, a afirmat în instanță că ar fi fost indus în eroare să doneze bani pentru a construi ceea ce a devenit una dintre cele mai mari companii de inteligență artificială din lume, acuzând conducerea că ar fi „furat o organizație caritabilă”, potrivit relatării. Poziția OpenAI și disputa pe probe OpenAI susține, la rândul său, că Musk ar fi împins chiar el compania spre o structură cu scop lucrativ și că demersul juridic ar urmări, de fapt, să lovească un competitor, după ce nu a reușit să păstreze controlul asupra organizației. Musk a părăsit board-ul OpenAI în 2018 și a fondat xAI în 2023. Avocații OpenAI au încercat să introducă mesajele lui Musk ca probe, argumentând că acestea ar indica „motiv și părtinire” și că ar susține ideea că procesul este folosit pentru a ataca un competitor și conducerea acestuia. Judecătoarea Yvonne Gonzalez Rogers a respins însă cererea, spunând că mesajele ar fi trebuit depuse ca probă în timpul mărturiei lui Musk. Avocatul lui Musk nu a răspuns imediat solicitării de comentariu, mai notează CNN. Ce urmează În următoarele săptămâni sunt așteptați să depună mărturie Brockman, Altman și alte nume importante din industria tehnologiei, potrivit articolului. În paralel, OpenAI a prezentat în instanță elemente care, spune compania, ar arăta că Musk a susținut o structură cu scop lucrativ, inclusiv dovezi că ar fi cerut asociaților să înregistreze o corporație pe numele OpenAI. De cealaltă parte, avocații lui Musk au prezentat mesaje din 2022 în care acesta îi spunea lui Altman că evaluarea de 20 de miliarde de dolari a OpenAI după investiția de 10 miliarde de dolari a Microsoft i s-a părut un „bait and switch” (o practică în care condițiile percepute inițial sunt schimbate ulterior în defavoarea celeilalte părți), iar Altman i-ar fi răspuns că „este de acord că se simte rău”, menționând totodată că Musk a refuzat participația oferită de OpenAI. [...]

AROBS spune că incertitudinea legată de efectele inteligenței artificiale apasă deja piața IT , în condițiile în care companiile încearcă să transforme tehnologia într-un avantaj competitiv, dar fără o vizibilitate reală asupra modului în care se vor schimba cererea și modelele de livrare. Declarațiile au fost făcute de Voicu Oprean, CEO și fondator al AROBS Transilvania Software , la conferința ZF Capital Markets 2026 , potrivit Ziarul Financiar . AROBS Transilvania Software (BVB: AROBS), companie antreprenorială românească de tehnologie listată la Bursa de Valori București, a ajuns în 2025 la afaceri consolidate de 100 milioane de dolari (aprox. 444 milioane lei) și „mizează în continuare pe creștere”, în pofida efectelor negative venite din industria auto. „Impactul AI asupra industriei IT este încă destul de necunoscut. Nu știe nimeni ce va fi, iar asta creează o presiune în piață. Poate fi un avantaj sau o amenințare.” În același timp, Oprean a spus că AROBS folosește „AI continuu” pentru a genera valoare pentru clienți, însă compania rămâne expusă la „o scădere dramatică” a pieței de automotive, începută în 2023, pe care încearcă să o compenseze prin alte verticale. Presiune dublă: AI schimbă regulile, iar automotive trage în jos Mesajul transmis de conducerea AROBS pune în prim-plan o problemă operațională pentru industria IT: incertitudinea privind AI nu este doar o temă de strategie pe termen lung, ci un factor care influențează deciziile curente din piață, inclusiv modul în care furnizorii își poziționează serviciile și își calibrează investițiile. Pe partea de cerere, compania indică faptul că scăderea din automotive – începută în 2023 – continuă să afecteze businessul, chiar dacă este parțial compensată prin alte segmente. Creștere prin extindere internațională și achiziții Ca direcție de business, AROBS își menține strategia de extindere internațională, cu focus pe Statele Unite și Uniunea Europeană, și analizează oportunități de fuziuni și achiziții (M&A) pentru accelerarea creșterii și extinderea capabilităților tehnologice. În acest context, compania a realizat anul trecut prima tranzacție în SUA, prin achiziția pachetului majoritar în Codingscape, o firmă americană specializată în consultanță tehnologică, design și dezvoltare software personalizată pentru clienți enterprise. [...]

România ar putea avea, din 2027, o infrastructură dedicată pentru servicii de inteligenţă artificială , odată cu proiectul european RO AI Factory găzduit de Institutul Naţional de Cercetare şi Dezvoltare în Informatică (ICI Bucureşti) , potrivit Antena 3 . Miza, dincolo de eticheta de „premieră”, este una operaţională: ICI spune că începe să construiască un ecosistem şi invită explicit companii şi instituţii să intre ca parteneri, ceea ce poate influenţa accesul la capacităţi de calcul şi servicii AI în România. Directorul general al ICI Bucureşti, Adrian-Victor Vevera, a declarat că „prima fabrică de inteligenţă artificială din România” ar putea deveni funcţională în prima parte a anului 2027, cu o ţintă orientativă în lunile martie–mai, în funcţie de evoluţia proiectului. Declaraţiile au fost făcute la deschiderea evenimentului „Bucharest Leaders Summit: United for a Better World”, informaţia fiind atribuită de Antena 3 agenţiei Agerpres. Ce este RO AI Factory şi cine intră în consorţiu Proiectul este prezentat ca parte a unei reţele europene aflate într-un „al treilea val” de dezvoltare, iar ICI Bucureşti este „hosting entity” (entitatea-gazdă) pentru implementare. Componenta de servicii ar urma să fie dezvoltată împreună cu un consorţiu din care, conform declaraţiilor citate, fac parte: Politehnica Bucureşti; Consiliul Naţional al Întreprinderilor Mici şi Mijlocii; Institutul de Inteligenţă Artificială din Cluj; Institutul de Bioresurse. Vevera a legat proiectul de implicarea ICI în proiecte europene de „Hypercomputing” (calcul de înaltă performanţă) şi de colaborarea într-un proiect gestionat de Barcelona Supercomputing Center , descris ca o „fabrică de inteligenţă artificială” construită pe structura supercomputerului din Barcelona. Ce urmează: deschiderea către parteneri şi utilizarea în economie ICI afirmă că a început construirea ecosistemului RO AI Factory şi că a lansat invitaţii către zona privată, publică, de cercetare şi academică pentru parteneriat. Mesajul instituţiei este că inteligenţa artificială ar trebui folosită ca instrument pentru creşterea capacităţii şi a randamentului, nu pentru a înlocui decizia umană. Separat, şeful ICI a plasat tehnologia şi în zona de securitate, inclusiv prin prisma riscurilor de manipulare a datelor (de tip „deepfake”) şi a importanţei seturilor de date, pe care le-a descris ca devenind o „armă” în conflictele viitoare. În acelaşi context a menţionat şi Palantir, ca exemplu de aplicaţii folosite în zona de securitate. În acest moment, calendarul rămâne condiţionat de „cum o să evolueze” proiectul, iar articolul nu include detalii despre buget, capacitate tehnică sau model comercial de acces pentru companii. [...]

Un mesaj atribuit lui Elon Musk, cu tentă de intimidare, riscă să devină probă-cheie în procesul OpenAI , după ce compania a cerut instanței să permită audierea lui Greg Brockman despre o comunicare prealabilă începerii procesului, potrivit Ars Technica . OpenAI susține, într-un document depus duminică la dosar, că Musk i-a scris președintelui OpenAI, Greg Brockman, cu două zile înainte de debutul procesului, pentru a „testa” interesul pentru o înțelegere. Brockman ar fi răspuns rapid, propunând ca „ambele părți” să renunțe la pretenții, însă Musk ar fi refuzat și ar fi escaladat tonul. În mesajul redat de OpenAI, Musk ar fi spus: „Până la finalul acestei săptămâni, tu și Sam veți fi cei mai urâți oameni din America. Dacă insistați, așa să fie.” De ce contează: excepția care poate face admisibilă o discuție de „settlement” În mod obișnuit, comunicările din negocieri de împăcare (settlement) nu sunt admisibile ca probe. Totuși, OpenAI invocă o excepție pe care instanța ar fi acceptat-o într-un litigiu anterior al lui Musk – procesul din 2022 în care a încercat să se retragă din achiziția Twitter. În acel schimb de mesaje, echipa juridică a lui Musk ar fi propus „renegocierea” prețului pentru a închide procesul, dar ar fi amenințat că „ar fi Al Treilea Război Mondial până la sfârșitul timpului, pe bune” pentru liderii Twitter și „moștenitorii” lor dacă Musk era forțat să cumpere compania la prețul stabilit (despre care Ars Technica amintește că a fost legat de o glumă cu „420”). OpenAI folosește acest precedent pentru a argumenta că și mesajul către Brockman ar trebui tratat ca probă relevantă privind motivațiile lui Musk. Impact procedural: Brockman ar putea depune mărturie despre mesaj Dacă judecătorul admite cererea OpenAI, Brockman ar putea depune mărturie despre mesaj atunci când va urca la bară, „probabil” chiar în ziua respectivă și a doua zi, potrivit publicației. OpenAI sugerează că mesajul ar putea arăta „adevăratele motive” ale lui Musk în acest litigiu. Cererea OpenAI este detaliată într-un document depus la dosar, disponibil aici: court filing . Context: Musk a încercat să închidă litigiul chiar înainte de proces Potrivit materialului, Musk a încercat să ajungă la o înțelegere „cu doar câteva zile” înainte de începerea procesului, în care el acuză că, sub conducerea lui Sam Altman, OpenAI și-ar fi abandonat misiunea de a funcționa ca organizație non-profit care dezvoltă inteligență artificială „în beneficiul umanității”. Procesul a început săptămâna trecută, iar Musk a fost primul martor. Ars Technica notează că el „s-a poticnit” de mai multe ori la audieri, inclusiv prin concesii, iritabilitate și retragerea unor afirmații privind riscurile existențiale ale IA, precum și prin recunoașterea unor limite de cunoaștere privind siguranța IA la propria companie, xAI. (Context suplimentar: Musk stumbled several times .) În acest cadru, admiterea mesajului către Brockman ar putea adăuga o nouă vulnerabilitate pentru Musk, în special dacă instanța acceptă argumentul OpenAI că discuția de „settlement” intră într-o excepție și poate fi folosită ca probă. [...]

Anthropic analizează adăugarea unei a patra surse de putere de calcul pentru AI , prin integrarea unor cipuri de inferență de la startup-ul britanic Fractile , într-o mișcare care ar putea reduce dependența de platformele dominante și ar diversifica opțiunile de infrastructură până în 2027, potrivit IT之家 . Informația este atribuită de publicație unui material The Information și indică faptul că discuțiile sunt încă într-un stadiu incipient. Planul vizat ar fi ca Fractile să devină „a patra” categorie de resurse de calcul pentru Anthropic, pe lângă NVIDIA GPU, Amazon Trainium și Google TPU, cu un obiectiv de implementare în 2027. De ce contează: diversificarea infrastructurii și presiune pe costuri Pentru companiile care dezvoltă modele de inteligență artificială, accesul la capacitate de inferență (rularea efectivă a modelelor în producție) este un factor operațional și de cost major. Dacă Anthropic reușește să introducă o alternativă viabilă la GPU-urile NVIDIA și la cipurile proprietare ale marilor furnizori cloud, ar putea obține mai multă flexibilitate în aprovizionare și în negocierea costurilor de calcul. IT之家 notează că Fractile folosește o arhitectură diferită de acceleratoarele AI uzuale (XPU), bazată pe „calcul analogic în memorie” (o abordare în care anumite operații sunt realizate direct în memorie, pentru a reduce transferurile de date). Compania susține că, la rularea „modelelor de top”, ar putea obține: viteze de până la 25 de ori mai mari ; costuri de până la o zecime față de soluțiile curente. Aceste performanțe sunt prezentate ca afirmații ale companiei, fără detalii suplimentare în material privind metodologia sau condițiile de testare. Cine este Fractile și ce se știe despre discuții Fractile este descrisă ca un startup britanic de cipuri, iar IT之家 menționează că a primit anterior o investiție de la Pat Gelsinger, fost director general al Intel. În acest moment, singura certitudine din informațiile disponibile este intenția exploratorie: negocierile sunt „la început”, iar ținta de implementare este 2027, ceea ce lasă loc pentru schimbări de plan, întârzieri sau renunțarea la proiect. [...]