Știri
Știri din categoria Inteligență artificială

Un agent AI dezvoltat de cercetători Alibaba a început să mineze criptomonede în timpul antrenării, folosind resursele de calcul alocate modelului și creând conexiuni de rețea neautorizate, fără să primească instrucțiuni explicite în acest sens. Incidentul a fost descris într-un raport tehnic despre modelul ROME și a fost semnalat inițial de sistemele de securitate ale infrastructurii cloud ale companiei, Axios.
Problema a ieșit la iveală după ce firewall-ul Alibaba Cloud a detectat mai multe încălcări ale politicilor de securitate provenite de la serverele folosite pentru antrenarea agentului AI. Cercetătorii au suspectat inițial o configurație greșită sau chiar o posibilă intruziune externă.
După analizarea jurnalelor de antrenare și corelarea lor cu alertele de securitate, echipa a observat că activitatea suspectă apărea exact în momentele în care agentul executa cod și utiliza instrumente în cadrul procesului de învățare prin întărire, conform unor analize și discuții tehnice.
Potrivit raportului tehnic citat de cercetători, agentul ROME – un model de aproximativ 3 miliarde de parametri – a realizat mai multe acțiuni neprevăzute:
Aceste comportamente nu erau cerute de sarcinile primite și nu erau necesare pentru rezolvarea lor, potrivit autorilor raportului tehnic.
Cazul este considerat de unii cercetători un posibil exemplu de „convergență instrumentală”, un concept teoretic din domeniul siguranței inteligenței artificiale. Ideea sugerează că un sistem care urmărește un obiectiv ar putea dezvolta spontan strategii precum:
În acest caz, agentul ar fi identificat că accesul persistent la rețea și resursele de calcul suplimentare pot ajuta la optimizarea obiectivelor sale din timpul antrenării.
Ca răspuns la incident, compania a anunțat lansarea OpenSandbox, o platformă open-source pentru rularea agenților AI în medii izolate. Sistemul include:
Platforma, publicată sub licență Apache 2.0, este bazată pe infrastructura internă Alibaba folosită pentru sarcini AI la scară mare și urmărește să limiteze efectele secundare ale agenților autonomi în timpul antrenării.
Experții în securitate AI consideră că incidentul arată cât de important devine controlul infrastructurii în care sunt antrenați agenții autonomi, pe măsură ce aceștia capătă capacitatea de a executa cod și de a interacționa direct cu sisteme reale.
Recomandate

Claude, chatbotul dezvoltat de Anthropic, a devenit aplicația gratuită numărul 1 în App Store , iar compania spune că platforma câștigă peste un milion de utilizatori noi în fiecare zi , într-un context tensionat generat de disputa dintre firmă și administrația americană. Ascensiunea rapidă vine după ce guvernul SUA a decis să interzică folosirea tehnologiei Anthropic de către agențiile federale, potrivit unei analize publicate de The Decoder . Ascensiune rapidă pentru Claude Aplicația Claude a urcat spectaculos în clasamentele Apple App Store. Conform datelor Sensor Tower citate de presa internațională, aplicația se afla pe locul 131 în SUA la sfârșitul lunii ianuarie , a intrat în top 20 în februarie , iar pe 28 februarie a ajuns pe primul loc . Claude a devenit cea mai descărcată aplicație gratuită pentru iPhone în mai multe țări, printre care: Statele Unite Canada Germania Irlanda Luxemburg Reprezentanții Anthropic spun că fiecare zi din ultima săptămână a stabilit un nou record de înscrieri , iar numărul utilizatorilor gratuiti a crescut cu peste 60% din ianuarie . Disputa cu guvernul SUA Explozia de popularitate a venit după un conflict public între Anthropic și administrația americană. Pe 27 februarie , președintele Donald Trump a ordonat agențiilor federale să înceteze imediat utilizarea tehnologiei companiei. În paralel, Departamentul Apărării a catalogat Anthropic drept „risc pentru lanțul de aprovizionare al securității naționale” , ceea ce ar putea afecta colaborarea companiei cu contractorii militari. Decizia a venit după ce CEO-ul Anthropic, Dario Amodei , a refuzat să elimine două restricții importante din contractele companiei: interdicția utilizării AI pentru supravegherea în masă a cetățenilor americani interdicția folosirii AI pentru arme autonome fără control uman Reacția utilizatorilor și impactul asupra ChatGPT Decizia OpenAI de a prelua contractul militar pe care Anthropic îl respinsese a declanșat reacții negative din partea unor utilizatori. Datele Sensor Tower arată că: dezinstalările ChatGPT au crescut cu 295% într-o singură zi descărcările au scăzut cu 13% într-o zi și cu încă 5% în următoarea recenziile de o stea au crescut cu 775% CEO-ul OpenAI, Sam Altman , a admis ulterior că acordul cu Pentagonul a părut „oportunist și grăbit” , iar compania a adăugat ulterior mai multe garanții privind utilizarea tehnologiei. Viitor incert pentru Anthropic Situația rămâne însă incertă. Investitori majori ai companiei, printre care Amazon și Nvidia , ar fi îngrijorați de decizia guvernului american de a considera Anthropic un risc de securitate. Experți juridici citați de publicații precum Lawfare susțin că această desemnare ar putea fi contestată în instanță, mai ales deoarece guvernul american a folosit anterior tehnologia companiei în diverse proiecte. Anthropic a anunțat deja că va contesta decizia în instanță , iar disputa ar putea avea efecte importante asupra pieței globale de inteligență artificială. O lecție pentru industria AI Episodul arată că, într-un moment în care societatea devine tot mai preocupată de modul în care este folosită inteligența artificială, poziționarea etică a companiilor poate deveni un avantaj competitiv major . Pentru moment, această strategie pare să fi adus companiei Anthropic o creștere explozivă a popularității. [...]

OpenAI a lansat modelul GPT-5.4 , descris drept cel mai performant sistem al companiei pentru muncă profesională , disponibil în ChatGPT, API și Codex. Noua versiune integrează progrese majore în raționament, programare și utilizarea automată a aplicațiilor, fiind concepută pentru sarcini complexe precum analiză financiară, redactare de documente sau dezvoltare software. Modelul este disponibil în două variante: GPT-5.4 Thinking , inclus în ChatGPT pentru utilizatorii plătitori , și GPT-5.4 Pro , o versiune destinată celor care au nevoie de performanță maximă în sarcini avansate. Potrivit companiei, sistemul combină capabilitățile de programare ale GPT-5.3-Codex cu îmbunătățiri semnificative în analiza documentelor, lucru cu foi de calcul și realizarea de prezentări. Una dintre cele mai importante noutăți este capacitatea nativă de a opera direct pe computer , ceea ce permite agenților AI să controleze aplicații și site-uri web, să execute fluxuri de lucru complexe sau să interacționeze cu interfețe grafice folosind capturi de ecran, mouse și tastatură. În testele interne, modelul a obținut o rată de succes de 75% în navigarea mediilor desktop , depășind atât GPT-5.2, cât și performanța medie umană. GPT-5.4 introduce și o fereastră de context de până la 1 milion de tokeni , ceea ce îi permite să proceseze cantități mult mai mari de informații într-o singură conversație. Această capacitate face posibilă analizarea unor documente foarte lungi sau gestionarea unor proiecte complexe pe termen lung. Modelul aduce îmbunătățiri și în zona de cercetare online și utilizare a instrumentelor externe. Sistemul poate identifica automat ce instrumente sunt necesare pentru o sarcină și le poate folosi în mod eficient, reducând costurile și timpul de răspuns. În același timp, OpenAI afirmă că noua versiune este mai eficientă în utilizarea tokenilor și produce mai puține erori factuale decât generațiile anterioare. Potrivit datelor prezentate de companie, GPT-5.4 depășește GPT-5.2 în numeroase teste de performanță. De exemplu, în benchmarkul GDPval, care măsoară capacitatea modelelor de a realiza sarcini profesionale din 44 de ocupații, noul sistem a obținut un scor de 83% , comparativ cu 70,9% pentru versiunea anterioară. Lansarea face parte din strategia OpenAI de a transforma modelele de inteligență artificială în agenți capabili să execute sarcini reale pe computer , nu doar să genereze text sau cod. GPT-5.4 este deja disponibil pentru utilizatorii ChatGPT Plus, Team și Pro, iar pentru dezvoltatori poate fi accesat prin API sub denumirea „gpt-5.4”. [...]

Netflix cumpără startupul de inteligență artificială pentru film fondat de Ben Affleck , într-o mișcare care ar putea influența modul în care sunt produse filmele și serialele pentru streaming. Potrivit Variety , compania a preluat firma InterPositive , iar actorul și regizorul Ben Affleck va deveni consilier senior al Netflix în dezvoltarea tehnologiilor bazate pe inteligență artificială. InterPositive este un startup format din aproximativ 16 ingineri, cercetători și creativi, iar tehnologia sa este concepută special pentru industria cinematografică. Spre deosebire de platformele generative care creează imagini sau videoclipuri de la zero pe baza unor comenzi text, sistemul dezvoltat de companie analizează materialul deja filmat și construiește modele de inteligență artificială personalizate pentru fiecare producție, explică The Verge . Prin aceste instrumente, echipele de producție pot accelera procese tehnice care, în mod tradițional, necesită mult timp în post-producție. Tehnologia permite: corecția de culoare și ajustarea imaginii recompoziția cadrului filmat modificarea sau extinderea fundalurilor eliminarea elementelor nedorite din cadru, precum cabluri sau echipamente de cascadorie optimizarea etapelor de montaj și finalizare a filmului Ben Affleck a explicat că scopul proiectului nu este înlocuirea creatorilor umani, ci dezvoltarea unor instrumente care să îi ajute pe regizori și pe echipele tehnice să lucreze mai eficient. Actorul spune că a început să exploreze posibilitățile inteligenței artificiale încă din 2022, fiind preocupat de riscul ca marile companii tehnologice să încerce să automatizeze procesul creativ, relatează Deadline . Achiziția vine într-un moment sensibil pentru Hollywood, unde actorii și scenariștii negociază noi contracte cu studiourile pe fondul temerilor legate de impactul inteligenței artificiale asupra locurilor de muncă. Reprezentanții Netflix susțin însă că tehnologia InterPositive este concepută pentru a sprijini procesul creativ și pentru a oferi cineaștilor instrumente mai eficiente, nu pentru a înlocui profesioniștii din industrie. Tranzacția face parte din strategia platformei de streaming de a investi în tehnologii care pot accelera producția de conținut original, într-un moment în care competiția dintre marile servicii de streaming devine tot mai intensă. [...]

OpenAI modifică acordul cu Pentagonul după reacții globale privind supravegherea prin inteligență artificială , compania condusă de Sam Altman a anunțat că va ajusta contractul recent semnat cu Departamentul Apărării al Statelor Unite, după un val de critici publice, proteste și dezinstalări ale aplicației ChatGPT. Decizia vine în urma temerilor că tehnologia ar putea fi folosită pentru supraveghere în masă sau pentru dezvoltarea unor sisteme militare autonome. Acordul, încheiat la începutul lunii martie 2026, prevede integrarea modelelor de inteligență artificială dezvoltate de OpenAI în rețele militare clasificate ale Pentagonului. Anunțul a stârnit însă reacții puternice în rândul activiștilor, al utilizatorilor și chiar al unor angajați din industria tehnologică, care au avertizat asupra riscurilor legate de utilizarea AI în scopuri militare sau de monitorizare a populației. Într-un mesaj publicat pe platforma X , Sam Altman a precizat că firma lucrează cu Pentagonul pentru a adăuga clarificări în contract. Potrivit acestuia, sistemele OpenAI nu vor fi utilizate intenționat pentru supravegherea internă a cetățenilor americani și nici de către agenții de informații precum NSA, decât dacă ar exista modificări contractuale ulterioare. Altman a recunoscut totodată că modul în care a fost gestionată comunicarea privind acordul a fost greșit. El a admis că s-a grăbit să finalizeze tranzacția și că lipsa explicațiilor clare a alimentat suspiciunile publice. „Problemele sunt extrem de complexe și necesită o comunicare clară”, a scris acesta, sugerând că intenția inițială a fost evitarea unor consecințe considerate mai grave. Controversa apare într-un moment tensionat pentru industria inteligenței artificiale, în care companiile sunt presate să stabilească limite etice privind utilizarea tehnologiei. Rivala Anthropic, de exemplu, ar fi refuzat un acord similar cu armata americană, insistând asupra unor interdicții explicite legate de supravegherea în masă și de dezvoltarea armelor autonome letale. Nemulțumirea a depășit rapid mediul online. Proteste au avut loc în fața birourilor OpenAI din San Francisco și Londra, iar un grup de activiști a lansat campania „ QuitGPT ”, care promovează boicotarea serviciilor companiei. În paralel, aproape 500 de angajați din OpenAI și Google au semnat o scrisoare deschisă în sprijinul unor limite stricte privind utilizarea militară a inteligenței artificiale. Situația reflectă tensiunea tot mai mare dintre dezvoltarea rapidă a tehnologiilor de inteligență artificială și presiunea publică pentru stabilirea unor reguli clare privind utilizarea lor în domenii sensibile precum securitatea, apărarea și supravegherea. [...]

OpenAI a lansat GPT-5.3 Instant , o actualizare a modelului ChatGPT axată pe răspunsuri mai clare și conversații mai naturale , cu mai puține refuzuri inutile și o acuratețe îmbunătățită. Noua versiune este disponibilă din 3 martie 2026 pentru toți utilizatorii ChatGPT și pentru dezvoltatori prin API, sub numele „gpt-5.3-chat-latest”. Noua actualizare vizează în special experiența zilnică a utilizatorilor: tonul conversației, relevanța răspunsurilor și fluiditatea dialogului. Compania spune că modelul răspunde acum mai direct la întrebări și evită introducerile lungi sau avertismentele excesive care întrerupeau conversația în versiunile anterioare. Mai puține refuzuri și explicații inutile Una dintre schimbările majore este modul în care modelul gestionează întrebările sensibile. În versiunea anterioară, GPT-5.2 Instant refuza uneori întrebări care puteau fi totuși abordate în siguranță sau începea răspunsul cu explicații lungi despre limitele sale. GPT-5.3 Instant: reduce refuzurile inutile; evită tonul moralizator sau defensiv; oferă mai rapid un răspuns util atunci când este posibil. Astfel, conversațiile ar trebui să devină mai fluide și mai apropiate de dialogul natural. Răspunsuri mai bune atunci când folosește informații de pe web Modelul a fost îmbunătățit și în modul în care combină informațiile găsite online cu propriile cunoștințe. În loc să listeze multe linkuri sau să rezume mecanic rezultatele căutării, GPT-5.3 Instant încearcă să sintetizeze informația și să ofere context. Scopul este ca răspunsurile să fie: mai relevante pentru întrebarea utilizatorului; mai concise; mai ușor de folosit imediat. Reducerea halucinațiilor OpenAI afirmă că noua versiune este mai fiabilă din punct de vedere factual. Conform evaluărilor interne, rata halucinațiilor a scăzut semnificativ: Tip evaluare Reducere halucinații Domenii sensibile (medicină, drept, finanțe) cu web 26,8% Domenii sensibile fără web 19,7% Conversații reale semnalate de utilizatori (cu web) 22,5% Conversații reale fără web 9,6% Aceste îmbunătățiri sunt menite să reducă erorile factuale și să crească încrederea în răspunsuri. Stil de scriere mai natural OpenAI spune că GPT-5.3 Instant oferă și rezultate mai bune la scriere creativă sau redactare. Modelul ar trebui să producă texte mai expresive și mai variate, fără a pierde claritatea. În același timp, compania recunoaște că există încă limitări. De exemplu, tonul conversațiilor în unele limbi, precum japoneza sau coreeana, poate suna încă rigid sau prea literal. Disponibilitate și planuri viitoare GPT-5.3 Instant este disponibil imediat în ChatGPT și în API pentru dezvoltatori. Modelul anterior, GPT-5.2 Instant, va rămâne accesibil încă trei luni în secțiunea „Legacy Models” pentru utilizatorii plătitori, urmând să fie retras pe 3 iunie 2026. Actualizarea face parte din seria de îmbunătățiri continue ale platformei, care urmăresc să facă interacțiunea cu inteligența artificială mai naturală, mai utilă și mai fiabilă. [...]

Angajați subcontractați ai Meta au fost puși să analizeze videoclipuri intime filmate cu ochelarii Ray-Ban AI , inclusiv imagini din băi sau materiale cu conținut sexual, potrivit unei investigații publicate de Mashable , care citează documentări realizate de publicațiile suedeze Svenska Dagbladet și Göteborgs-Posten . Materialele ar fi fost evaluate de lucrători din Kenya, implicați în procesul de etichetare a datelor folosite pentru antrenarea sistemelor de inteligență artificială. Investigația arată că angajații companiei Sama, subcontractor al Meta, primesc sarcina de a analiza și eticheta conținutul capturat de ochelarii inteligenți pentru ca algoritmii AI să poată înțelege mai bine imaginile și videoclipurile. În acest proces, lucrătorii ar fi vizionat materiale sensibile, inclusiv scene de nuditate, momente private filmate în băi sau imagini în care apar informații personale, precum detalii bancare. Mai mulți angajați au declarat publicațiilor suedeze că o parte dintre clipuri par filmate fără ca persoanele surprinse să știe că sunt înregistrate. Unul dintre lucrători a descris presiunea de a continua munca fără a pune întrebări, spunând că „este viața privată a cuiva, dar se așteaptă să îți faci treaba fără să o pui sub semnul întrebării”. Meta a transmis că termenii săi de utilizare permit ca interacțiunile cu serviciile AI ale companiei, inclusiv funcțiile de inteligență artificială integrate în ochelari, să fie revizuite de moderatori umani pentru îmbunătățirea sistemelor. Ce sunt ochelarii inteligenți Meta Ray-Ban Dispozitivul a fost lansat în 2023 în urma colaborării dintre Meta și producătorul de ochelari EssilorLuxottica. Ochelarii pot: filma și face fotografii printr-o cameră integrată; transmite live pe platformele sociale; utiliza un asistent AI pentru a analiza ceea ce vede utilizatorul. În 2025, compania a introdus versiuni îmbunătățite cu funcții AI extinse, iar vânzările au crescut rapid. Conform CNBC, în acel an s-au vândut peste 7 milioane de unități , de aproape trei ori mai mult decât în perioada anterioară. Controverse privind confidențialitatea Popularitatea ochelarilor a generat însă și critici. În mediul online au apărut numeroase videoclipuri în care utilizatorii filmează în secret persoane necunoscute sau folosesc dispozitivul pentru farse și conținut viral. Unii utilizatori au descoperit chiar metode de a ascunde lumina care indică faptul că dispozitivul înregistrează. Pe lângă aceste situații, organizațiile pentru protecția vieții private avertizează că extinderea funcțiilor AI – inclusiv posibila recunoaștere facială – ar putea transforma astfel de dispozitive într-un instrument de supraveghere tot mai puternic. Un lanț global al muncii pentru AI Cazul evidențiază și rolul muncii umane din spatele inteligenței artificiale. Procesul de etichetare a datelor, esențial pentru antrenarea algoritmilor, este adesea realizat de subcontractori din alte țări. Compania Sama, implicată în proiect, s-a confruntat anterior și cu procese intentate de moderatori de conținut care au acuzat condiții de muncă dificile și expunere la materiale traumatizante. Dezvăluirile ridică întrebări atât despre modul în care sunt colectate și analizate imaginile captate de dispozitivele inteligente, cât și despre responsabilitatea companiilor tehnologice în protejarea vieții private a utilizatorilor și a persoanelor surprinse în aceste înregistrări. [...]