Știri
Știri din categoria Inteligență artificială

Pentagonul amenință că rupe colaborarea cu Anthropic din cauza refuzului companiei de a elimina anumite restricții privind utilizarea inteligenței artificiale în scopuri militare, potrivit Mediafax. Disputa vizează condițiile în care armata americană ar putea folosi modelele AI dezvoltate de companie, inclusiv pentru dezvoltare de arme, colectare de informații și operațiuni pe câmpul de luptă.
Oficialii Departamentului Apărării ar fi solicitat ca marile companii de tehnologie să permită utilizarea instrumentelor lor pentru „toate scopurile legale”, fără restricții suplimentare față de cele aplicate în mediul comercial. Anthropic, dezvoltatorul modelului Claude, nu a acceptat însă eliminarea limitărilor etice, în special în ceea ce privește armele complet autonome și supravegherea la scară largă.
Potrivit relatărilor, relația dintre Pentagon și Anthropic este tensionată după luni de negocieri privind accesul la versiuni ale modelului AI pe rețele clasificate, unde armata dorește utilizarea fără filtrele standard impuse clienților civili. Alte companii majore din domeniu, precum OpenAI, Google și xAI, ar fi ajuns deja la acorduri cu autoritățile americane pentru furnizarea tehnologiilor lor.
Un purtător de cuvânt al Anthropic a precizat că discuțiile cu Pentagonul au vizat politici generale de utilizare și nu operațiuni militare concrete. Totuși, Wall Street Journal a relatat că modelul Claude ar fi fost utilizat, printr-un parteneriat cu Palantir, într-o operațiune militară americană care a vizat capturarea fostului președinte venezuelean Nicolás Maduro, informație care a amplificat presiunea asupra companiei.
Miza este semnificativă: contracte de miliarde de dolari și definirea limitelor etice ale utilizării inteligenței artificiale în domeniul apărării. Decizia privind continuarea sau întreruperea colaborării ar putea influența modul în care tehnologiile AI vor fi integrate în strategiile militare ale SUA în anii următori.
Recomandate

Pentagonul își diversifică furnizorii de IA pentru operațiuni clasificate , după ce a ajuns la un acord cu Google pentru extinderea utilizării modelului generativ Gemini în astfel de misiuni, potrivit Mediafax . Mutarea vine în contextul în care Anthropic, al cărui model Claude era până recent singurul autorizat pentru operațiuni clasificate, este înlocuit treptat, într-o schimbare de strategie a Departamentului Apărării al SUA privind dependența de un singur furnizor, notează Le Figaro. De ce contează: mai multă libertate de utilizare față de contractul anterior Potrivit informațiilor citate de mai multe mass-media americane, acordul cu Google permite utilizarea modelelor de inteligență artificială „în limitele legii”, similar aranjamentelor încheiate și cu OpenAI și xAI. În același timp, această formulare ar oferi Pentagonului o marjă de manevră mai mare decât contractul avut cu Anthropic, care excludea explicit supravegherea în masă a populației civile americane și atacurile letale. În acest context, responsabilul cu inteligența artificială din Pentagon, Cameron Stanley, a argumentat public nevoia de diversificare a furnizorilor. „A depinde prea mult de un singur furnizor nu este niciodată un lucru bun.” Context: ruptura de Anthropic și intrarea OpenAI și xAI La sfârșitul lunii februarie, administrația Trump a decis rezilierea tuturor contractelor cu Anthropic, decizie contestată în instanță de companie. Ulterior, administrația a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul ar urma să dureze câteva luni. Separat, potrivit site-ului The Information (citat în material), și xAI, start-up-ul de inteligență artificială creat de Elon Musk, ar fi încheiat un acord cu Pentagonul după despărțirea de Anthropic. Reacție internă la Google: scrisoare semnată de peste 600 de angajați Acordul cu Pentagonul reaprinde tensiunile interne la Google pe tema colaborării cu armata americană. Luni, o scrisoare semnată de peste 600 de angajați a cerut conducerii să renunțe la furnizarea modelelor companiei pentru operațiuni clasificate. Google a mai trecut printr-un episod similar în 2018, când o mișcare internă a determinat compania să se retragă din proiectul Maven , care folosea inteligența artificială pentru analiza imaginilor colectate de drone. [...]

Google ar putea direcționa până la 40 mld. dolari (aprox. 184 mld. lei) către Anthropic , o companie de inteligență artificială care concurează direct cu propriile sale eforturi, într-o mișcare ce sugerează o strategie de „acoperire a pariurilor” într-o piață în care accesul la modele performante și la capacitate de calcul devine un avantaj economic major, potrivit Android Headlines . Suma menționată în material este prezentată ca un plafon („până la”), ceea ce indică faptul că nu este vorba neapărat de o singură tranzacție imediată, ci de un angajament investițional care poate fi etapizat sau condiționat. În lipsa unor detalii suplimentare în textul disponibil, nu reiese structura exactă a finanțării și nici calendarul. De ce contează: investiție într-un „rival” ca instrument de poziționare Unghiul economic al știrii ține de modul în care un jucător dominant își gestionează riscul și influența într-un sector cu costuri foarte mari. O investiție de asemenea dimensiune într-un concurent direct poate funcționa ca: o modalitate de a păstra accesul la tehnologie și talent, chiar dacă direcțiile interne nu livrează cel mai rapid; un pariu pe mai multe „platforme” de modele, într-o piață în care câștigătorul nu este încă stabilit; o consolidare a poziției în ecosistemul de inteligență artificială, prin finanțarea unor actori cheie. Ce se vede în piață: competiția se mută și în zona capitalului Materialul indică faptul că rivalitatea în inteligența artificială nu se joacă doar la nivel de produse, ci și la nivel de finanțare: cine poate susține costurile de dezvoltare și operare ale modelelor are un avantaj structural. În acest context, faptul că Google ar finanța masiv un competitor direct arată presiunea de a rămâne conectat la cele mai competitive modele, indiferent de „sigla” de pe produs. Ce urmează În forma prezentată de sursă, informația rămâne la nivelul intenției/posibilității („până la 40 de miliarde de dolari”), fără detalii despre termeni, condiții sau aprobări. Relevanța practică va depinde de confirmarea oficială a sumei, de structura investiției și de modul în care aceasta se traduce în acces la tehnologie sau în parteneriate comerciale între cele două companii. [...]

Google a semnat un contract clasificat de AI cu Pentagonul care permite folosirea modelelor sale pentru „orice scop guvernamental legal” , o formulare care, potrivit The Next Web , ar elimina limitările etice pe care alți furnizori au încercat să le includă în acorduri similare. Miza este una operațională și de guvernanță: Departamentul Apărării ar primi o marjă foarte largă de utilizare a AI, în timp ce Google riscă o escaladare a tensiunilor interne legate de politica sa de etică. Informația a fost publicată inițial de The Information, care citează „o persoană familiarizată cu subiectul”. La momentul apariției articolului, Google nu confirmase public și nu comentase acordul. Ce ar permite acordul, potrivit relatării Conform caracterizării din The Information, contractul ar permite Pentagonului să folosească modelele AI ale Google pentru „any lawful government purpose” („orice scop guvernamental legal”), fără „excepțiile” (carve-outs) pe care Anthropic le-ar fi introdus în propriul contract. Articolul notează că Anthropic ar fi refuzat să elimine interdicții contractuale privind: supravegherea internă în masă; arme complet autonome, fără supraveghere umană. În februarie 2026, Anthropic a fost desemnat „risc pentru lanțul de aprovizionare al securității naționale” și trecut pe o listă neagră de administrația Trump, tocmai pe fondul acestor restricții, potrivit aceleiași surse. Efectul în piața furnizorilor de AI „clasificat” pentru armată În acest moment, Pentagonul ar avea acorduri clasificate cu patru dintre cele mai mari companii de AI din SUA: OpenAI, xAI, Google și — până la excludere — Anthropic. The Next Web descrie o diferențiere între abordări: Anthropic a rămas la restricții etice și a fost exclus; OpenAI ar fi renegociat pentru a rămâne furnizor, păstrând unele „linii roșii” privind supravegherea internă; xAI ar fi semnat fără restricții vizibile; Google ar fi acceptat o formulare care pare să ofere Pentagonului cea mai largă discreție. Rezultatul este un „pool” de furnizori în care Anthropic lipsește, iar ceilalți trei au grade diferite, dar „semnificative”, de libertate pentru a furniza capabilități AI în aplicații militare. Presiune internă: scrisoarea a peste 560 de angajați Acordul ar fi fost raportat la câteva ore după ce peste 560 de angajați Google au publicat, luni, o scrisoare deschisă către CEO-ul Sundar Pichai , cerându-i să refuze exact un astfel de aranjament militar clasificat. Publicația subliniază contrastul de calendar: semnatarii scrisorii au cerut oprirea unui tip de contract, iar a doua zi compania ar fi semnat tocmai acel tip de acord. În acest context, Pichai ar putea fi presat să răspundă public și intern, inclusiv în întâlniri cu angajații. Limitări și ce rămâne de urmărit Detaliul-cheie — formularea „orice scop guvernamental legal” — provine, în relatarea citată, dintr-o singură sursă anonimă. În lipsa unei confirmări oficiale din partea Google, termenii exacți ai acordului și modul în care sunt aplicați în practică rămân neclari. Ce merită urmărit în continuare este dacă Google va confirma cadrul contractual și dacă vor exista reacții interne suplimentare, în condițiile în care marile companii de AI încearcă să împace cererea guvernului SUA pentru capabilități clasificate „fără restricții” cu principiile publice de etică adoptate după controversa Project Maven din 2018. [...]

Peste 600 de angajați Google cer oprirea livrării de AI pentru operațiuni militare clasificate , pe fondul discuțiilor companiei cu Pentagonul , ceea ce riscă să complice extinderea Google pe zona contractelor de apărare și să reactiveze tensiunile interne privind utilizările sensibile ale tehnologiei, potrivit Agerpres . Scrisoarea, publicată luni, solicită conducerii să înceteze furnizarea modelelor de inteligență artificială către armata americană pentru operațiuni clasificate. Conform site-ului The Information, Google poartă în prezent discuții cu Departamentul Apărării al SUA pe tema AI, iar printre semnatari se află și mai mulți directori, potrivit unei declarații consultate de AFP. „În stadiul actual, nu există nicio modalitate de a garanta că instrumentele noastre nu vor fi folosite pentru a provoca daune teribile sau a încălca libertățile individuale, departe de priviri.” De ce contează: presiune internă într-un moment în care Pentagonul caută alternative Departamentul Apărării încearcă să-și diversifice furnizorii de inteligență artificială, în condițiile în care se bazează în prezent pe Anthropic , companie cu care se află în litigiu. La sfârșitul lunii februarie, administrația Trump a reziliat toate contractele cu startup-ul din California, decizie contestată în instanță de Anthropic. Ulterior, administrația americană a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul este așteptat să dureze câteva luni. În acest context, opoziția internă de la Google poate deveni un factor operațional în negocierile cu Pentagonul, mai ales pe segmentul proiectelor clasificate, unde controlul utilizării finale este mai greu de demonstrat. Poziția Google și precedentul „Project Maven” La fel ca Anthropic, Google a cerut ca AI-ul său să nu fie folosit pentru supraveghere în masă în Statele Unite sau pentru atacuri letale. Administrația americană consideră însă suficient un angajament de a acționa în cadrul legii. Google este deja contractor al Departamentului Apărării, dar pentru activități neclasificate. În 2018, o mișcare internă a determinat compania să se retragă din Project Maven, un program care folosea inteligența artificială pentru analizarea imaginilor colectate de drone. [...]

Google Translate adaugă o funcție „Practice” cu inteligență artificială care îți corectează pronunția , un pas care mută aplicația din zona de traducere rapidă spre antrenament de vorbire și poate crește timpul petrecut în ecosistemul Google, potrivit Android Headlines . Noua opțiune „Practice” este gândită ca un instrument de exersare: utilizatorul rostește cuvinte sau expresii, iar sistemul folosește inteligența artificială pentru a identifica unde pronunția diferă de forma așteptată și pentru a ajuta la corectare. Din informațiile disponibile în material, accentul este pe feedback-ul de pronunție, nu pe traducere în sine. Ce se schimbă, practic, pentru utilizatori Funcția adaugă un flux de utilizare diferit față de „ascultă și repetă” din traducătoarele clasice, printr-o componentă de evaluare automată a vorbirii. Pe scurt, „Practice” urmărește să transforme Google Translate într-un instrument de învățare mai activ, nu doar într-un dicționar cu redare audio. De ce contează operațional pentru Google Integrarea unei funcții de exersare a pronunției în Translate poate însemna: utilizare mai frecventă a aplicației în contexte de învățare (nu doar „la nevoie”); o poziționare mai directă în zona aplicațiilor de învățare a limbilor, unde diferențiatorul este feedback-ul personalizat; o extindere a rolului inteligenței artificiale în aplicații de masă, cu interacțiuni vocale și evaluare în timp real. Materialul nu oferă detalii despre disponibilitate pe piețe, limbi suportate, calendar de lansare sau condiții comerciale (gratuit/abonament), astfel că impactul exact asupra utilizării și monetizării rămâne deocamdată neclar. [...]

YouTube testează o căutare cu chatbot care poate trimite direct la secvența relevantă dintr-un clip , o schimbare cu impact operațional major: în locul listei clasice de rezultate, utilizatorul primește un răspuns „final” și un video deja poziționat la momentul unde apare informația, potrivit Zonait . Funcția se numește Ask YouTube și este descrisă ca un echivalent al AI Overviews din Google Search, dar aplicat pe conținut video. În practică, utilizatorul formulează o întrebare în limbaj natural, iar interfața conversațională oferă un rezumat cu puncte-cheie și recomandă un clip, inclusiv cu marcaje temporale care indică secvențele relevante. Cine are acces și cât durează testul Experimentul este disponibil, deocamdată, doar într-un cadru limitat: se derulează până pe 8 iunie ; se adresează abonaților YouTube Premium din SUA , cu vârsta de cel puțin 18 ani ; înscrierea se face prin secțiunea YouTube Labs ; după activare, apare un buton nou în bara de căutare , care deschide ecranul de conversație și ocolește căutarea clasică. Zonait notează că funcția este dezvoltată folosind tehnologiile Gemini (modelul de inteligență artificială generativă al Google). De ce contează: schimbă modul în care utilizatorii „descoperă” conținutul Miza operațională este că Ask YouTube poate reduce navigarea prin mai multe rezultate și poate scurta drumul până la informația căutată, prin trimiterea directă la secvența relevantă dintr-un clip. În același timp, această abordare poate limita expunerea la surse alternative: în locul unei liste de videoclipuri (din care utilizatorul compară și alege), interfața oferă un răspuns generat de AI și o recomandare principală. Publicația atrage atenția și asupra unei limitări tipice pentru astfel de sisteme: pentru subiecte mai puțin căutate, interogările Ask YouTube pot returna răspunsuri inexacte sau complet greșite. Google colectează date și impresii pe durata testului, urmând să decidă după 8 iunie dacă funcționalitatea poate fi extinsă către publicul larg sau are nevoie de îmbunătățiri. [...]