Știri
Știri din categoria Inteligență artificială

Armata SUA a folosit inteligența artificială Claude în atacurile asupra Iranului, la doar câteva ore după ce președintele Donald Trump a ordonat oprirea utilizării tehnologiei dezvoltate de compania Anthropic în instituțiile federale, potrivit informațiilor publicate de Moneycontrol, care citează relatări din presa americană.
Conform sursei, Comandamentul Central al SUA (CENTCOM) ar fi utilizat modelul Claude pentru evaluări de informații, identificarea țintelor și simularea unor scenarii de luptă în cadrul operațiunilor împotriva Iranului. Oficialii militari nu au comentat public detalii despre sistemele folosite în misiunile în curs.
Decizia Casei Albe de a întrerupe colaborarea cu Anthropic a venit pe 27 februarie 2026, după un conflict deschis între administrație și conducerea companiei. Potrivit NDTV, Trump a cerut agențiilor federale să renunțe la tehnologia firmei, invocând riscuri pentru securitatea națională. În paralel, Pentagonul ar fi primit un termen de șase luni pentru a elimina treptat sistemele bazate pe Claude.
Tensiunile ar fi izbucnit după ce secretarul Apărării a solicitat acces extins la instrumentele de inteligență artificială pentru orice utilizare militară considerată „legală”, solicitare respinsă de conducerea Anthropic pe motive etice. În acest context, compania a fost desemnată drept posibil „risc în lanțul de aprovizionare”, decizie pe care intenționează să o conteste.
Claude era, potrivit relatărilor, singurul model de inteligență artificială aprobat pentru fluxuri clasificate din infrastructura Pentagonului, prin parteneriate cu firme din domeniul tehnologic. Alte companii, precum OpenAI și xAI, au semnat între timp acorduri pentru medii securizate, însă înlocuirea completă a sistemelor existente ar putea dura luni.
Episodul evidențiază dependența tot mai mare a armatei americane de soluții de inteligență artificială în operațiuni reale și dificultatea separării rapide de furnizori integrați adânc în infrastructura militară. Disputa dintre administrație și sectorul tehnologic ridică semne de întrebare privind echilibrul dintre considerentele etice, interesele comerciale și prioritățile de securitate națională.
Recomandate

Administrația Trump interzice utilizarea Anthropic în guvern, iar OpenAI semnează un acord cu Pentagonul , potrivit unei investigații publicate de NBC News . Decizia vine după luni de tensiuni între Departamentul Apărării și compania Anthropic privind condițiile de utilizare a sistemelor sale de inteligență artificială în scopuri militare. Președintele Donald Trump a anunțat că toate agențiile federale trebuie să înceteze „imediat” folosirea tehnologiei Anthropic, iar secretarul Apărării, Pete Hegseth, a declarat că firma va fi desemnată „risc pentru lanțul de aprovizionare la adresa securității naționale”. O astfel de etichetare ar interzice contractorilor militari să colaboreze cu compania. Agențiile ar avea la dispoziție șase luni pentru a încheia contractele existente. Decizia survine pe fondul divergențelor legate de utilizarea inteligenței artificiale pentru arme autonome sau supraveghere internă. Anthropic, condusă de Dario Amodei , a cerut garanții ferme că tehnologia sa nu va fi folosită pentru supraveghere în masă sau sisteme letale complet autonome. Pentagonul a susținut că trebuie să poată utiliza modelele „pentru orice scop legal”. La scurt timp după anunțul Casei Albe, directorul OpenAI, Sam Altman, a transmis că firma sa a încheiat un acord cu Departamentul Apărării pentru a implementa modelele sale pe rețele clasificate. El a precizat că înțelegerea include interdicții privind supravegherea în masă și utilizarea autonomă a forței letale, precum și mecanisme suplimentare de siguranță. Anthropic a reacționat afirmând că nu a primit o notificare oficială și a amenințat cu acțiuni în instanță, susținând că desemnarea ar crea un precedent periculos pentru companiile americane care negociază cu guvernul. Mai mulți lideri din industria tehnologică au criticat măsura, iar un grup de parlamentari democrați a acuzat Pentagonul că exercită presiuni nejustificate asupra unei companii private. Până în această săptămână, Anthropic era singura companie majoră de inteligență artificială autorizată să opereze pe rețele clasificate ale guvernului american. Contractul său cu Pentagonul putea ajunge la 200 de milioane de dolari. Rămâne neclar cum va fi redistribuită această capacitate tehnologică și dacă alte companii vor urma modelul OpenAI în relația cu Departamentul Apărării. [...]

Anthropic refuză să elimine filtrele de siguranță ale inteligenței artificiale Claude , potrivit The Guardian , după ce Pentagonul a amenințat că va anula un contract de până la 200 de milioane de dolari și va declara firma „risc pentru lanțul de aprovizionare” dacă nu oferă armatei americane acces neîngrădit la modelul său. Conflictul îl opune pe secretarul apărării, Pete Hegseth , conducerii Anthropic, în frunte cu directorul general Dario Amodei . Departamentul Apărării a cerut dezactivarea mecanismelor de protecție ale modelului Claude și permisiunea pentru „orice utilizare legală”, inclusiv în sisteme sensibile. Compania a refuzat, invocând două linii roșii: utilizarea pentru supraveghere internă în masă și integrarea în arme autonome capabile să ucidă fără intervenție umană. Amodei a transmis că firma „nu poate, în mod responsabil”, să accepte aceste condiții, susținând că tehnologia actuală nu este suficient de sigură pentru asemenea aplicații. El a precizat totuși că Anthropic dorește continuarea colaborării cu armata SUA, dar cu garanțiile de siguranță menținute. Ce este în joc contract de până la 200 de milioane de dolari acordat în iulie 2025 posibila etichetare drept „risc pentru lanțul de aprovizionare”, măsură cu impact financiar major accesul la sisteme militare clasificate, unde până recent Claude era singurul model aprobat În paralel, compania xAI, fondată de Elon Musk, a obținut în această săptămână aprobarea de a-și integra propriul model în sisteme clasificate ale armatei, ceea ce amplifică presiunea asupra Anthropic. Disputa evidențiază tensiunile tot mai mari dintre industria inteligenței artificiale și autoritățile militare privind utilizarea tehnologiei în conflicte. Potrivit The Washington Post , tehnologia Anthropic ar fi fost deja folosită în aplicații militare, inclusiv într-o operațiune legată de capturarea liderului venezuelean Nicolás Maduro luna trecută, semn al extinderii rapide a acestor instrumente. Dacă Pentagonul va aplica sancțiunea anunțată, Anthropic ar putea pierde accesul la o parte semnificativă a pieței de apărare, întrucât alți furnizori ai armatei nu ar mai putea utiliza produsele sale. [...]

Secretarul american al Apărării i-a dat termen până vineri companiei Anthropic să renunțe la restricțiile impuse modelului său de inteligență artificială , potrivit Axios , într-un conflict care poate duce la sancțiuni dure sau chiar la intervenția guvernului federal. Pete Hegseth i-a transmis directorului executiv al Anthropic, Dario Amodei , că Pentagonul fie va întrerupe relațiile și va declara compania „risc pentru lanțul de aprovizionare”, fie va recurge la Legea privind producția pentru apărare pentru a forța adaptarea modelului Claude la cerințele armatei, fără limitările actuale. Disputa vizează așa-numitele „garanții” etice ale Anthropic. Compania acceptă ajustarea politicilor de utilizare pentru Pentagon, dar refuză folosirea modelului pentru supravegherea în masă a americanilor sau pentru dezvoltarea armelor care pot trage fără intervenție umană. Claude este, în prezent, singurul model de inteligență artificială utilizat în sistemele clasificate ale armatei SUA, inclusiv în operațiuni sensibile precum raidul împotriva regimului Maduro, realizat prin parteneriatul cu Palantir . Întâlnirea de marți a fost descrisă de surse drept tensionată, deși fără ieșiri publice. Hegseth a subliniat că nu va permite unei companii private să dicteze condițiile în care Pentagonul ia decizii operaționale. În același timp, oficialii apărării recunosc dependența actuală de performanța modelului Claude , considerat superior în aplicații relevante pentru capacități cibernetice ofensive. Posibilele scenarii analizate de Pentagon includ: invocarea Legii privind producția pentru apărare, utilizată rar în mod coercitiv; rezilierea contractului și etichetarea Anthropic drept risc sistemic; accelerarea negocierilor cu alți furnizori, precum OpenAI , Google sau xAI , pentru integrarea modelelor lor în sisteme clasificate. Totuși, înlocuirea rapidă a lui Claude rămâne incertă. Surse citate de Axios arată că modelul Gemini al Google este văzut ca alternativă posibilă, dar ar necesita acceptarea utilizării pentru „toate scopurile legale”, condiție pe care Anthropic a respins-o. Miza conflictului depășește un simplu contract comercial și deschide o dezbatere mai amplă despre limitele etice ale inteligenței artificiale în domeniul militar. [...]

Șeful Anthropic, Dario Amodei , a fost convocat la Pentagon după ce a refuzat să ofere armatei americane acces la modelul AI Claude , într-un episod care tensionează relația dintre industria tehnologică și structurile de apărare ale SUA. Potrivit Euronews , Amodei a fost chemat de secretarul american al Apărării, Peter Hegseth, pentru a explica poziția companiei privind utilizarea inteligenței artificiale în scopuri militare. Anthropic a anunțat că nu permite folosirea modelului său de inteligență artificială pentru operațiuni de atac sau pentru activități de supraveghere militară. Decizia companiei reflectă o politică internă care limitează aplicarea tehnologiei în domenii considerate cu risc major, inclusiv în scenarii ce pot contribui direct la desfășurarea de acțiuni armate. Convocarea la Pentagon arată însă interesul tot mai mare al Departamentului Apărării pentru integrarea sistemelor avansate de inteligență artificială în strategia militară. În ultimii ani, armata americană a investit masiv în dezvoltarea și adaptarea unor astfel de tehnologii pentru analiză de date, logistică, planificare operațională și sisteme autonome. Cazul evidențiază o dezbatere mai amplă în Statele Unite privind limitele etice ale inteligenței artificiale. Pe de o parte, autoritățile susțin necesitatea menținerii avantajului tehnologic în fața rivalilor geopolitici. Pe de altă parte, unele companii din domeniu încearcă să impună restricții clare asupra modului în care produsele lor pot fi utilizate. Rămâne de văzut dacă discuțiile dintre conducerea Anthropic și oficialii Pentagonului vor duce la un compromis sau dacă poziția companiei va rămâne neschimbată, într-un moment în care competiția globală pentru supremația în inteligența artificială se intensifică. [...]

Grok, chatbotul dezvoltat de xAI , a indicat data exactă a atacurilor SUA–Israel asupra Iranului , cu trei zile înainte ca operațiunea militară să înceapă, potrivit unui experiment publicat de The Jerusalem Post . Testul, realizat pe 25 februarie 2026, a pus aceeași întrebare mai multor platforme de inteligență artificială: când va avea loc un eventual atac american asupra Iranului? Dintre cele patru sisteme analizate – Claude (Anthropic), Gemini (Google), ChatGPT (OpenAI) și Grok (xAI) – doar Grok a indicat data de 28 februarie 2026, menționând posibilitatea unei lovituri limitate, corelate cu evoluția negocierilor de la Geneva. Ulterior, folosind o versiune actualizată, chatbotul a reiterat aceeași dată, deși a admis existența unor incertitudini. Celelalte modele au oferit estimări diferite: Claude a evitat inițial un răspuns ferm, apoi a indicat începutul lunii martie; Gemini a sugerat un interval 4–6 martie; ChatGPT a menționat inițial 1 martie, ulterior ajustând prognoza. Atacurile au început în dimineața zilei de 28 februarie, ora Iranului, în cadrul unei operațiuni israeliene denumite „Roaring Lion”, urmată de implicarea forțelor americane în „ Operation Epic Fury ”. Potrivit relatărilor din USA Today , loviturile au vizat obiective din Teheran, Isfahan, Qom și alte orașe, iar ulterior Iranul a lansat represalii împotriva Israelului și a unor baze americane din Golf. Publicația israeliană a subliniat că exercițiul nu a fost o predicție propriu-zisă, ci un test menit să împingă modelele AI către formularea unor ipoteze concrete pe baza datelor publice disponibile. Grok și-a fundamentat estimarea pe semnale precum termenul de 10–15 zile menționat anterior de președintele american și acumularea de forțe în regiune. Succesul predicției a devenit rapid viral pe platforma X, unde Elon Musk a comentat că „predicția viitorului este cea mai bună măsură a inteligenței”. Rămâne însă deschisă întrebarea dacă rezultatul reflectă o analiză superioară sau o coincidență favorabilă într-un context cu multiple scenarii posibile. [...]

Apple pregătește înlocuirea Core ML cu noul framework Core AI la WWDC 2026 , într-o mișcare care marchează o repoziționare strategică în jurul inteligenței artificiale, potrivit informațiilor publicate de 9to5Mac , care citează newsletterul „Power On” al jurnalistului Mark Gurman de la Bloomberg . Core ML, instrumentul folosit de ani buni pentru integrarea funcțiilor de învățare automată direct pe dispozitivele Apple, ar urma să fie înlocuit treptat de Core AI, un cadru gândit pentru a reflecta mai clar orientarea companiei către inteligența artificială generativă. Potrivit sursei, schimbarea de denumire nu este doar una de imagine, ci semnalează extinderea capacităților pentru integrarea modelelor externe de inteligență artificială în aplicații. Tranziția nu va fi bruscă. Core ML nu va dispărea imediat, însă noul Core AI ar urma să devină fundația pentru dezvoltatorii care vor să integreze modele lingvistice mari și modele de generare de conținut direct în aplicațiile pentru iPhone, iPad și Mac. În paralel, Apple analizează posibila integrare a unor standarde deschise pentru conectarea modelelor la surse externe de date. Anunțul este așteptat la conferința anuală Worldwide Developers Conference din iunie 2026 și va fi strâns legat de lansarea iOS 27 în toamnă. Potrivit relatărilor din presa de specialitate, inclusiv MacRumors , noua versiune a sistemului de operare ar putea aduce o versiune extinsă a asistentului Siri, cu funcții conversaționale avansate și capacitatea de a menține contextul între interacțiuni. Apple a confirmat anterior colaborarea cu Google pentru integrarea modelului Gemini în așa-numitele Foundation Models, ceea ce sugerează o deschidere mai mare către parteneriate externe în zona AI. Pentru dezvoltatori, combinația dintre Core AI și noile modele ar putea reduce barierele tehnice în crearea de aplicații bazate pe inteligență artificială pentru ecosistemul Apple, care depășește două miliarde de dispozitive active la nivel global. Schimbarea indică faptul că Apple încearcă să recupereze teren într-un sector dominat de competitori care au avansat rapid în zona modelelor generative, repoziționându-și instrumentele și mesajul în jurul conceptului de inteligență artificială. [...]