Știri
Știri din categoria Inteligență artificială

Administrația Trump interzice utilizarea Anthropic în guvern, iar OpenAI semnează un acord cu Pentagonul, potrivit unei investigații publicate de NBC News. Decizia vine după luni de tensiuni între Departamentul Apărării și compania Anthropic privind condițiile de utilizare a sistemelor sale de inteligență artificială în scopuri militare.
Președintele Donald Trump a anunțat că toate agențiile federale trebuie să înceteze „imediat” folosirea tehnologiei Anthropic, iar secretarul Apărării, Pete Hegseth, a declarat că firma va fi desemnată „risc pentru lanțul de aprovizionare la adresa securității naționale”. O astfel de etichetare ar interzice contractorilor militari să colaboreze cu compania. Agențiile ar avea la dispoziție șase luni pentru a încheia contractele existente.
Decizia survine pe fondul divergențelor legate de utilizarea inteligenței artificiale pentru arme autonome sau supraveghere internă. Anthropic, condusă de Dario Amodei, a cerut garanții ferme că tehnologia sa nu va fi folosită pentru supraveghere în masă sau sisteme letale complet autonome. Pentagonul a susținut că trebuie să poată utiliza modelele „pentru orice scop legal”.
La scurt timp după anunțul Casei Albe, directorul OpenAI, Sam Altman, a transmis că firma sa a încheiat un acord cu Departamentul Apărării pentru a implementa modelele sale pe rețele clasificate. El a precizat că înțelegerea include interdicții privind supravegherea în masă și utilizarea autonomă a forței letale, precum și mecanisme suplimentare de siguranță.
Anthropic a reacționat afirmând că nu a primit o notificare oficială și a amenințat cu acțiuni în instanță, susținând că desemnarea ar crea un precedent periculos pentru companiile americane care negociază cu guvernul. Mai mulți lideri din industria tehnologică au criticat măsura, iar un grup de parlamentari democrați a acuzat Pentagonul că exercită presiuni nejustificate asupra unei companii private.
Până în această săptămână, Anthropic era singura companie majoră de inteligență artificială autorizată să opereze pe rețele clasificate ale guvernului american. Contractul său cu Pentagonul putea ajunge la 200 de milioane de dolari. Rămâne neclar cum va fi redistribuită această capacitate tehnologică și dacă alte companii vor urma modelul OpenAI în relația cu Departamentul Apărării.
Recomandate

Anthropic refuză să elimine filtrele de siguranță ale inteligenței artificiale Claude , potrivit The Guardian , după ce Pentagonul a amenințat că va anula un contract de până la 200 de milioane de dolari și va declara firma „risc pentru lanțul de aprovizionare” dacă nu oferă armatei americane acces neîngrădit la modelul său. Conflictul îl opune pe secretarul apărării, Pete Hegseth , conducerii Anthropic, în frunte cu directorul general Dario Amodei . Departamentul Apărării a cerut dezactivarea mecanismelor de protecție ale modelului Claude și permisiunea pentru „orice utilizare legală”, inclusiv în sisteme sensibile. Compania a refuzat, invocând două linii roșii: utilizarea pentru supraveghere internă în masă și integrarea în arme autonome capabile să ucidă fără intervenție umană. Amodei a transmis că firma „nu poate, în mod responsabil”, să accepte aceste condiții, susținând că tehnologia actuală nu este suficient de sigură pentru asemenea aplicații. El a precizat totuși că Anthropic dorește continuarea colaborării cu armata SUA, dar cu garanțiile de siguranță menținute. Ce este în joc contract de până la 200 de milioane de dolari acordat în iulie 2025 posibila etichetare drept „risc pentru lanțul de aprovizionare”, măsură cu impact financiar major accesul la sisteme militare clasificate, unde până recent Claude era singurul model aprobat În paralel, compania xAI, fondată de Elon Musk, a obținut în această săptămână aprobarea de a-și integra propriul model în sisteme clasificate ale armatei, ceea ce amplifică presiunea asupra Anthropic. Disputa evidențiază tensiunile tot mai mari dintre industria inteligenței artificiale și autoritățile militare privind utilizarea tehnologiei în conflicte. Potrivit The Washington Post , tehnologia Anthropic ar fi fost deja folosită în aplicații militare, inclusiv într-o operațiune legată de capturarea liderului venezuelean Nicolás Maduro luna trecută, semn al extinderii rapide a acestor instrumente. Dacă Pentagonul va aplica sancțiunea anunțată, Anthropic ar putea pierde accesul la o parte semnificativă a pieței de apărare, întrucât alți furnizori ai armatei nu ar mai putea utiliza produsele sale. [...]

Secretarul american al Apărării i-a dat termen până vineri companiei Anthropic să renunțe la restricțiile impuse modelului său de inteligență artificială , potrivit Axios , într-un conflict care poate duce la sancțiuni dure sau chiar la intervenția guvernului federal. Pete Hegseth i-a transmis directorului executiv al Anthropic, Dario Amodei , că Pentagonul fie va întrerupe relațiile și va declara compania „risc pentru lanțul de aprovizionare”, fie va recurge la Legea privind producția pentru apărare pentru a forța adaptarea modelului Claude la cerințele armatei, fără limitările actuale. Disputa vizează așa-numitele „garanții” etice ale Anthropic. Compania acceptă ajustarea politicilor de utilizare pentru Pentagon, dar refuză folosirea modelului pentru supravegherea în masă a americanilor sau pentru dezvoltarea armelor care pot trage fără intervenție umană. Claude este, în prezent, singurul model de inteligență artificială utilizat în sistemele clasificate ale armatei SUA, inclusiv în operațiuni sensibile precum raidul împotriva regimului Maduro, realizat prin parteneriatul cu Palantir . Întâlnirea de marți a fost descrisă de surse drept tensionată, deși fără ieșiri publice. Hegseth a subliniat că nu va permite unei companii private să dicteze condițiile în care Pentagonul ia decizii operaționale. În același timp, oficialii apărării recunosc dependența actuală de performanța modelului Claude , considerat superior în aplicații relevante pentru capacități cibernetice ofensive. Posibilele scenarii analizate de Pentagon includ: invocarea Legii privind producția pentru apărare, utilizată rar în mod coercitiv; rezilierea contractului și etichetarea Anthropic drept risc sistemic; accelerarea negocierilor cu alți furnizori, precum OpenAI , Google sau xAI , pentru integrarea modelelor lor în sisteme clasificate. Totuși, înlocuirea rapidă a lui Claude rămâne incertă. Surse citate de Axios arată că modelul Gemini al Google este văzut ca alternativă posibilă, dar ar necesita acceptarea utilizării pentru „toate scopurile legale”, condiție pe care Anthropic a respins-o. Miza conflictului depășește un simplu contract comercial și deschide o dezbatere mai amplă despre limitele etice ale inteligenței artificiale în domeniul militar. [...]

Șeful Anthropic, Dario Amodei , a fost convocat la Pentagon după ce a refuzat să ofere armatei americane acces la modelul AI Claude , într-un episod care tensionează relația dintre industria tehnologică și structurile de apărare ale SUA. Potrivit Euronews , Amodei a fost chemat de secretarul american al Apărării, Peter Hegseth, pentru a explica poziția companiei privind utilizarea inteligenței artificiale în scopuri militare. Anthropic a anunțat că nu permite folosirea modelului său de inteligență artificială pentru operațiuni de atac sau pentru activități de supraveghere militară. Decizia companiei reflectă o politică internă care limitează aplicarea tehnologiei în domenii considerate cu risc major, inclusiv în scenarii ce pot contribui direct la desfășurarea de acțiuni armate. Convocarea la Pentagon arată însă interesul tot mai mare al Departamentului Apărării pentru integrarea sistemelor avansate de inteligență artificială în strategia militară. În ultimii ani, armata americană a investit masiv în dezvoltarea și adaptarea unor astfel de tehnologii pentru analiză de date, logistică, planificare operațională și sisteme autonome. Cazul evidențiază o dezbatere mai amplă în Statele Unite privind limitele etice ale inteligenței artificiale. Pe de o parte, autoritățile susțin necesitatea menținerii avantajului tehnologic în fața rivalilor geopolitici. Pe de altă parte, unele companii din domeniu încearcă să impună restricții clare asupra modului în care produsele lor pot fi utilizate. Rămâne de văzut dacă discuțiile dintre conducerea Anthropic și oficialii Pentagonului vor duce la un compromis sau dacă poziția companiei va rămâne neschimbată, într-un moment în care competiția globală pentru supremația în inteligența artificială se intensifică. [...]

O reclamă generată cu inteligență artificială, în care Elon Musk, Jeff Bezos și Sam Altman apar îmbătrâniți, a devenit virală , adunând peste 4 milioane de vizualizări pe Instagram și stârnind dezbateri despre viitorul muncii și costurile energetice ale tehnologiei, potrivit Business Insider . Clipul de 40 de secunde, realizat de start-up-ul belgian AiCandy , este prezentat ca o reclamă fictivă pentru o companie imaginară din 2036, „Energym”. În video, versiuni îmbătrânite ale celor trei lideri din tehnologie susțin, pe un ton neutru, că după pierderea locurilor de muncă din cauza automatizării, oamenii ar putea produce energie pedalând biciclete pentru a alimenta exact mașinile care i-au înlocuit. Conceptul aparține fondatorilor AiCandy, Hans Buyse și Jan De Loore, care au explicat pe LinkedIn că ideea pornește de la un scenariu post-criză financiară și ironizează atât obsesia pentru eficiență energetică, cât și cultura performanței fizice. Ideea a fost inițial o reacție la criticile legate de consumul mare de energie al inteligenței artificiale. Succesul a depășit așteptările: redistribuirile pe rețeaua X au adunat aproape 2 milioane de vizualizări suplimentare, iar senatorul american Chris Murphy a distribuit clipul pe Instagram, comentând că „nu pare chiar o parodie”. În paralel, autorii s-au plâns că unele conturi au republicat materialul fără a le acorda credit. Impactul viral vine într-un moment în care îngrijorările privind consumul energetic al centrelor de date sunt tot mai prezente. Conform estimărilor Agenției Internaționale pentru Energie, citate de publicații de specialitate, consumul global al centrelor de date ar putea ajunge la circa 1.050 terawați-oră până în 2026, un nivel comparabil cu cel al Japoniei. Deocamdată, AiCandy spune că analizează propunerile de colaborare primite, dar, în ton cu ironia clipului, fondatorii au transmis că așteaptă „un mesaj de la Elon”. [...]

Burger King introduce un asistent cu inteligență artificială care verifică dacă angajații spun „te rog” și „mulțumesc” clienților , potrivit The Verge . Sistemul, denumit „Patty”, va fi integrat direct în căștile folosite de angajați și face parte dintr-o platformă mai amplă numită BK Assistant . Compania anunță că noul chatbot, dezvoltat cu tehnologie OpenAI, va analiza conversațiile din restaurante, în special din zona drive-thru, pentru a evalua nivelul de „amabilitate”. Inteligența artificială a fost antrenată să recunoască expresii precum „bine ați venit la Burger King”, „te rog” și „mulțumesc”. Managerii vor putea solicita rapoarte privind performanța echipei la capitolul interacțiune cu clienții. Oficialii companiei susțin că instrumentul are rol de „coaching”, nu de sancționare, iar sistemul este în continuă ajustare pentru a interpreta inclusiv tonul conversațiilor. Ce mai face asistentul „Patty” Pe lângă monitorizarea limbajului, platforma BK Assistant: oferă instrucțiuni despre prepararea produselor; răspunde la întrebări despre rețete și cantități; furnizează indicații pentru curățarea echipamentelor; semnalează defecțiuni tehnice; actualizează automat meniurile digitale dacă un produs nu mai este în stoc. Fiind conectat la sistemul de vânzare din cloud, asistentul poate elimina un produs indisponibil din toate punctele de comandă în aproximativ 15 minute – de la kioscuri până la meniurile digitale din drive-thru. Deși alte lanțuri de restaurante au testat comenzi automate prin inteligență artificială, Burger King nu anunță, deocamdată, extinderea pe scară largă a comenzilor complet automatizate. Accentul este pus pe optimizarea operațiunilor interne și standardizarea interacțiunii cu clienții. [...]

O comparație făcută de Sam Altman între antrenarea AI și „antrenarea” unui om reaprinde dezbaterea despre viziunea liderilor tech asupra viitorului . Declarația a fost făcută la un summit din India dedicat impactului inteligenței artificiale. Întrebat despre consumul ridicat de energie necesar pentru antrenarea modelelor precum ChatGPT, CEO-ul OpenAI a răspuns că și dezvoltarea unui om presupune resurse considerabile. El a afirmat, pentru The Indian Express, că este nevoie de aproximativ 20 de ani și de toată hrana consumată în acest interval pentru ca o persoană să devină inteligentă . Afirmația vine într-un moment în care impactul energetic al centrelor de date este intens discutat. Potrivit Agenției Internaționale pentru Energie, acestea au reprezentat circa 1,5% din consumul global de electricitate în 2024, iar până în 2030 se estimează o creștere anuală de aproximativ 15%, de peste patru ori mai rapidă decât în alte sectoare. Autorul analizei atrage atenția că formularea lui Altman depășește simpla figură de stil. Compararea dezvoltării umane cu un proces tehnologic de „antrenare” ar indica, în opinia sa, o viziune utilitaristă asupra vieții, în care copilăria devine o investiție, hrana un input energetic, iar inteligența un rezultat măsurabil și optimizabil. În logica industriei tehnologice, antrenarea presupune introducerea de date, consum de energie și obținerea unei performanțe scalabile. Aplicarea aceleiași grile asupra oamenilor estompează diferența dintre ființă umană și sistem informatic, susține analiza, alimentând temeri că eficiența ar putea deveni criteriul dominant în evaluarea valorii. Altman a mai declarat că inteligența artificială generală este „mai aproape decât credem”, afirmație care, în contextul dezbaterii despre resurse și impact asupra mediului, amplifică întrebările legate de direcția în care se îndreaptă dezvoltarea tehnologică. Textul subliniază că astfel de declarații ar trebui să determine o reflecție mai amplă la nivel guvernamental, în condițiile în care companiile din domeniul inteligenței artificiale concentrează o influență tot mai mare asupra economiei și societății. [...]