Știri
Știri din categoria Inteligență artificială

Anthropic refuză să elimine filtrele de siguranță ale inteligenței artificiale Claude, potrivit The Guardian, după ce Pentagonul a amenințat că va anula un contract de până la 200 de milioane de dolari și va declara firma „risc pentru lanțul de aprovizionare” dacă nu oferă armatei americane acces neîngrădit la modelul său.
Conflictul îl opune pe secretarul apărării, Pete Hegseth, conducerii Anthropic, în frunte cu directorul general Dario Amodei. Departamentul Apărării a cerut dezactivarea mecanismelor de protecție ale modelului Claude și permisiunea pentru „orice utilizare legală”, inclusiv în sisteme sensibile. Compania a refuzat, invocând două linii roșii: utilizarea pentru supraveghere internă în masă și integrarea în arme autonome capabile să ucidă fără intervenție umană.
Amodei a transmis că firma „nu poate, în mod responsabil”, să accepte aceste condiții, susținând că tehnologia actuală nu este suficient de sigură pentru asemenea aplicații. El a precizat totuși că Anthropic dorește continuarea colaborării cu armata SUA, dar cu garanțiile de siguranță menținute.
În paralel, compania xAI, fondată de Elon Musk, a obținut în această săptămână aprobarea de a-și integra propriul model în sisteme clasificate ale armatei, ceea ce amplifică presiunea asupra Anthropic.
Disputa evidențiază tensiunile tot mai mari dintre industria inteligenței artificiale și autoritățile militare privind utilizarea tehnologiei în conflicte. Potrivit The Washington Post, tehnologia Anthropic ar fi fost deja folosită în aplicații militare, inclusiv într-o operațiune legată de capturarea liderului venezuelean Nicolás Maduro luna trecută, semn al extinderii rapide a acestor instrumente. Dacă Pentagonul va aplica sancțiunea anunțată, Anthropic ar putea pierde accesul la o parte semnificativă a pieței de apărare, întrucât alți furnizori ai armatei nu ar mai putea utiliza produsele sale.
Recomandate

Secretarul american al Apărării i-a dat termen până vineri companiei Anthropic să renunțe la restricțiile impuse modelului său de inteligență artificială , potrivit Axios , într-un conflict care poate duce la sancțiuni dure sau chiar la intervenția guvernului federal. Pete Hegseth i-a transmis directorului executiv al Anthropic, Dario Amodei , că Pentagonul fie va întrerupe relațiile și va declara compania „risc pentru lanțul de aprovizionare”, fie va recurge la Legea privind producția pentru apărare pentru a forța adaptarea modelului Claude la cerințele armatei, fără limitările actuale. Disputa vizează așa-numitele „garanții” etice ale Anthropic. Compania acceptă ajustarea politicilor de utilizare pentru Pentagon, dar refuză folosirea modelului pentru supravegherea în masă a americanilor sau pentru dezvoltarea armelor care pot trage fără intervenție umană. Claude este, în prezent, singurul model de inteligență artificială utilizat în sistemele clasificate ale armatei SUA, inclusiv în operațiuni sensibile precum raidul împotriva regimului Maduro, realizat prin parteneriatul cu Palantir . Întâlnirea de marți a fost descrisă de surse drept tensionată, deși fără ieșiri publice. Hegseth a subliniat că nu va permite unei companii private să dicteze condițiile în care Pentagonul ia decizii operaționale. În același timp, oficialii apărării recunosc dependența actuală de performanța modelului Claude , considerat superior în aplicații relevante pentru capacități cibernetice ofensive. Posibilele scenarii analizate de Pentagon includ: invocarea Legii privind producția pentru apărare, utilizată rar în mod coercitiv; rezilierea contractului și etichetarea Anthropic drept risc sistemic; accelerarea negocierilor cu alți furnizori, precum OpenAI , Google sau xAI , pentru integrarea modelelor lor în sisteme clasificate. Totuși, înlocuirea rapidă a lui Claude rămâne incertă. Surse citate de Axios arată că modelul Gemini al Google este văzut ca alternativă posibilă, dar ar necesita acceptarea utilizării pentru „toate scopurile legale”, condiție pe care Anthropic a respins-o. Miza conflictului depășește un simplu contract comercial și deschide o dezbatere mai amplă despre limitele etice ale inteligenței artificiale în domeniul militar. [...]

Șeful Anthropic, Dario Amodei , a fost convocat la Pentagon după ce a refuzat să ofere armatei americane acces la modelul AI Claude , într-un episod care tensionează relația dintre industria tehnologică și structurile de apărare ale SUA. Potrivit Euronews , Amodei a fost chemat de secretarul american al Apărării, Peter Hegseth, pentru a explica poziția companiei privind utilizarea inteligenței artificiale în scopuri militare. Anthropic a anunțat că nu permite folosirea modelului său de inteligență artificială pentru operațiuni de atac sau pentru activități de supraveghere militară. Decizia companiei reflectă o politică internă care limitează aplicarea tehnologiei în domenii considerate cu risc major, inclusiv în scenarii ce pot contribui direct la desfășurarea de acțiuni armate. Convocarea la Pentagon arată însă interesul tot mai mare al Departamentului Apărării pentru integrarea sistemelor avansate de inteligență artificială în strategia militară. În ultimii ani, armata americană a investit masiv în dezvoltarea și adaptarea unor astfel de tehnologii pentru analiză de date, logistică, planificare operațională și sisteme autonome. Cazul evidențiază o dezbatere mai amplă în Statele Unite privind limitele etice ale inteligenței artificiale. Pe de o parte, autoritățile susțin necesitatea menținerii avantajului tehnologic în fața rivalilor geopolitici. Pe de altă parte, unele companii din domeniu încearcă să impună restricții clare asupra modului în care produsele lor pot fi utilizate. Rămâne de văzut dacă discuțiile dintre conducerea Anthropic și oficialii Pentagonului vor duce la un compromis sau dacă poziția companiei va rămâne neschimbată, într-un moment în care competiția globală pentru supremația în inteligența artificială se intensifică. [...]

Anthropic acuză trei companii chineze că au folosit 24.000 de conturi false pentru a copia modelul Claude , într-o operațiune descrisă drept „distilare la scară industrială”, potrivit unui material publicat de Fox News Digital . Companiile nominalizate sunt DeepSeek, Moonshot AI și MiniMax . Conform acuzațiilor, cele trei firme ar fi generat peste 16 milioane de solicitări către chatbotul Claude, extrăgând răspunsuri pentru a-și antrena și îmbunătăți propriile sisteme de inteligență artificială. Date citate de Slashdot indică faptul că MiniMax ar fi realizat peste 13 milioane de interacțiuni, Moonshot AI aproximativ 3,4 milioane, iar DeepSeek circa 150.000. Cum ar fi funcționat operațiunea Anthropic susține că a identificat activitatea analizând corelații de adrese IP, metadate ale solicitărilor și tipare de infrastructură diferite de traficul obișnuit al utilizatorilor. Ținta ar fi fost capabilitățile avansate ale lui Claude – raționament complex, programare și utilizare de instrumente – nu întrebările tipice ale utilizatorilor obișnuiți. „Avem un nivel ridicat de încredere că aceste laboratoare au desfășurat atacuri de distilare la scară largă”, a declarat Jacob Klein , responsabil pentru informații privind amenințările în cadrul Anthropic, pentru Fox News Digital, citat de WFMD. Distilarea este o tehnică legitimă în dezvoltarea inteligenței artificiale, prin care un model mai slab este antrenat pe baza rezultatelor generate de unul mai performant. Anthropic susține însă că, în acest caz, procesul ar fi fost neautorizat și menit să reducă ani de cercetare și antrenament. Implicații de securitate Compania a încadrat situația și în termeni de securitate națională, argumentând că modelele obținute prin distilare la scară mare ar putea să nu includă mecanismele de siguranță integrate în sistemele americane de ultimă generație. Anthropic afirmă că a transmis constatările către autorități și parteneri din industrie. Contextul este unul tensionat. Potrivit Bloomberg (menționat în material), OpenAI ar fi transmis anterior un memoriu către o comisie a Camerei Reprezentanților din SUA, acuzând DeepSeek de utilizarea unor metode tot mai sofisticate de distilare. În paralel, Google a anunțat, prin intermediul echipei sale de informații privind amenințările, că a observat peste 100.000 de solicitări suspecte menite să reproducă capacitățile modelului Gemini. John Hultquist , analist-șef în cadrul diviziei de informații a Google, a avertizat că astfel de incidente ar putea deveni mai frecvente, pe măsură ce competiția globală în domeniul inteligenței artificiale se intensifică. Deocamdată, companiile menționate nu au oferit reacții publice detaliate la acuzațiile formulate de Anthropic. Cazul adaugă însă un nou episod în disputa tehnologică dintre Statele Unite și China, într-un sector considerat strategic la nivel global. [...]

Daniela Amodei , cofondatoare Anthropic, susține că studiile umaniste vor deveni esențiale în era inteligenței artificiale , iar abilitățile profund umane vor conta mai mult decât competențele tehnice. Potrivit Fortune , Amodei afirmă că numărul locurilor de muncă pe care inteligența artificială le poate face complet independent de oameni este „extrem de redus”, iar viitorul aparține colaborării dintre oameni și tehnologie. Într-un interviu pentru ABC News , ea a explicat că asocierea dintre om și inteligența artificială va genera locuri de muncă mai interesante și mai productive. Deși compania Anthropic a lansat recent instrumente avansate de programare bazate pe inteligență artificială, care au provocat fluctuații pe burse, Amodei spune că viitorul pieței muncii nu va favoriza exclusiv profilurile tehnice. Ce caută Anthropic la angajare Daniela Amodei, absolventă de literatură la Universitatea California din Santa Cruz, spune că la recrutare compania pune accent pe: abilități excelente de comunicare; inteligență emoțională ridicată; empatie și capacitatea de colaborare; curiozitate și dorința de a-i ajuta pe ceilalți. Ea susține că modelele de inteligență artificială sunt deja performante în domeniile științifice și tehnice, însă înțelegerea naturii umane, a istoriei și a comportamentului rămâne un avantaj distinct al oamenilor. Un mesaj pentru tineri Amodei recomandă tinerilor să își dezvolte gândirea critică, capacitatea de a scrie bine și de a performa în întâlniri profesionale. În opinia sa, aceste competențe vor deveni tot mai valoroase într-un context în care sarcinile analitice sunt preluate de sisteme automate. Mesajul este susținut și de alți lideri din tehnologie și finanțe, care subliniază că inteligența emoțională, discernământul și colaborarea vor reprezenta diferența într-o economie tot mai automatizată. [...]

Google Cloud și ElevenLabs își extind parteneriatul pentru agenți vocali AI globali , potrivit StartupCafe.ro , printr-un acord strategic pe mai mulți ani care vizează scalarea tehnologiilor de voce bazate pe inteligență artificială pentru companii din întreaga lume. Startup-ul polonez fondat în 2022 de Mati Staniszewski și Piotr Dąbkowski își va rula și antrena modelele pe mașinile virtuale G4 ale Google Cloud, echipate cu procesoare grafice NVIDIA RTX PRO 6000 Blackwell , beneficiind astfel de o capacitate extinsă de procesare pentru implementări la scară mare. Noul acord consolidează o colaborare deja existentă și permite ElevenLabs să susțină agenți vocali în timp real și servicii de localizare în peste 70 de limbi, folosind infrastructura globală Google Cloud și tehnologia NVIDIA . Companiile cliente utilizează aceste soluții pentru suport clienți, vânzări, training intern sau producție multimedia, în domenii precum servicii financiare, retail și telecomunicații. Ce aduce concret parteneriatul acces extins la procesoare grafice NVIDIA Blackwell pentru antrenarea și rularea modelelor vocale; integrarea modelelor Gemini în platforma ElevenLabs pentru raționament în mai mulți pași; utilizarea modelului Veo de la Google pentru generare rapidă de conținut video și audio; listarea soluțiilor ElevenLabs în Google Cloud Marketplace, cu facturare și conformitate simplificate. Mati Staniszewski a declarat că infrastructura bazată pe Blackwell permite dezvoltarea unor modele multimodale cu inferență mai rapidă și răspunsuri instantanee în mai multe limbi. La rândul său, Matt Renner, președinte și director comercial al Google Cloud, a subliniat că parteneriatul ajută companiile să creeze experiențe mai naturale pentru utilizatori la scară globală, iar Ian Buck, vicepreședinte NVIDIA, a indicat că astfel de colaborări validează potențialul noii generații Blackwell. Produsele ElevenLabs utilizate la nivel global Platformă Destinație principală Exemple de utilizatori ElevenAgents Agenți vocali și chat pentru companii mari Deutsche Telekom, Revolut, Guvernul Ucrainei ElevenCreative Generare și localizare conținut audio Duolingo, TIME ElevenAPI Infrastructură vocală pentru dezvoltatori Meta, Epic Games, Salesforce Prin această extindere, ElevenLabs își consolidează poziția pe segmentul soluțiilor vocale „gata de producție” pentru companii mari, mizând pe infrastructura Google și NVIDIA pentru a susține cererea tot mai mare de agenți conversaționali bazați pe inteligență artificială. [...]

Yuval Harari susține că din 2026 AI ar putea declanșa valuri de concedieri , potrivit Ziua News , care rezumă un interviu în care autorul descrie un scenariu de înlocuire treptată a oamenilor de către inteligența artificială. În centrul argumentului se află piața muncii: Harari afirmă că primele lovite ar fi ocupațiile bazate pe „cuvânt” (muncă preponderent pe text), unde AI ar fi deja net superioară oamenilor, iar efectele s-ar vedea rapid în sectoare cu volum mare de angajați. Conform relatării, Harari plasează începutul acestei tranziții în 2026, când „zeci de milioane” de persoane și-ar putea pierde locurile de muncă în profesii precum jurnalism, avocatură, call center, scris și scenaristică, dar și programare . Logica scenariului este una de substituție: pe măsură ce sistemele de AI preiau sarcini de redactare, analiză și generare de conținut, companiile ar avea stimulente economice să reducă personalul sau să restructureze rolurile. În etapa următoare, ar urma domeniile care lucrează cu imagini statice sau video, de la producție de conținut până la film, pe măsură ce instrumentele de generare și editare automatizată devin mai accesibile și mai integrate în fluxurile de lucru. Harari mai indică o extindere a impactului către munca fizică, pe măsură ce roboții „înzestrați cu inteligență artificială” ar înlocui activități considerate mai ușor de automatizat (curierat, ospitalitate, manipulare de pachete, operațiuni în construcții), iar ulterior chiar și operațiuni fizice complexe realizate de specialiști. În aceeași narațiune, Acesta leagă presiunea asupra locurilor de muncă de apariția „agenților AI” (programe care pot executa autonom sarcini în numele utilizatorului), de progrese în calculul cuantic și de alte schimbări tehnologice, sugerând că acestea ar accentua diferențele dintre cei care pot folosi noile instrumente și cei ale căror competențe devin mai ușor de înlocuit. În planul consecințelor, scenariul avansează și o transformare a organizării sociale și economice după 2030-2035, însă miza imediată rămâne dinamica ocupării: cine își păstrează relevanța profesională într-o economie în care tot mai multe sarcini cognitive și operaționale pot fi preluate de sisteme automatizate. [...]