Știri
Tag: etica ai

Șeful Anthropic, Dario Amodei , a fost convocat la Pentagon după ce a refuzat să ofere armatei americane acces la modelul AI Claude , într-un episod care tensionează relația dintre industria tehnologică și structurile de apărare ale SUA. Potrivit Euronews , Amodei a fost chemat de secretarul american al Apărării, Peter Hegseth, pentru a explica poziția companiei privind utilizarea inteligenței artificiale în scopuri militare. Anthropic a anunțat că nu permite folosirea modelului său de inteligență artificială pentru operațiuni de atac sau pentru activități de supraveghere militară. Decizia companiei reflectă o politică internă care limitează aplicarea tehnologiei în domenii considerate cu risc major, inclusiv în scenarii ce pot contribui direct la desfășurarea de acțiuni armate. Convocarea la Pentagon arată însă interesul tot mai mare al Departamentului Apărării pentru integrarea sistemelor avansate de inteligență artificială în strategia militară. În ultimii ani, armata americană a investit masiv în dezvoltarea și adaptarea unor astfel de tehnologii pentru analiză de date, logistică, planificare operațională și sisteme autonome. Cazul evidențiază o dezbatere mai amplă în Statele Unite privind limitele etice ale inteligenței artificiale. Pe de o parte, autoritățile susțin necesitatea menținerii avantajului tehnologic în fața rivalilor geopolitici. Pe de altă parte, unele companii din domeniu încearcă să impună restricții clare asupra modului în care produsele lor pot fi utilizate. Rămâne de văzut dacă discuțiile dintre conducerea Anthropic și oficialii Pentagonului vor duce la un compromis sau dacă poziția companiei va rămâne neschimbată, într-un moment în care competiția globală pentru supremația în inteligența artificială se intensifică. [...]

Un denunțător a depus o plângere la Comisia pentru bursă și valori mobiliare din SUA (SEC), acuzând Google că a oferit asistență tehnică în 2024 pentru ca un contractor din industria apărării israeliene să folosească tehnologia sa de inteligență artificială – Gemini – în analizarea imaginilor aeriene provenite de la drone , potrivit Washington Post , citat de utilizatorii comunității r/secithubcommunity . Documentele interne menționate în plângere indică faptul că echipa de suport Google Cloud ar fi răspuns unor solicitări venite de la o adresă de e-mail asociată cu aparatul de securitate israelian, scopul fiind îmbunătățirea detecției automate a obiectelor (inclusiv drone, vehicule și personal) în material video aerian. Ce se reproșează Google Denunțătorul susține că acest sprijin ar fi contrar principiilor etice declarate public de companie, care interzic folosirea AI-ului pentru armament sau activități de supraveghere ce încalcă normele internaționale. De asemenea, dacă aceste principii au fost prezentate investitorilor și autorităților ca angajamente concrete, nerespectarea lor ar putea fi interpretată drept inducere în eroare a pieței. Google a negat acuzațiile, afirmând că interacțiunea a fost una generală, fără implicații în aplicarea reală a AI-ului la scară largă, și că nivelul de utilizare a serviciilor sale nu indică o implementare „semnificativă”. Un caz sensibil, cu implicații largi Scandalul reaprinde discuțiile privind responsabilitatea marilor companii tehnologice în ceea ce privește aplicabilitatea produselor lor în contexte militare și de supraveghere. Deși nu există dovezi publice clare că Google ar fi colaborat intenționat într-un proiect de apărare, simpla posibilitate ca tehnologia sa să fi fost folosită în acest scop ridică semne de întrebare privind controlul asupra modului în care sunt utilizate serviciile de tip cloud și AI. Acest caz adaugă presiune pe industria tech să adopte măsuri concrete de transparență și să aplice cu strictețe propriile politici etice, în special atunci când sunt implicate domenii sensibile precum securitatea și apărarea. [...]