Știri
Știri din categoria Inteligență artificială

Un fost prezentator NPR acuză Google că i-a folosit vocea fără acord într-un model audio integrat în aplicația NotebookLM, potrivit Gizmodo. David Greene, cunoscut pentru aproape un deceniu ca gazdă a emisiunii „Morning Edition” de la NPR și, în prezent, realizator al podcastului „Left, Right & Center” la KCRW, a dat în judecată compania în statul California, susținând că vocea masculină generată de funcția „Audio Overviews” ar fi fost antrenată pe baza înregistrărilor sale.
Funcția, lansată în a doua jumătate a anului 2024, permite utilizatorilor să transforme notițe și documente în episoade scurte de tip podcast, cu doi co-prezentatori virtuali. La momentul lansării, publicații precum Forbes și WIRED au remarcat caracterul „surprinzător de uman” al vocilor generate. Controversa amintește de un episod din mai 2024, când actrița Scarlett Johansson s-a declarat „șocată, furioasă și neîncrezătoare” după ce OpenAI a lansat o voce ChatGPT denumită „Sky”, despre care a spus că seamănă „în mod tulburător” cu a sa, evocând rolul din filmul „Her” (2013). Scandalul a alimentat dezbaterea privind clonarea vocală și dreptul la propria imagine și voce.
Potrivit plângerii depuse la un tribunal din Santa Clara, Google ar fi replicat „vocea distinctivă” a lui Greene fără consimțământ sau compensație. Jurnalistul afirmă că:
Directorul firmei de expertiză, citat în acțiune, ar fi concluzionat că există suficiente indicii pentru a susține ipoteza antrenării modelului pe înregistrările lui Greene.
Google respinge acuzațiile. Un purtător de cuvânt al companiei a declarat pentru Gizmodo că vocea masculină din NotebookLM aparține unui actor profesionist plătit, angajat special pentru acest proiect, iar afirmațiile din proces sunt „nefondate”.
Cazul se înscrie într-o serie de litigii privind folosirea proprietății intelectuale în antrenarea modelelor de inteligență artificială. În ultimii ani, mai multe companii din domeniu au fost acționate în instanță pentru utilizarea neautorizată a conținutului sau pentru imitarea vocii și imaginii unor persoane publice. Procesul deschis de David Greene ar putea clarifica limitele legale privind utilizarea vocilor umane în sisteme automate, într-un moment în care tehnologia de sinteză vocală devine tot mai convingătoare.
Recomandate

John Giannandrea , șeful strategiei de AI și învățare automată la Apple, pleacă din companie săptămâna aceasta , potrivit PhoneArena , care citează informații din newsletterul Power On al lui Mark Gurman. Plecarea închide un capitol început în 2018, când CEO-ul Tim Cook l-a recrutat de la Google pentru a conduce eforturile Apple în inteligență artificială (AI) și învățare automată (machine learning). Giannandrea a fost, în ultimii opt ani, vicepreședinte senior responsabil de strategia de AI și machine learning, iar momentul-cheie al mandatului său a venit în 2024, când Apple a prezentat la WWDC 2024 (Worldwide Developers Conference) suita de funcții „Apple Intelligence” și planurile pentru un Siri refăcut. Conform relatării, livrarea acestor produse nu a decurs lin, iar rolul lui Giannandrea în coordonarea dezvoltării AI ar fi fost redus semnificativ în lunile dinaintea anunțului privind plecarea. În interpretarea lui Gurman, problemele Apple cu Apple Intelligence și Siri nu ar fi neapărat rezultatul unei „greșeli personale” a lui Giannandrea, ci al modului în care este condusă compania. „Vârful Apple este condus ca o mică afacere de familie, iar oamenii din afară precum Giannandrea nu sunt împuterniciți suficient pentru a produce schimbări reale”, susține Mark Gurman, citat de PhoneArena. Calendarul plecării pare legat și de compensația în acțiuni: Gurman afirmă că pe 15 aprilie urmează să se consolideze (vest) acțiuni Apple, iar acesta ar fi motivul pentru care Giannandrea ar fi așteptat până acum. Tot el spune că ultimele zile ale lui Giannandrea la Apple se încheie „săptămâna aceasta”. Pentru piață, miza este dublă: pe de o parte, Apple își reorganizează conducerea într-un moment în care AI a devenit o componentă centrală a produselor și a competiției din tehnologie; pe de altă parte, plecarea unui executiv adus special pentru această zonă ridică întrebări despre capacitatea companiei de a accelera refacerea lui Siri și livrarea funcțiilor promise. PhoneArena mai notează, tot pe baza informațiilor lui Gurman , că este puțin probabil ca Giannandrea să se alăture curând unei alte mari companii de tehnologie; planul ar fi să facă activitate de consiliere în zona startup-urilor. În paralel, publicația amintește că, la început, conducerea Apple ar fi fost reticentă față de AI, iar șeful diviziei software, Craig Federighi, ar fi devenit mai favorabil după ce a folosit AI pentru a scrie cod într-o seară. Pe scurt, din informațiile prezentate de sursă, principalele repere ale acestui episod sunt: Giannandrea a fost recrutat în 2018 de la Google pentru a conduce AI și machine learning la Apple. În 2024, Apple a prezentat la WWDC suita „Apple Intelligence” și direcția pentru un nou Siri, dar implementarea a avut sincope. Rolul lui Giannandrea ar fi fost redus înainte ca plecarea să fie anunțată, iar ieșirea efectivă are loc în această săptămână, în jurul datei de 15 aprilie (consolidarea acțiunilor). Potrivit lui Gurman, el ar urma să se orienteze spre consiliere pentru startup-uri, nu spre o nouă poziție într-un gigant tech. [...]

Google își segmentează mai agresiv abonamentele AI, iar diferența reală se vede în limitele de utilizare și în „creditele AI” pentru video : potrivit 9to5Google , pachetele Google AI Plus, Pro și Ultra (aprilie 2026) nu se diferențiază doar prin acces la modele, ci mai ales prin volumele zilnice/lunare permise, fereastra de context și accesul la produse conexe (Gmail, Drive, Home, Photos, NotebookLM ), ceea ce poate schimba costul operațional pentru utilizatorii care folosesc intens instrumentele Gemini. Ce se schimbă, în esență: „limite” și context mult mai mare pe Pro/Ultra În varianta gratuită, utilizatorii primesc acces „general” la Gemini 3 Flash și acces „de bază” (cu limite zilnice variabile) la Thinking (3 Flash) și Pro (3.1 Pro), cu o fereastră de context de 32.000 de tokeni (aprox. 50 de pagini de text). Tot aici intră și funcții precum Memory (memorie/păstrarea contextului personal) și Personal Intelligence, plus plafoane relativ mici pentru Deep Research, generare de imagini și muzică, „dynamic view”, prezentări și automatizare pe ecran. Saltul operațional apare la abonamentele plătite, unde cresc simultan: numărul de solicitări („prompts”) pe zi, fereastra de context (până la 1 milion de tokeni pe Pro), limitele pentru Deep Research, imagini, muzică, video și automatizări. Google AI Plus: creștere de volum și „Notebooks” în aplicația Gemini Google AI Plus ridică limitele în aplicația Gemini (de exemplu, Thinking la 90 prompts/zi și Pro la 30 prompts/zi) și urcă fereastra de context la 128.000 de tokeni. Include și: Deep Research (12 rapoarte/zi), generare/editare imagini (Nano Banana 2 și Nano Banana Pro, până la 50 imagini/zi fiecare), generare muzică (până la 20 piese/zi la 30 secunde și 10 piese/zi la 3 minute), Veo 3.1 Fast (2 video/zi), acțiuni programate (max. 10 active simultan), automatizare pe ecran (12 cereri/zi), „Notebooks” (proiecte care organizează conversații și fișiere, cu integrare NotebookLM). În plus, pachetul include pentru Flow și Whisk 200 „ AI Credits ” pe lună (credite consumate pe generări, nu pe cereri, notează publicația). Google AI Pro : rebrand, dar și pachet mai „greu” pentru productivitate și dezvoltare Google AI Pro este prezentat ca un rebrand al Google One AI Premium (fără referința explicită la Google One). În SUA, costă 19,99 dolari/lună (aprox. 90 lei) conform paginii de preț indicată de Google. Dincolo de nume, Pro aduce un set de diferențiatori cu impact practic: în aplicația Gemini: Thinking la 300 prompts/zi și Pro la 100 prompts/zi; fereastră de context de 1 milion de tokeni (echivalentul a ~1.500 de pagini sau 30.000 de linii de cod, potrivit sursei); Deep Research (20 rapoarte/zi); generare imagini (până la 100/zi pentru Nano Banana 2 și Nano Banana Pro); prezentări: nelimitat (slide generation); „dynamic view” până la 250 prompts/zi; Veo 3.1 Fast (3 video/zi) și automatizare pe ecran (20 cereri/zi). La nivel de aplicații, Pro include și: acces „limitat” la „auto browse” în Chrome (navigare automată asistată), upgrade pentru căutarea din Gmail prin AI Overviews și funcția Proofread la redactare, panoul Gemini și funcții integrate în Drive/Docs/Sheets/Slides/Meet/Chat, limite mai mari în Google Search AI Mode (inclusiv pentru interogări mai sofisticate și răspunsuri mai lungi, generate după „sute de căutări” și raționament pe surse multiple, cu raport „complet citat”), Google Home Premium (fost Nest Aware) inclus, cu istoric video pe 30 de zile și alerte inteligente, plus posibilitatea de a crea automatizări prin limbaj natural, nivel mai ridicat de generări în Google Photos (remix și photo-to-video). Pentru NotebookLM, Pro ridică semnificativ plafoanele (de exemplu, până la 500 de notebook-uri și 20 Audio Overviews/zi) și adaugă setări avansate de stil al răspunsului și analitice. Tot Pro include 5 TB stocare Google One (creștere de la 2 TB, anunțată la 1 aprilie, conform sursei) și acces la instrumente pentru dezvoltatori: Jules (agent asincron de programare), Gemini Code Assist, Gemini CLI și Antigravity, cu limite mai mari decât la gratuit. „AI Credits” devin o monedă internă pentru Flow și Whisk Pe Pro, Google introduce 1.000 AI Credits/lună pentru Whisk și Flow și permite cumpărarea de credite suplimentare („top-up”), valabile 12 luni, la tarifele: 25 dolari (aprox. 110 lei) pentru 2.500 credite 50 dolari (aprox. 225 lei) pentru 5.000 credite 200 dolari (aprox. 900 lei) pentru 20.000 credite Publicația precizează că aceste costuri sunt „pe generare”, nu pe cerere, iar unele funcții pot produce mai multe generări dintr-o singură solicitare. Google AI Ultra: preț de „enterprise”, dar cu cele mai mari plafoane și produse incluse Google AI Ultra este disponibil în peste 150 de țări și costă 249,99 dolari/lună în SUA (aprox. 1.125 lei). Include Whisk + Flow și 12.500 AI Credits/lună. În aplicația Gemini, Ultra urcă masiv limitele: Thinking: 1.500 prompts/zi; Pro: 500 prompts/zi Deep Research: 120 rapoarte/zi Deep Think 3.1: 10 prompts/zi cu fereastră de context de 192.000 tokeni imagini: până la 1.000/zi (Nano Banana 2 și Pro) muzică: până la 100 piese/zi (30 sec) și 50 piese/zi (3 min) Veo 3.1: 5 video/zi Gemini Agent: 200 cereri/zi și 3 sarcini simultane automatizare pe ecran: 120 cereri/zi Ultra adaugă și: acces „cel mai ridicat” la auto browse în Chrome, acces beta la „AI Inbox” în Gmail (organizare în „Suggested to-dos” și „Topics”), cel mai ridicat nivel de acces în Google AI Mode (inclusiv capabilități „agentice”), Google Home Premium Advanced (înlocuiește Nest Aware Plus), cu istoric mai lung și funcții de căutare în istoricul video, cele mai mari limite în NotebookLM (inclusiv eliminarea watermark-ului pentru infografice și prezentări), 30 TB stocare (pe care sursa o compară cu un cost separat de 149,99 dolari/lună), YouTube Premium (plan individual 13,99 dolari/lună, menționat ca reper), Project Mariner (agent de browser care poate rula 10 sarcini simultan) și Project Genie (lumi interactive „jucabile”). De ce contează pentru utilizatori și companii Dincolo de „ce model ai”, Google împinge piața spre o logică de consum măsurat: limite zilnice/lunare, ferestre de context foarte mari pentru sarcini complexe (documente și cod) și o monedă internă („AI Credits”) pentru generare video în Flow/Whisk. Pentru utilizatorii care produc conținut sau automatizează fluxuri (mail, documente, căutare, video), diferența de cost poate ajunge să fie dictată de volum și de credite, nu de accesul nominal la Gemini. Ce nu reiese din material: dacă prețurile și disponibilitatea din SUA se aplică identic în România; 9to5Google menționează explicit prețurile pentru SUA și disponibilitatea Ultra în 150+ țări, fără detalii pe fiecare piață. [...]

Raportul anual al Stanford arată că percepția publicului despre AI se îndepărtează rapid de cea a experților , un decalaj care riscă să alimenteze presiuni de reglementare și costuri operaționale pentru companiile care dezvoltă și implementează tehnologia, potrivit TechCrunch . Documentul notează o creștere a anxietății legate de AI și, în SUA, îngrijorări privind efectele asupra locurilor de muncă, îngrijirii medicale și economiei. În timp ce liderii din industrie își concentrează discursul pe riscuri de tip AGI (inteligență artificială generală – o formă teoretică de „superinteligență” capabilă să facă orice sarcină umană), publicul se uită mai degrabă la impactul imediat: salarii, stabilitatea joburilor și posibile scumpiri ale energiei pe fondul construirii de centre de date mari consumatoare de electricitate. Diferențe mari între experți și public pe joburi, economie și sănătate Raportul Stanford sintetizează mai multe seturi de date despre sentimentul public, inclusiv rezultate din cercetări Pew Research citate în raport. Un exemplu: doar 10% dintre americani au spus că sunt mai entuziasmați decât îngrijorați de utilizarea tot mai mare a AI în viața de zi cu zi, în timp ce 56% dintre experții în AI consideră că tehnologia va avea un impact pozitiv asupra SUA în următorii 20 de ani. Pe domenii, diferențele sunt și mai pronunțate: Îngrijire medicală: 84% dintre experți anticipează un impact în mare parte pozitiv, față de 44% din publicul general din SUA. Modul în care oamenii își fac munca: 73% dintre experți sunt optimiști, comparativ cu 23% din public. Economie: 69% dintre experți văd un efect pozitiv, dar doar 21% dintre respondenții din public sunt de acord, pe fondul temerilor legate de concedieri și perturbări la locul de muncă. Piața muncii: aproape două treimi dintre americani (64%) cred că AI va duce la mai puține locuri de muncă în următorii 20 de ani. Încrederea în reglementare rămâne un punct sensibil Raportul indică și o problemă de guvernanță: SUA ar avea cel mai scăzut nivel de încredere în capacitatea guvernului de a reglementa responsabil AI, la 31%, în comparație cu alte țări. Singapore apare cu cel mai ridicat nivel, 81%, pe baza datelor Ipsos incluse în raport. Separat, o altă sursă citată în raport arată că, la nivel național în SUA, 41% dintre respondenți cred că reglementarea federală a AI nu va merge suficient de departe , în timp ce 27% spun că ar merge „prea departe”. Context: reacții online și o generație mai furioasă, deși folosește AI TechCrunch notează că raportul vine pe fondul unei intensificări a sentimentului negativ față de AI, cu Gen Z „în avangardă”, potrivit unui sondaj Gallup citat de publicație: tinerii ar fi mai puțin optimiști și mai furioși, deși aproximativ jumătate folosesc AI zilnic sau săptămânal. Diviziunea dintre „insideri” și public a devenit vizibilă și în reacțiile online la atacurile recente asupra locuinței CEO-ului OpenAI, Sam Altman , unde unele comentarii au părut să laude incidentul, în timp ce persoane din industrie s-au declarat surprinse de tonul acestor reacții. Un semnal mixt: beneficii percepute în creștere, dar și nervozitate mai mare La nivel global, ponderea celor care cred că produsele și serviciile AI aduc mai multe beneficii decât dezavantaje a crescut ușor, de la 55% în 2024 la 59% în 2025. În același timp, a crescut și ponderea celor care spun că AI îi face „nervoși”, de la 50% la 52%. Pentru companii, mesajul implicit al raportului este că acceptarea socială și încrederea în reglementare pot deveni la fel de importante ca performanța tehnică: dacă publicul rămâne concentrat pe efectele asupra veniturilor și costurilor (inclusiv energie), presiunea pentru reguli mai stricte și pentru limitarea unor proiecte de infrastructură ar putea crește. [...]

Microsoft testează integrarea unor funcții de tip OpenClaw în Microsoft 365 Copilot , cu accent pe controlul de securitate pentru clienții enterprise , potrivit TechCrunch . Compania a confirmat pentru The Information că noile capabilități ar viza mediul corporate și ar veni cu „controale de securitate mai bune” decât agentul open-source OpenClaw, descris ca fiind riscant. Miza operațională este trecerea de la Copilot ca asistent care răspunde la solicitări la un agent care poate executa acțiuni în mod continuu. Conform informațiilor citate, una dintre funcțiile principale ar fi un fel de „365 Copilot care lucrează mereu”, capabil să inițieze acțiuni oricând și să ducă la capăt sarcini în mai mulți pași, pe perioade mai lungi. Ce este OpenClaw și ce ar vrea Microsoft să reproducă OpenClaw este prezentat ca un instrument care rulează local pe calculatorul utilizatorului și poate crea „agenți” care îndeplinesc sarcini în numele acestuia. TechCrunch notează că, dacă Microsoft va construi propria versiune de „Claw” (adică un agent care rulează local), proiectul s-ar alătura unei serii de instrumente „agentice” anunțate de companie în ultimele luni. Deocamdată, publicația subliniază că nu este clar dacă noul „Claw” al Microsoft va rula local sau va prelua doar unele dintre funcțiile apreciate de comunitatea OpenClaw. Cum se leagă de restul „agenților” Copilot În material sunt menționate mai multe inițiative recente ale Microsoft în zona de agenți: Copilot Cowork (anunțat în martie): conceput să întreprindă acțiuni în aplicațiile Microsoft 365, nu doar să ofere rezultate de căutare sau conversație într-un panou separat; ar fi alimentat de o tehnologie numită „Work IQ”, descrisă ca un strat de inteligență care personalizează experiența în Microsoft 365. Integrarea modelului Claude (Anthropic) în Cowork : după parteneriatul cu Anthropic de la finalul anului trecut, Microsoft a adăugat Claude ca opțiune pentru Cowork; însă Cowork rulează în cloud, nu pe hardware local. Copilot Tasks (introdus în februarie, în versiune preview): un alt agent pentru completarea de sarcini; materialele de marketing îl poziționau mai degrabă către „prosumers” decât către enterprise, cu exemple de la organizarea e-mailului până la organizarea călătoriilor și a programărilor; și acesta rulează în cloud. De ce contează: securitate și control, plus presiune de platformă Pentru companii, diferența majoră sugerată de articol este promisiunea unor controale de securitate mai solide decât în cazul unui proiect open-source considerat „riscant”, într-un context în care agenții capabili să execute acțiuni pot amplifica impactul unui incident (de la acces neautorizat la automatizări greșite). TechCrunch mai notează și un element de piață: deși OpenClaw poate rula pe Windows, Mac Mini a devenit platforma preferată pentru utilizatorii OpenClaw , iar aceste dispozitive „s-au vândut ca pâinea caldă”, ceea ce ar putea fi încă o motivație pentru Microsoft să vină cu propria alternativă. Ce urmează Compania ar urma să prezinte noul „Claw” (sau o versiune îmbunătățită a unuia dintre instrumentele existente) la conferința Microsoft Build din iunie, potrivit unui material The Verge citat de TechCrunch. Publicația spune că a cerut Microsoft clarificări despre cum se poziționează acest agent față de ceilalți și va actualiza informația când va primi un răspuns. [...]

Administrația Trump împinge marile bănci americane spre testarea AI-ului Anthropic , deși Pentagonul a încercat să blocheze compania , într-un episod care riscă să creeze incertitudine de reglementare și operațională pentru instituțiile financiare care adoptă rapid tehnologia, potrivit The Next Web . Secretarul Trezoreriei, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au chemat în această săptămână executivi de la JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America și Morgan Stanley și i-au îndemnat să folosească modelul „Mythos” al Anthropic pentru a identifica vulnerabilități de securitate cibernetică în propriile sisteme, conform Bloomberg, citat de publicație. Recomandarea vine în timp ce Departamentul Apărării se află în litigiu cu Anthropic, după ce a etichetat compania drept „risc pentru lanțul de aprovizionare”, ceea ce o exclude de la contracte militare. De ce contează: semnale contradictorii de la același guvern Contradicția este una de politică publică cu efect direct asupra pieței: aceeași administrație care a încercat să scoată Anthropic din zona de apărare încurajează acum sistemul financiar să se bazeze pe tehnologia sa pentru securitate. În centrul disputei cu Pentagonul se află refuzul Anthropic de a elimina două restricții de siguranță din modelele sale: interdicția utilizării în arme complet autonome și interdicția folosirii pentru supravegherea în masă a cetățenilor americani. Potrivit articolului, conflictul a escaladat în februarie, când secretarul Apărării Pete Hegseth i-ar fi dat CEO-ului Anthropic, Dario Amodei, un termen limită pentru a renunța la aceste restricții, în caz contrar compania riscând pierderea unui contract de apărare de 200 milioane de dolari (aprox. 920 milioane lei). Amodei a refuzat, iar ulterior a urmat desemnarea ca „risc pentru lanțul de aprovizionare” și un ordin al președintelui Trump ca agențiile federale să nu mai folosească tehnologia Anthropic. În instanță, situația a rămas mixtă: un judecător federal din California a emis o ordonanță preliminară care blochează desemnarea, însă o curte de apel din Washington, D.C. a respins cererea Anthropic de a opri temporar „blacklisting”-ul pe durata procesului. Efectul practic descris de publicație: Anthropic este exclusă din contractele Departamentului Apărării, dar poate lucra în continuare cu alte agenții guvernamentale. Ce este Mythos și de ce nu e disponibil public „Claude Mythos Preview” este prezentat ca un model de vârf („frontier model”), pe care Anthropic spune că nu l-a antrenat explicit pentru securitate cibernetică; capacitatea de a găsi vulnerabilități ar fi apărut ca efect al îmbunătățirilor generale în raționamentul pe cod și operare autonomă. În testare, modelul ar fi identificat „mii” de vulnerabilități „zero-day” (defecte necunoscute anterior dezvoltatorilor) în principalele sisteme de operare și browsere. Anthropic nu a lansat public modelul, ci l-a inclus într-un program restricționat, „ Project Glasswing ”, care oferă acces către aproximativ 50 de organizații. Lista menționată include, între altele, Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks și JPMorgan Chase. Ca parte a inițiativei, Anthropic ar fi angajat până la 100 milioane de dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane de dolari (aprox. 18,4 milioane lei) în donații către organizații de securitate open-source. Publicația notează însă și scepticismul din piață: Tom’s Hardware a pus sub semnul întrebării afirmațiile despre „mii” de descoperiri severe, arătând că acestea s-ar baza pe 198 de evaluări manuale și că multe vulnerabilități semnalate ar fi în software mai vechi sau greu de exploatat. În plus, o parte a comunității de securitate ar vedea lansarea restricționată și ca o tactică comercială de tip „scarcity” (crearea artificială a rarității) pentru clienți mari. Ce testează băncile și ce urmează pe partea de supraveghere JPMorgan Chase este menționată ca partener oficial în Project Glasswing, iar Bloomberg (citat de articol) susține că Goldman Sachs, Citigroup, Bank of America și Morgan Stanley testează intern Mythos. Cazurile de utilizare raportate includ: detectarea vulnerabilităților; semnalarea riscurilor de fraudă; automatizarea fluxurilor de lucru de conformitate (compliance) în sistemele financiare. Pe partea de reglementare, reacția descrisă nu se limitează la SUA. Financial Times, citat de The Next Web, relatează că autorități din Marea Britanie – Bank of England, Financial Conduct Authority și HM Treasury – discută cu National Cyber Security Centre pentru a evalua riscurile și vulnerabilitățile evidențiate de Mythos, iar reprezentanți ai unor bănci, asigurători și burse ar urma să fie informați în următoarele două săptămâni. În ansamblu, episodul arată cum adoptarea accelerată a AI-ului în infrastructura financiară poate avansa mai repede decât coerența deciziilor guvernamentale: pentru bănci, recomandarea venită simultan de la Trezorerie și Fed cântărește operațional, chiar dacă o altă ramură a administrației încearcă să limiteze aceeași companie. [...]

Anthropic discută cu administrația Trump despre modelul său AI de vârf, Mythos, chiar dacă Pentagonul i-a tăiat accesul la contracte pe fondul unui litigiu privind condițiile de utilizare militară , potrivit Reuters . Miza este una de reglementare și guvernanță: cum ajunge un model „de frontieră” (frontier AI) în dialog cu statul, în timp ce o agenție-cheie îl tratează drept risc de securitate în lanțul de aprovizionare. Cofondatorul Anthropic, Jack Clark , a spus luni, la evenimentul Semafor World Economy din Washington, că firma discută cu administrația despre Mythos și că va discuta și despre modelele viitoare, în pofida disputei contractuale cu Pentagonul. El a descris conflictul drept unul „îngust”, dar a insistat că nu ar trebui să blocheze cooperarea pe teme de securitate națională. „Avem o dispută contractuală îngustă, dar nu vreau ca asta să stea în calea faptului că ne pasă profund de securitatea națională.” De ce contează: „gardurile de protecție” pentru utilizarea militară Reuters arată că disputa dintre Anthropic și Pentagon a pornit de la „guardrails” – condiții și limitări privind modul în care armata ar putea folosi instrumentele de inteligență artificială ale companiei. În urma conflictului, agenția a etichetat Anthropic luna trecută drept „risc în lanțul de aprovizionare”, interzicând utilizarea produselor sale atât în Pentagon, cât și la contractori. În paralel, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – nu erau clare imediat, potrivit aceleiași surse. Context: ce este Mythos și de ce ridică probleme de securitate cibernetică Mythos a fost anunțat pe 7 aprilie și este prezentat de companie drept cel mai capabil model al său pentru programare și „sarcini agentice” – adică activități pe care modelul le poate executa autonom. Experți citați de Reuters spun că abilitatea de a scrie cod la nivel înalt ar putea oferi modelului o capacitate potențial fără precedent de a identifica vulnerabilități de securitate cibernetică și de a găsi modalități de exploatare a acestora. Ce urmează: bătălia juridică rămâne deschisă Un complet federal de apel din Washington, D.C., a refuzat săptămâna trecută să blocheze, deocamdată, decizia Pentagonului de a trece Anthropic pe lista de „blacklisting” pe criterii de securitate națională, o victorie pentru administrația Trump. Reuters notează că decizia vine după ce o altă instanță de apel a ajuns la concluzia opusă într-o contestație separată inițiată de Anthropic. [...]