Știri
Știri din categoria Inteligență artificială

Anthropic discută cu administrația Trump despre modelul său AI de vârf, Mythos, chiar dacă Pentagonul i-a tăiat accesul la contracte pe fondul unui litigiu privind condițiile de utilizare militară, potrivit Reuters. Miza este una de reglementare și guvernanță: cum ajunge un model „de frontieră” (frontier AI) în dialog cu statul, în timp ce o agenție-cheie îl tratează drept risc de securitate în lanțul de aprovizionare.
Cofondatorul Anthropic, Jack Clark, a spus luni, la evenimentul Semafor World Economy din Washington, că firma discută cu administrația despre Mythos și că va discuta și despre modelele viitoare, în pofida disputei contractuale cu Pentagonul. El a descris conflictul drept unul „îngust”, dar a insistat că nu ar trebui să blocheze cooperarea pe teme de securitate națională.
„Avem o dispută contractuală îngustă, dar nu vreau ca asta să stea în calea faptului că ne pasă profund de securitatea națională.”
Reuters arată că disputa dintre Anthropic și Pentagon a pornit de la „guardrails” – condiții și limitări privind modul în care armata ar putea folosi instrumentele de inteligență artificială ale companiei. În urma conflictului, agenția a etichetat Anthropic luna trecută drept „risc în lanțul de aprovizionare”, interzicând utilizarea produselor sale atât în Pentagon, cât și la contractori.
În paralel, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – nu erau clare imediat, potrivit aceleiași surse.
Mythos a fost anunțat pe 7 aprilie și este prezentat de companie drept cel mai capabil model al său pentru programare și „sarcini agentice” – adică activități pe care modelul le poate executa autonom. Experți citați de Reuters spun că abilitatea de a scrie cod la nivel înalt ar putea oferi modelului o capacitate potențial fără precedent de a identifica vulnerabilități de securitate cibernetică și de a găsi modalități de exploatare a acestora.
Un complet federal de apel din Washington, D.C., a refuzat săptămâna trecută să blocheze, deocamdată, decizia Pentagonului de a trece Anthropic pe lista de „blacklisting” pe criterii de securitate națională, o victorie pentru administrația Trump. Reuters notează că decizia vine după ce o altă instanță de apel a ajuns la concluzia opusă într-o contestație separată inițiată de Anthropic.
Recomandate

Administrația Trump împinge marile bănci americane spre testarea AI-ului Anthropic , deși Pentagonul a încercat să blocheze compania , într-un episod care riscă să creeze incertitudine de reglementare și operațională pentru instituțiile financiare care adoptă rapid tehnologia, potrivit The Next Web . Secretarul Trezoreriei, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au chemat în această săptămână executivi de la JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America și Morgan Stanley și i-au îndemnat să folosească modelul „Mythos” al Anthropic pentru a identifica vulnerabilități de securitate cibernetică în propriile sisteme, conform Bloomberg, citat de publicație. Recomandarea vine în timp ce Departamentul Apărării se află în litigiu cu Anthropic, după ce a etichetat compania drept „risc pentru lanțul de aprovizionare”, ceea ce o exclude de la contracte militare. De ce contează: semnale contradictorii de la același guvern Contradicția este una de politică publică cu efect direct asupra pieței: aceeași administrație care a încercat să scoată Anthropic din zona de apărare încurajează acum sistemul financiar să se bazeze pe tehnologia sa pentru securitate. În centrul disputei cu Pentagonul se află refuzul Anthropic de a elimina două restricții de siguranță din modelele sale: interdicția utilizării în arme complet autonome și interdicția folosirii pentru supravegherea în masă a cetățenilor americani. Potrivit articolului, conflictul a escaladat în februarie, când secretarul Apărării Pete Hegseth i-ar fi dat CEO-ului Anthropic, Dario Amodei, un termen limită pentru a renunța la aceste restricții, în caz contrar compania riscând pierderea unui contract de apărare de 200 milioane de dolari (aprox. 920 milioane lei). Amodei a refuzat, iar ulterior a urmat desemnarea ca „risc pentru lanțul de aprovizionare” și un ordin al președintelui Trump ca agențiile federale să nu mai folosească tehnologia Anthropic. În instanță, situația a rămas mixtă: un judecător federal din California a emis o ordonanță preliminară care blochează desemnarea, însă o curte de apel din Washington, D.C. a respins cererea Anthropic de a opri temporar „blacklisting”-ul pe durata procesului. Efectul practic descris de publicație: Anthropic este exclusă din contractele Departamentului Apărării, dar poate lucra în continuare cu alte agenții guvernamentale. Ce este Mythos și de ce nu e disponibil public „Claude Mythos Preview” este prezentat ca un model de vârf („frontier model”), pe care Anthropic spune că nu l-a antrenat explicit pentru securitate cibernetică; capacitatea de a găsi vulnerabilități ar fi apărut ca efect al îmbunătățirilor generale în raționamentul pe cod și operare autonomă. În testare, modelul ar fi identificat „mii” de vulnerabilități „zero-day” (defecte necunoscute anterior dezvoltatorilor) în principalele sisteme de operare și browsere. Anthropic nu a lansat public modelul, ci l-a inclus într-un program restricționat, „ Project Glasswing ”, care oferă acces către aproximativ 50 de organizații. Lista menționată include, între altele, Amazon Web Services, Apple, Google, Microsoft, Nvidia, Cisco, CrowdStrike, Palo Alto Networks și JPMorgan Chase. Ca parte a inițiativei, Anthropic ar fi angajat până la 100 milioane de dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane de dolari (aprox. 18,4 milioane lei) în donații către organizații de securitate open-source. Publicația notează însă și scepticismul din piață: Tom’s Hardware a pus sub semnul întrebării afirmațiile despre „mii” de descoperiri severe, arătând că acestea s-ar baza pe 198 de evaluări manuale și că multe vulnerabilități semnalate ar fi în software mai vechi sau greu de exploatat. În plus, o parte a comunității de securitate ar vedea lansarea restricționată și ca o tactică comercială de tip „scarcity” (crearea artificială a rarității) pentru clienți mari. Ce testează băncile și ce urmează pe partea de supraveghere JPMorgan Chase este menționată ca partener oficial în Project Glasswing, iar Bloomberg (citat de articol) susține că Goldman Sachs, Citigroup, Bank of America și Morgan Stanley testează intern Mythos. Cazurile de utilizare raportate includ: detectarea vulnerabilităților; semnalarea riscurilor de fraudă; automatizarea fluxurilor de lucru de conformitate (compliance) în sistemele financiare. Pe partea de reglementare, reacția descrisă nu se limitează la SUA. Financial Times, citat de The Next Web, relatează că autorități din Marea Britanie – Bank of England, Financial Conduct Authority și HM Treasury – discută cu National Cyber Security Centre pentru a evalua riscurile și vulnerabilitățile evidențiate de Mythos, iar reprezentanți ai unor bănci, asigurători și burse ar urma să fie informați în următoarele două săptămâni. În ansamblu, episodul arată cum adoptarea accelerată a AI-ului în infrastructura financiară poate avansa mai repede decât coerența deciziilor guvernamentale: pentru bănci, recomandarea venită simultan de la Trezorerie și Fed cântărește operațional, chiar dacă o altă ramură a administrației încearcă să limiteze aceeași companie. [...]

Un sondaj citat de TechRadar indică sabotaj intern la implementările AI , pe fondul temerilor legate de pierderea locurilor de muncă și al unei tensiuni tot mai vizibile între management și angajați: 29% dintre salariați ar „sabotaja activ” introducerea instrumentelor de inteligență artificială în companie, procentul urcând la 44% în rândul Generației Z. Ce arată raportul despre adopția AI în companii Datele provin dintr-un raport (PDF) realizat de Writer (firmă de „agenți AI” pentru companii) și Workplace Intelligence. Conform materialului, formele de „sabotaj” menționate includ: refuzul de a folosi instrumente AI impuse de companie; introducerea de informații proprietare ale companiei în sisteme AI publice, ca metodă de a compromite implementarea. TechRadar notează că o parte dintre angajații care se simt amenințați de AI aleg să nu utilizeze aceste instrumente, chiar și atunci când sunt cerute explicit. Riscul operațional: conflictul cu managementul și costul în carieră Raportul indică și o reacție dură din partea conducerii: 77% dintre executivi spun că ar fi mai puțin dispuși să ofere promovări sau roluri de leadership angajaților care evită instrumentele AI. În termeni operaționali, asta sugerează că adopția AI nu mai este doar o decizie tehnologică, ci devine un criteriu de evaluare și selecție internă, cu potențial de a amplifica tensiunile în organizații. Context: avertismente despre joburi și percepția publică În ianuarie 2026, la World Economic Forum, CEO-ul și cofondatorul Palantir, Alex Karp, a spus că AI „va distruge locurile de muncă din umaniste”, dar va avantaja piața pentru persoane cu pregătire vocațională și creativă. În același registru, CEO-ul Anthropic, Dario Amodei, a avertizat (potrivit TechRadar) că AI ar putea distruge jumătate dintre joburile „entry level” de tip white-collar. Materialul mai citează: un sondaj NBC News potrivit căruia 46% dintre alegătorii înregistrați din SUA au o opinie negativă despre AI, față de 26% cu opinie pozitivă; un studiu Anthropic (martie) care arată că modelul Claude poate realiza majoritatea sarcinilor asociate unor joburi din informatică, drept, business și finanțe. Într-un interviu pentru Axios , Karp este citat astfel: „Dacă ești genul de persoană care ar fi mers la Yale, clasic cu IQ mare, și ai cunoștințe generaliste, dar nu specifice, ești terminat.” De ce contează pentru companii Dincolo de dezbaterea despre piața muncii, datele din raport indică un risc imediat pentru implementările AI: rezistența internă poate lua forme care afectează direct proiectele (adopție scăzută, utilizare neconformă) și poate crea probleme de guvernanță a datelor, atunci când informații ale companiei ajung în sisteme publice. TechRadar sugerează că mesajul transmis de lideri și executivi este unul de adaptare forțată: angajații care nu folosesc AI pot fi penalizați în evoluția profesională, în timp ce o parte dintre cei mai tineri angajați încearcă să blocheze sau să încetinească schimbarea. [...]

Anthropic își împinge Claude direct în fluxul de lucru din Microsoft Word, vizând în primul rând revizuirea contractelor legale , într-o mișcare care poate muta valoare dinspre furnizorii specializați de tehnologie juridică către platformele de inteligență artificială integrate nativ în aplicațiile folosite zilnic de profesioniști, potrivit The Next Web . Anthropic a lansat pe 10 aprilie 2026 o versiune beta publică a „ Claude for Word ”, un add-in tip bară laterală pentru Microsoft Word pe Mac și Windows, disponibil prin Microsoft AppSource. Ideea centrală: utilizatorii nu mai trebuie să iasă din Word sau să copieze textul într-un instrument separat, iar fiecare modificare propusă de Claude apare ca „tracked change” (modificare urmărită) nativă, vizibilă în panoul de revizii, ca și cum ar fi intervenția unui coleg. De ce contează: AI-ul intră în „coloana vertebrală” a revizuirii juridice Anthropic poziționează explicit produsul pentru profesioniști care lucrează intens cu documente, „în special” pentru revizuire juridică, redactare de memorii financiare și editare iterativă. În lista de exemple, revizuirea contractelor legale este prima, cu solicitări sugerate precum: rezumarea termenilor comerciali cheie (părți, durată, lege aplicabilă, elemente „off-market”); semnalarea clauzelor care se abat de la standardele pieței, ordonate după severitate; transformarea clauzei de despăgubire (indemnizație) în una reciprocă și introducerea unui limbaj de rezervă standard; parcurgerea comentariilor din document și tratarea lor ca sarcini, cu modificări urmărite. Instrumentul este conceput să „înțeleagă” structuri complexe de document (numerotări juridice pe mai multe niveluri, termeni definiți, trimiteri interne, ierarhii de titluri) și să editeze clauze punctuale fără să strice formatarea din jur. Integrare în suita Office și acces: doar abonamentele de echipă și enterprise Claude for Word se conectează cu Claude pentru Excel și Claude pentru PowerPoint, astfel încât o singură conversație să poată continua între documente, foi de calcul și prezentări. Accesul este limitat, deocamdată, la: planul Claude Team, la 25 dolari/loc/lună (aprox. 115 lei); planurile Enterprise. În paralel, Anthropic este în discuții pentru o investiție de 200 milioane de dolari (aprox. 920 milioane lei) într-un joint venture susținut de private equity, menit să accelereze adopția în companii prin integrarea Claude în fluxurile de lucru ale firmelor din portofoliile fondurilor de investiții. Semnal pentru piață: presiune pe furnizorii de tehnologie juridică Materialul plasează lansarea în contextul intrării accelerate a Anthropic în zona juridică, după un plugin legal pentru platforma „Claude Cowork” lansat pe 2 februarie 2026. Reacția bursieră de atunci a fost abruptă: Thomson Reuters a scăzut cu 16%, RELX cu 14%, iar Wolters Kluwer cu 13% într-o singură sesiune (3 februarie), pe fondul unei pierderi estimate de 285 miliarde de dolari din capitalizarea companiilor din software și tehnologie juridică. În același timp, The Next Web notează că nu toată lumea a considerat vânzarea drept proporțională: publicația Artificial Lawyer a argumentat că arhivele proprietare de jurisprudență ale Thomson Reuters și LexisNexis rămân un avantaj competitiv greu de replicat de un add-in generalist. Mai mult, LexisNexis a integrat ulterior pluginul legal al Anthropic în suita sa Protégé de AI generativ, sugerând o strategie de „absorbție” a tehnologiei, nu doar competiție frontală. Limitări și risc operațional: verificarea rămâne pe umerii avocatului O problemă nerezolvată este răspunderea profesională. Claude for Word nu are acces la o bază de date de cercetare juridică în timp real și nu poate verifica dacă spețele citate există. The Next Web amintește un episod din mai 2025, când un document depus de avocații Anthropic într-un litigiu de copyright din California de Nord a inclus o trimitere „halucinată” (o citare inventată), după ce un avocat a folosit Claude pentru formatarea unei referințe. Judecătorul magistrat american a numit situația: „o problemă foarte serioasă și gravă”. Documentația pentru Claude for Word precizează că toate rezultatele trebuie revizuite de un avocat, însă rămâne de văzut dacă această condiție este suficientă pentru a limita riscul și dacă economiile de timp obținute depășesc costul suplimentar al verificării. [...]

Anthropic își împinge AI-ul în zona de securitate cibernetică, cu un model oferit controlat către giganți din tech , într-o mișcare care poate schimba viteza cu care sunt găsite și reparate vulnerabilitățile din sisteme precum iOS și macOS, potrivit mobilissimo.ro . Inițiativa se numește Project Glasswing și se bazează pe un nou model de inteligență artificială, Mythos Preview, pe care Anthropic îl poziționează ca instrument defensiv pentru identificarea și remedierea problemelor de securitate din sisteme de operare și browsere web. Compania susține că modelul a descoperit deja „mii” de vulnerabilități de tip „zero-day” (breșe necunoscute public și neacoperite prin actualizări la momentul descoperirii). Acces restricționat și parteneri selectați Mythos Preview nu va fi disponibil publicului larg. Anthropic spune că accesul este limitat la organizații selectate, între care sunt menționate: Apple Microsoft Google Amazon Pentru Apple, utilizarea ar viza întărirea securității iOS, macOS și a browserului Safari, prin identificarea mai rapidă a vulnerabilităților și corectarea lor înainte de a fi exploatate. De ce contează: AI-ul ca accelerator, dar și ca risc Anthropic argumentează că AI-ul aplicat în programare poate depăși, în anumite scenarii, chiar și specialiștii foarte experimentați în securitate. În același timp, compania avertizează că astfel de capabilități pot fi folosite și în scopuri malițioase, motiv pentru care Glasswing este prezentat ca un cadru de utilizare „defensivă”. Modelul economic: credite inițiale, apoi plată Anthropic anunță că va oferi până la 100 de milioane de dolari (aprox. 460 milioane lei) sub formă de credite pentru utilizarea inițială a modelului, urmând ca partenerii să plătească ulterior pentru acces. Ce nu este precizat în material: condițiile comerciale exacte după perioada de credite și cum va fi măsurată, contractual, eficiența modelului în reducerea riscului de securitate. [...]

John Giannandrea , șeful strategiei de AI și învățare automată la Apple, pleacă din companie săptămâna aceasta , potrivit PhoneArena , care citează informații din newsletterul Power On al lui Mark Gurman. Plecarea închide un capitol început în 2018, când CEO-ul Tim Cook l-a recrutat de la Google pentru a conduce eforturile Apple în inteligență artificială (AI) și învățare automată (machine learning). Giannandrea a fost, în ultimii opt ani, vicepreședinte senior responsabil de strategia de AI și machine learning, iar momentul-cheie al mandatului său a venit în 2024, când Apple a prezentat la WWDC 2024 (Worldwide Developers Conference) suita de funcții „Apple Intelligence” și planurile pentru un Siri refăcut. Conform relatării, livrarea acestor produse nu a decurs lin, iar rolul lui Giannandrea în coordonarea dezvoltării AI ar fi fost redus semnificativ în lunile dinaintea anunțului privind plecarea. În interpretarea lui Gurman, problemele Apple cu Apple Intelligence și Siri nu ar fi neapărat rezultatul unei „greșeli personale” a lui Giannandrea, ci al modului în care este condusă compania. „Vârful Apple este condus ca o mică afacere de familie, iar oamenii din afară precum Giannandrea nu sunt împuterniciți suficient pentru a produce schimbări reale”, susține Mark Gurman, citat de PhoneArena. Calendarul plecării pare legat și de compensația în acțiuni: Gurman afirmă că pe 15 aprilie urmează să se consolideze (vest) acțiuni Apple, iar acesta ar fi motivul pentru care Giannandrea ar fi așteptat până acum. Tot el spune că ultimele zile ale lui Giannandrea la Apple se încheie „săptămâna aceasta”. Pentru piață, miza este dublă: pe de o parte, Apple își reorganizează conducerea într-un moment în care AI a devenit o componentă centrală a produselor și a competiției din tehnologie; pe de altă parte, plecarea unui executiv adus special pentru această zonă ridică întrebări despre capacitatea companiei de a accelera refacerea lui Siri și livrarea funcțiilor promise. PhoneArena mai notează, tot pe baza informațiilor lui Gurman , că este puțin probabil ca Giannandrea să se alăture curând unei alte mari companii de tehnologie; planul ar fi să facă activitate de consiliere în zona startup-urilor. În paralel, publicația amintește că, la început, conducerea Apple ar fi fost reticentă față de AI, iar șeful diviziei software, Craig Federighi, ar fi devenit mai favorabil după ce a folosit AI pentru a scrie cod într-o seară. Pe scurt, din informațiile prezentate de sursă, principalele repere ale acestui episod sunt: Giannandrea a fost recrutat în 2018 de la Google pentru a conduce AI și machine learning la Apple. În 2024, Apple a prezentat la WWDC suita „Apple Intelligence” și direcția pentru un nou Siri, dar implementarea a avut sincope. Rolul lui Giannandrea ar fi fost redus înainte ca plecarea să fie anunțată, iar ieșirea efectivă are loc în această săptămână, în jurul datei de 15 aprilie (consolidarea acțiunilor). Potrivit lui Gurman, el ar urma să se orienteze spre consiliere pentru startup-uri, nu spre o nouă poziție într-un gigant tech. [...]

Neuralink riscă să rămână în urmă dacă mizează pe „cursorul controlat cu mintea”, în timp ce domeniul se mută spre refacerea vorbirii , arată o analiză publicată de The Verge . Ideea centrală: interfețele creier–calculator (BCI) care traduc gândurile direct în vorbire par să aibă un potențial mai mare pentru pacienți decât cele care controlează un cursor pe ecran, iar competiția ar fi avansat deja pe această direcție. Textul notează că produsele Neuralink au fost până acum „brain-to-cursor” — sisteme care permit controlul unui mouse cu ajutorul activității cerebrale. În paralel, competitori ai companiei ar fi accelerat dezvoltarea unor BCI care transformă intenția de a vorbi în rezultate de tip „gând–la–vorbire”, adică redarea cuvintelor pe ecran pe baza semnalelor neuronale asociate vorbirii. De ce contează: schimbarea țintei clinice poate decide utilitatea practică Analiza pune accent pe diferența de „comportament” pe care încearcă să îl reproducă aceste tehnologii. Deși toate BCI-urile conectează creierul la un computer (prin cabluri sau Bluetooth) și încearcă să interpreteze „impulsurile” electrice ale neuronilor, miza este ce rezultat final obțin pentru pacient: navigare cu un cursor sau comunicare prin vorbire. În acest context, publicația susține că abordarea orientată spre vorbire este „mai promițătoare” și că ar fi fost suficient de convingătoare încât Neuralink să investească discret în BCI-uri axate pe vorbire — un semnal că direcția inițială ar putea să nu fie cea mai eficientă pentru aplicații medicale cu impact imediat. Context: între promisiuni mari și limitări științifice Articolul reamintește că Elon Musk a asociat Neuralink cu promisiuni foarte ambițioase — de la „abilități supraomenești” la fuziunea minții cu inteligența artificială — însă susține că obiectivele rămân departe, pe fondul limitărilor științifice și al complexității creierului uman. În același timp, analiza menționează un „istoric sumbru” al implanturilor la maimuțe și „un anumit succes” la subiecți umani, fără a detalia cifre sau rezultate clinice. Ce urmează, în logica materialului: presiunea competitivă și utilitatea clinică ar putea împinge Neuralink să își recalibreze prioritățile de produs, de la controlul cursorului către soluții care vizează direct restaurarea comunicării prin vorbire. [...]