Știri
Știri din categoria Inteligență artificială

Modelul Mythos i-a readus pe cei de la Anthropic în discuțiile de la Casa Albă, un semnal că administrația americană își calibrează dialogul cu furnizorii de inteligență artificială în funcție de evoluțiile tehnice și de riscurile asociate, potrivit Android Headlines.
Informația relevantă pentru piață nu este doar întâlnirea în sine, ci faptul că un model nou – Mythos – este prezentat ca elementul care a „redeschis ușile” pentru companie. În practică, astfel de contacte la nivel înalt pot influența atât direcția viitoarelor reguli pentru AI, cât și poziționarea comercială a jucătorilor care încearcă să fie percepuți drept „siguri” și cooperanți cu autoritățile.
Într-un sector în care reglementarea se conturează rapid, accesul la discuții cu factorii de decizie poate însemna anticiparea cerințelor de conformare și, implicit, costuri mai mici de adaptare sau un timp mai scurt de reacție față de competitori. Pentru Anthropic, asocierea numelui Mythos cu reluarea dialogului cu Casa Albă sugerează că produsul este folosit și ca instrument de credibilizare în zona de politici publice.
Android Headlines nu detaliază în fragmentul disponibil agenda exactă a întâlnirii, participanții sau eventuale angajamente concrete rezultate din discuții. În lipsa acestor elemente, impactul imediat rămâne mai degrabă unul de poziționare și semnal politic decât unul operațional măsurabil.
Dacă dialogul se consolidează, miza pentru Anthropic ar putea fi dublă: pe de o parte, să își securizeze locul în conversația despre standarde și obligații pentru modelele de AI; pe de altă parte, să transforme această validare implicită într-un argument comercial în fața clienților care cer garanții de siguranță și guvernanță (setul de reguli și controale interne privind utilizarea tehnologiei).
Recomandate

Administrația Trump încearcă să refacă punțile cu Anthropic , pe fondul temerilor că noul model „Mythos” ar putea amplifica atacurile cibernetice , potrivit South China Morning Post . Discuția de la Casa Albă cu CEO-ul Dario Amodei are loc după un conflict deschis cu Pentagonul , care a limitat drastic utilizarea tehnologiei companiei în instituțiile federale. Întâlnirea – prima de acest tip după disputa de la începutul anului – sugerează că cele două părți ar putea încerca să reconstruiască încrederea, într-un moment în care guverne și industrii încearcă să înțeleagă rapid implicațiile modelului Mythos, despre care există temeri că ar putea face atacurile cibernetice complexe mai ușor și mai rapid de executat. De ce contează: riscul operațional pentru bănci și instituții financiare Publicația notează că industria bancară este considerată deosebit de vulnerabilă, din cauza sistemelor IT vechi („legacy”, adică infrastructură tehnologică moștenită, dificil de modernizat integral), care pot deschide un număr mare de puncte slabe. Oficialii guvernamentali din cel puțin trei țări – SUA, Canada și Marea Britanie – s-au întâlnit cu lideri din banking pentru a discuta amenințările asociate cu Mythos. TJ Marlin, CEO al firmei de securitate pentru inteligență artificială Guardrail Technologies, a indicat că „stivele” tehnologice din instituțiile financiare combină instrumente moderne cu software vechi de decenii, ceea ce poate crește suprafața de atac. Ce au discutat Casa Albă și Anthropic La întâlnire au participat, între alții, secretarul Trezoreriei Scott Bessent și șefa de cabinet Susie Wiles, potrivit Axios, citat de South China Morning Post. Casa Albă a transmis, într-un comunicat, că discuția a fost „productivă și constructivă” și a vizat colaborarea, inclusiv „abordări și protocoale” comune pentru provocările asociate cu scalarea tehnologiei. De asemenea, părțile au discutat despre echilibrul dintre inovare și siguranță, iar administrația a spus că intenționează să aibă discuții similare și cu alte companii importante din domeniul AI. Anthropic a descris întâlnirea drept „productivă” și a precizat că a vizat priorități comune precum securitatea cibernetică, poziția SUA în „cursa AI” și siguranța inteligenței artificiale. Context: de la interdicții federale la proces cu Pentagonul Înainte de lansarea Mythos, guvernul SUA și compania din Silicon Valley au avut un dezacord privind utilizările permise ale AI. După luni de negocieri tensionate, Pentagonul a aplicat Anthropic o desemnare formală de risc în lanțul de aprovizionare, limitând sever utilizarea tehnologiei, după ce start-up-ul ar fi refuzat să elimine „gardurile de protecție” care împiedicau folosirea AI pentru arme autonome sau supraveghere internă. Ulterior, președintele Donald Trump a criticat public compania, iar Anthropic a dat în judecată Pentagonul în martie, încercând să blocheze includerea pe o listă de securitate națională. Întrebat de reporteri despre întâlnirea cu Anthropic, Trump a răspuns: „Nu am nicio idee.” Ce este „Mythos” și cum este testat Mythos a fost anunțat pe 7 aprilie și este implementat inițial către un grup select de companii, prin „Project Glasswing” – o inițiativă controlată care permite organizațiilor să folosească modelul „Claude Mythos Preview” (încă nelansat public) pentru a căuta vulnerabilități de securitate cibernetică. Anthropic susține că este cel mai capabil model al său pentru programare și „sarcini agentice” (adică poate acționa autonom). Experți citați de publicație avertizează însă că tocmai capacitatea avansată de a scrie cod ar putea oferi o abilitate fără precedent de a identifica vulnerabilități și de a concepe metode de exploatare a acestora. [...]

CEO-ul Anthropic , Dario Amodei, merge vineri la Casa Albă pentru o întâlnire cu șefa de cabinet Susie Wiles, într-un moment în care compania se judecă cu administrația Trump după ce modelul său de inteligență artificială Claude a fost „pus pe lista neagră” pentru utilizare guvernamentală , potrivit CNN . Miza întâlnirii ține de felul în care SUA încearcă să împace o linie dură față de Anthropic cu riscurile de securitate națională ale renunțării la o tehnologie considerată de vârf. Amodei urmează să se întâlnească cu Susie Wiles, au declarat pentru CNN două surse familiarizate cu discuțiile. Axios a relatat prima despre întâlnire. Anthropic a refuzat să comenteze. De ce contează: guvernul vrea acces la tehnologie, dar conflictul e în instanță Întâlnirea are loc pe fondul unei dispute între companie și administrația Trump, după ce președintele a anunțat că guvernul va rupe legăturile cu Anthropic. Potrivit articolului, ruptura a venit după ce Anthropic nu a acceptat condiții care ar fi permis armatei să folosească Claude pentru „toate scopurile legale”, inclusiv arme autonome și supraveghere în masă. Până de curând, Claude era singurul model de inteligență artificială disponibil în rețeaua clasificată a Pentagonului, notează CNN. După eșecul negocierilor, Pentagonul a declarat Anthropic „risc pentru lanțul de aprovizionare” – o etichetă folosită anterior doar pentru companii asociate cu adversari străini – ceea ce ar echivala, practic, cu excluderea companiei din contractele guvernamentale. Ce se întâmplă în justiție Anthropic a dat în judecată administrația Trump. Luna trecută, un judecător federal din California a blocat efortul guvernului de a „pedepsi” compania, stabilind că agențiile federale din afara Departamentului Apărării nu pot folosi această desemnare de „risc pentru lanțul de aprovizionare” pentru a rupe legăturile cu Anthropic. Guvernul a făcut apel. Într-un dosar separat, la două săptămâni după acea decizie, administrația a obținut o victorie la Curtea de Apel a Circuitului DC: instanța a spus că nu va împiedica Departamentul Apărării să taie legăturile cu Anthropic pe durata procesului. În decizia unanimă, instanța a argumentat că o intervenție în acel moment: „ar forța armata Statelor Unite să prelungească relația cu un furnizor nedorit de servicii critice de inteligență artificială în mijlocul unui conflict militar semnificativ în desfășurare”. „Mythos”, instrumentul care complică ruptura În paralel, CNN arată că guvernul american încearcă să cântărească implicațiile de securitate națională ale renunțării la tehnologia Anthropic, inclusiv un instrument numit „Mythos”, descris ca fiind capabil să identifice amenințări de securitate cibernetică, dar care poate oferi și o „hartă” pentru atacatori despre cum să lovească firme sau instituții guvernamentale. Bloomberg a relatat că Office of Management and Budget a transmis agențiilor că se pregătește să le ofere acces la Mythos „pentru a se pregăti”. Axios a mai relatat că și Casa Albă discută pentru a obține acces la Mythos. Anthropic a refuzat să comenteze dacă administrația Trump lucrează pentru a testa acest instrument. Un oficial al Casei Albe a declarat pentru CNN că administrația „se implică proactiv” pentru a proteja SUA și că orice tehnologie nouă care ar putea fi folosită de guvern necesită o perioadă tehnică de evaluare „pentru fidelitate și securitate”. Ce urmează Din informațiile publicate nu reiese agenda exactă a întâlnirii de la Casa Albă și nici dacă aceasta va schimba poziția Pentagonului față de Anthropic. În schimb, contextul indică o tensiune de fond: guvernul cere libertate totală de utilizare a modelelor AI în timp de război, iar Anthropic susține că modelele nu sunt încă suficient de fiabile pentru arme autonome și că legislația SUA nu ține pasul cu riscurile supravegherii în masă. [...]

Capacitățile de „hacking” ale noului model Claude Mythos ridică un risc operațional direct pentru securitatea cibernetică , iar subiectul a ajuns deja pe agenda miniștrilor de finanțe și a Fondului Monetar Internațional , potrivit Mediafax . Modelul, dezvoltat de Anthropic , este descris ca fiind capabil să depășească performanțele umane în sarcini legate de securitate informatică, ceea ce amplifică temerile privind criminalitatea cibernetică. Mythos este unul dintre cele mai recente modele din familia Claude și a fost prezentat public la începutul lunii aprilie 2026 sub numele „Mythos Preview”, potrivit BBC, citată de Mediafax. Anthropic concurează pe piața globală cu ChatGPT (OpenAI) și Gemini (Google), însă Mythos este prezentat ca un salt calitativ față de versiunile anterioare. De ce contează pentru companii și instituții Cercetători care testează comportamentul modelelor de inteligență artificială au concluzionat că Mythos este „incredibil de capabil” în sarcini de securitate informatică. Concret, instrumentul ar putea identifica erori ascunse în coduri vechi de zeci de ani și le-ar putea exploata „cu ușurință”, ceea ce, în practică, ar reduce semnificativ bariera de intrare pentru atacuri asupra sistemelor insuficient protejate. În același timp, Institutul pentru Siguranța IA din Marea Britanie a evaluat că amenințarea cea mai mare ar viza sistemele vulnerabile și slab apărate. În organizațiile cu securitate cibernetică solidă, riscul ar fi, teoretic, mai limitat. Acces restricționat și testare limitată Tocmai din cauza acestor capacități, Anthropic nu a lansat Mythos pentru utilizatorii obișnuiți ai Claude. În schimb, accesul a fost acordat unui grup de 12 companii de tehnologie printr-un program numit Project Glasswing. Printre partenerii menționați se numără: Amazon Web Services Apple Microsoft Google Nvidia Broadcom CrowdStrike Anthropic spune că a extins accesul și către „alte peste 40 de organizații” responsabile de software critic, cu obiectivul declarat de a întări reziliența acestor sisteme față de amenințările pe care modelul le-ar putea genera. O limitare importantă: mulți analiști independenți nu au putut testa modelul personal, iar unii rămân sceptici față de capacitățile anunțate. Îngrijorare la nivel internațional: de la FMI la UE Tema a ajuns în discuții la nivel înalt. Ministrul canadian al finanțelor, François-Philippe Champagne, a declarat pentru BBC că Mythos a fost discutat la o reuniune a FMI la Washington. Separat, Andrew Bailey, guvernatorul Băncii Angliei, a spus că este necesară o analiză atentă a implicațiilor pentru riscul de criminalitate cibernetică, iar UE se află, de asemenea, în discuții cu Anthropic. Ciaran Martin, fost șef al Centrului Național de Securitate Cibernetică din Marea Britanie, a afirmat că ideea că Mythos ar putea descoperi vulnerabilități mult mai rapid decât alte modele „a șocat cu adevărat oamenii”. Pe termen mediu, Martin a indicat că astfel de instrumente ar putea fi folosite și pentru remedierea vulnerabilităților fundamentale ale internetului, iar mesajul transmis de NCSC este să nu se intre în panică și să se insiste pe „securitatea cibernetică de bază”. [...]

Anthropic își extinde Claude spre zona de lucru vizual, cu un editor care poate produce prezentări, prototipuri și „slide-uri”, într-o mișcare ce o apropie de instrumentele folosite în mod curent de echipele de design și marketing , potrivit Engadget . Compania a lansat „Claude Design” ca „research preview” (o versiune de test), disponibilă abonaților, iar utilizarea intră în aceleași limite de consum ale planului. Ce aduce „Claude Design” în fluxul de lucru Noul produs pornește de la un prompt, iar apoi utilizatorii pot rafina rezultatele prin conversație, comentarii inserate direct și editări. O funcție notabilă este generarea de „slidere” personalizate pentru elemente specifice din design, pe care utilizatorul le poate ajusta pentru a modifica parametri vizuali (de exemplu, intensitatea sau densitatea unor elemente grafice). Anthropic poziționează produsul ca un instrument de lucru vizual, nu ca un generator clasic de imagini. Sistemul din spate este Opus 4.7 , descris de companie drept „cel mai capabil model de viziune” al său de până acum (adică un model care poate înțelege și manipula conținut vizual, nu doar text). Personalizare pentru organizații și funcții pentru companii Pentru clienții organizaționali, Anthropic spune că a construit un proces de „onboarding” prin care Claude își poate forma un „limbaj vizual” intern după ce citește baza de cod și documentele de design existente ale unei organizații. Ulterior, „fiecare proiect” ar folosi automat culori, tipografie și comentarii, conform companiei. Pe lângă prompturi text, există suport pentru încărcarea de imagini și documente. Pentru clienții enterprise, este inclus și un instrument de captură web, care poate prelua elemente de pe site-ul companiei. Mai există partajare integrată și posibilitatea de a exporta un design direct către Claude Code. De ce contează: intrare într-o zonă aglomerată și compatibilitate cu rivalii Lansarea vine în aceeași săptămână în care Adobe și Canva au prezentat, la rândul lor, asistenți vizuali cu inteligență artificială, ceea ce sugerează o accelerare a competiției pe instrumente care mută AI-ul din zona de „chat” în zona de producție de materiale vizuale. Un detaliu cu implicații operaționale: proiectele din Claude Design pot fi exportate în Canva, ceea ce indică o strategie mai degrabă de integrare în ecosisteme existente decât de înlocuire directă a acestora. Disponibilitate Claude Design este disponibil ca parte a abonamentelor Anthropic Pro, Max, Team și Enterprise, iar consumul se contabilizează în limitele de utilizare ale fiecărui plan. Anthropic mai spune că, în următoarele săptămâni, va simplifica realizarea de integrări cu noua aplicație. [...]

„Tokenmaxxing” riscă să umfle costurile fără câștiguri proporționale de productivitate , pe măsură ce tot mai multe echipe de software tratează bugetele mari de „tokeni” (consum de procesare pentru instrumente AI) ca pe un indicator de performanță, potrivit unei analize TechCrunch . Ideea centrală este că măsurarea „inputului” (câți tokeni consumă un dezvoltator sau cât cod generează cu ajutorul AI) poate înlocui greșit măsurarea „outputului” (calitatea și durabilitatea codului livrat). În practică, companiile care urmăresc productivitatea inginerilor observă că volumul de cod acceptat crește, dar și nevoia de a reveni ulterior pentru corecții și rescrieri — ceea ce erodează beneficiul inițial. De ce contează pentru companii: costuri mai mari, valoare incertă TechCrunch descrie apariția unei „insigne de onoare” în rândul dezvoltatorilor din Silicon Valley: bugete „enorme” de tokeni, adică limita de procesare AI pe care o pot consuma. Problema, în logica articolului, este că acest tip de metrică încurajează consumul de resurse, nu eficiența. Datele invocate din zona companiilor de analiză a productivității sugerează un tipar: se scrie mai mult cod, însă o parte disproporționată „nu rămâne” (este modificată sau ștearsă ulterior), ceea ce înseamnă timp suplimentar de revizie și acumulare de datorie tehnică (muncă viitoare generată de soluții rapide sau imperfecte). Ce arată datele: „churn” mai mare și randament care nu scalează În analiza TechCrunch, mai multe platforme de „engineering intelligence” (instrumente care măsoară activitatea și fluxurile de lucru din dezvoltare) raportează creșteri puternice ale așa-numitului „code churn” — diferența dintre liniile de cod adăugate și cele șterse, un indicator al rescrierilor. Pe scurt, exemplele citate în articol includ: Waydev : CEO-ul și fondatorul Alex Circei spune că managerii văd rate de acceptare a codului AI de 80%–90%, dar „churn”-ul din săptămânile următoare ar coborî acceptarea „reală” la 10%–30% din codul generat. Waydev lucrează cu 50 de clienți care au împreună peste 10.000 de ingineri software, potrivit articolului. GitClear: un raport din ianuarie a constatat că utilizatorii frecvenți de AI au avut, în medie, un „code churn” de 9,4 ori mai mare decât cei care nu folosesc AI în mod regulat, depășind de peste două ori câștigurile de productivitate raportate. Faros AI: într-un raport din martie 2026, pe baza a doi ani de date de la clienți, „code churn” ar fi crescut cu 861% în condiții de adopție ridicată a AI. Jellyfish: analizând 7.548 de ingineri în T1 2026, compania a găsit că cei cu cele mai mari bugete de tokeni au produs cele mai multe „pull request”-uri (propuneri de modificări într-un depozit comun de cod), însă îmbunătățirea productivității nu a crescut proporțional: de două ori mai mult „throughput” (volum de livrare) la un cost de 10 ori mai mare în tokeni. Ce se schimbă operațional: mai multă revizie, diferențe între seniori și juniori Articolul notează că, din discuțiile cu dezvoltatori, se conturează o realitate familiară: cresc presiunea pe code review (verificarea codului) și datoria tehnică, chiar dacă instrumentele AI oferă viteză și „libertate” în scrierea inițială. O observație recurentă este diferența între inginerii seniori și cei juniori: juniorii tind să accepte mai mult cod generat de AI și ajung, în consecință, să rescrie mai mult ulterior. Ce urmează: companiile nu dau înapoi, dar își schimbă măsurătorile Deși apar semne că organizațiile încă învață să folosească eficient instrumentele AI, direcția generală rămâne de adopție, nu de retragere. TechCrunch amintește și de interesul comercial din jurul măsurării randamentului: Atlassian a cumpărat anul trecut DX, un startup de „engineering intelligence”, pentru 1 miliard de dolari, pentru a-și ajuta clienții să înțeleagă rentabilitatea investiției în agenți de programare. În acest context, Waydev spune că și-a refăcut platforma în ultimele șase luni pentru a urmări metadatele generate de agenții AI și pentru a oferi managerilor analize despre calitatea și costul codului, nu doar despre volum. „Aceasta este o nouă eră a dezvoltării software și trebuie să te adaptezi, iar ca firmă ești forțat să te adaptezi. Nu e ca și cum ar fi un ciclu care va trece”, a declarat Alex Circei pentru TechCrunch. [...]

Marea Britanie pornește un fond suveran de 500 milioane lire pentru AI, cu investiții și acces la supercomputere legat de drepturi preferențiale potrivit iThome , într-o mișcare care urmărește să accelereze creșterea companiilor locale de inteligență artificială și să le păstreze în țară, pe un model apropiat de capitalul de risc. Fondul, în valoare de 500 milioane lire sterline (aprox. 2,9 miliarde lei), a fost lansat odată cu anunțarea primei investiții. Ministrul britanic pentru tehnologie, Liz Kendall , a susținut că guvernul trebuie să „valorifice oportunitatea” AI și a încercat să reducă temerile legate de impactul asupra locurilor de muncă și asupra securității cibernetice, notează publicația, care citează The Guardian. Cum funcționează intervenția statului: bani, infrastructură și opțiuni de investiție Pe lângă investiții directe, schema include și acces la resurse de calcul: șase companii britanice vor primi drept de utilizare a unei rețele de supercomputere finanțate de guvern pentru dezvoltarea de modele AI. În schimb, statul obține drepturi de investiție preferențiale în unele dintre firmele sprijinite, iar această susținere prin putere de calcul este inclusă în dimensiunea totală a fondului de 500 milioane lire. Fondul suveran de AI este descris ca fiind conceput similar unui fond de venture capital (capital de risc), iar lansarea oficială a avut loc la sediul din Londra al startup-ului de conducere autonomă Wayve . Primele investiții și companiile vizate Guvernul a investit în Callosum, companie cu sediul la Londra care lucrează la creșterea eficienței colaborării dintre diferite tipuri de cipuri, pentru a susține antrenarea și rularea modelelor AI. A mai fost finanțată încă o companie al cărei nume nu a fost făcut public, conform informațiilor citate. Între startup-urile care primesc sprijin (prin acces la infrastructură) se numără: Prima Mente , care dezvoltă „modele de bază biologice” pentru utilizări precum abordarea bolii Alzheimer; Cursive , fondată de foști membri Google DeepMind, axată pe dezvoltarea de agenți AI autonomi; Odyssey , care dezvoltă „modele ale lumii”, adică medii simulate apropiate de realitate în care sistemele AI pot interacționa. De ce contează: păstrarea „campionilor” AI în Marea Britanie Cancelarul britanic al finanțelor, Rachel Reeves, a spus că sprijinirea companiilor locale de AI ar permite Marii Britanii să se asigure că firme competitive internațional „încep, cresc și rămân” în țară. În același timp, Kendall a recunoscut existența îngrijorărilor publice privind riscurile AI și efectele asupra ocupării, dar a reiterat ideea că tehnologia poate crea și locuri de muncă, chiar dacă unele roluri vor dispărea pe fondul automatizării. Callosum a argumentat, printr-unul dintre cofondatori, că avantajul Marii Britanii vine din baza de talente din universități și din ecosistemul de laboratoare private, inclusiv DeepMind, elemente care ar face piața locală atractivă pentru dezvoltarea companiilor din domeniu. [...]