Știri
Știri din categoria Inteligență artificială

Agențiile federale americane continuă să testeze și să ceară briefinguri despre modelul AI „Mythos” al Anthropic, în pofida unei interdicții impuse de președintele Donald Trump, potrivit informațiilor relatate de HotNews. Miza este una operațională și de securitate: guvernul pare să caute acces la capabilități avansate de „scanare” și testare cibernetică, chiar dacă relația oficială cu compania este blocată.
Centrul pentru Standarde și Inovație în domeniul inteligenței artificiale din cadrul Departamentului Comerțului testează activ capacitățile de „hacking” ale celui mai nou model Anthropic, numit Mythos, notează publicația, citând Politico și Reuters. În paralel, personalul din cel puțin trei comisii ale Congresului a organizat sau a solicitat, în ultima săptămână, briefinguri de la companie pentru a înțelege mai bine capacitățile de scanare cibernetică ale modelului.
Din informațiile disponibile, contactele cu Anthropic nu s-au oprit complet, deși există o interdicție prezidențială privind colaborarea:
În același timp, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate – „nu sunt foarte clare la acest moment”, potrivit materialului.
Mythos a fost anunțat pe 7 aprilie și este descris de companie drept „cel mai capabil model al Anthropic până în prezent” pentru sarcini de programare și sarcini „agentice” (adică poate acționa autonom). HotNews amintește că Anthropic a prezentat săptămâna trecută „Claude Mythos Preview”, un model pe care compania nu intenționează să îl lanseze public, urmând să fie accesibil doar unui grup restrâns de organizații – în principal companii mari de tehnologie și actori din securitate cibernetică.
Motivul invocat este riscul: compania susține că modelul ar putea depăși aproape toți experții umani în descoperirea și chiar exploatarea vulnerabilităților software, inclusiv a unor breșe foarte subtile, care ar rămâne în mod normal nedetectate.
Potrivit Reuters, Anthropic, Casa Albă și Departamentul Comerțului nu au răspuns imediat solicitărilor de declarații. În lipsa unor clarificări oficiale, rămâne neprecizat în ce măsură activitățile descrise (testare, briefinguri, discuții) se încadrează sau nu în interdicția menționată și ce consecințe administrative ar putea urma.
Recomandate

Agențiile federale americane continuă să lucreze cu Anthropic , în pofida unei interdicții impuse de președintele Donald Trump , prin testări și briefinguri care sugerează că restricția este ocolită „discret”, potrivit HotNews . Miza este una operațională și de reglementare: guvernul pare să caute acces la un model de inteligență artificială cu potențial major în securitate cibernetică, chiar în absența unei linii publice coerente privind colaborarea. Centrul pentru Standarde și Inovație în domeniul inteligenței artificiale din cadrul Departamentului Comerțului testează activ capacitățile de hacking ale noului model Anthropic, numit Mythos , conform materialului citat de HotNews (care menționează Politico și Reuters). În paralel, personalul din cel puțin trei comisii ale Congresului a organizat sau a solicitat, în ultima săptămână, briefinguri din partea companiei pentru a înțelege mai bine capacitățile de „scanare cibernetică” ale modelului. Ce se știe despre discuțiile cu administrația Trump Co-fondatorul Anthropic, Jack Clark, a declarat luni, la evenimentul Semafor World Economy, că firma discută despre Mythos cu administrația Trump, chiar și după ce Pentagonul ar fi întrerupt colaborarea cu compania în urma unui litigiu contractual. Totuși, natura și detaliile discuțiilor dintre Anthropic și guvernul SUA – inclusiv ce agenții sunt implicate și în ce cadru – „nu sunt foarte clare” în acest moment, potrivit informațiilor prezentate. Reuters mai notează că Anthropic, Casa Albă și Departamentul Comerțului nu au răspuns imediat solicitărilor de declarații. De ce contează: un model cu utilizări sensibile, ținut departe de public Mythos a fost anunțat pe 7 aprilie și este descris de companie drept „cel mai capabil” model al său pentru sarcini de codare și „agentice” (adică poate acționa autonom). HotNews amintește că Anthropic a prezentat recent „Claude Mythos Preview”, pe care nu intenționează să îl lanseze public, urmând să îl ofere doar unui grup restrâns de organizații, în special companii mari de tehnologie și actori din securitate cibernetică. Decizia este legată de riscuri de siguranță publică, detaliate într-un material separat al publicației, inclusiv posibilitatea ca modelul să depășească aproape toți experții umani în descoperirea și chiar exploatarea vulnerabilităților software (context în HotNews ). În acest context, faptul că agenții federale și structuri din Congres continuă interacțiunile cu Anthropic, în pofida unei interdicții prezidențiale, ridică întrebări despre cum este aplicată restricția și ce excepții sau canale alternative sunt folosite în practică. [...]

BCE pregătește avertismente către bănci privind riscurile cibernetice asociate noului model de inteligență artificială al Anthropic , pe fondul temerilor că tehnologia ar putea amplifica atacurile informatice și ar pune presiune pe infrastructura IT existentă din sector, potrivit Agerpres . Modelul „Mythos ”, dezvoltat de start-up-ul de inteligență artificială Anthropic, este văzut de experți în securitate cibernetică drept o provocare semnificativă pentru industria bancară și pentru sistemele sale tehnologice actuale. Îngrijorările au ajuns și la autoritățile de reglementare din Marea Britanie și Statele Unite, conform informațiilor citate. Ce face BCE, concret Supervizorii BCE strâng informații despre model și ar urma să discute cu băncile pe care le supraveghează această posibilă nouă sursă de risc, au declarat pentru Reuters surse care au dorit să își păstreze anonimatul. În Europa, abordarea ar urma să fie integrată în dialogul regulat al BCE cu personalul băncilor, nu printr-o întâlnire specială cu șefii instituțiilor de credit. Deocamdată, nu ar fi fost programată nicio reuniune ad-hoc. Un purtător de cuvânt al BCE a refuzat să comenteze. [...]

Claude Mythos riscă să fie greu de monetizat în securitate cibernetică din cauza costurilor de rulare și a disponibilității sub nivel „enterprise”, chiar dacă performanța tehnică este ridicată, potrivit unei analize Tom's Hardware . Modelul AI al Anthropic a atras atenția după ce compania a sugerat că Mythos ar putea identifica vulnerabilități de tip „zero-day” (breșe necunoscute public și necorectate) în browsere și sisteme de operare, ceea ce a dus la inițiativa „Project Glasswing” – o colaborare cu companii mari de tehnologie pentru remedierea problemelor înainte ca modelul (aflat încă în versiune „preview”) să fie lansat pe scară mai largă. Publicația notează însă că, dincolo de mesajul ambițios, capabilitățile nu sunt „spectaculoase” în sensul prezentat inițial. Modele mai ieftine pot ajunge „aproape” la același rezultat Un punct cheie pentru companii este că o parte din vulnerabilitățile prezentate drept „de referință” pentru Mythos pot fi detectate și de modele mai accesibile, inclusiv modele cu greutăți deschise (open-weight), conform unei analize publicate de Aisle. În exemplele citate: GPT-OSS-120b ar fi identificat o vulnerabilitate de analiză „Sack” în OpenBSD; Qwen3 32B ar fi găsit o eroare de detecție în FreeBSD NFS; Kimi K2 (open-weight) ar fi identificat, de asemenea, vulnerabilitățile care au generat titluri. Concluzia de business sugerată de această comparație: dacă diferența de performanță nu este mare, unele organizații pot prefera variante mai ieftine de rulat (inclusiv local), în locul unui model de vârf cu costuri mai ridicate. „Securitatea cibernetică” nu e un singur task, iar costul pe succes devine metrică Analiza Aisle mai susține că Anthropic tratează securitatea cibernetică drept un instrument unitar care acoperă mai multe etape (descoperire, verificare, exploatare, remediere), deși în practică acestea sunt pași diferiți, cu cerințe diferite. În acest context, unele modele mai „ușoare” pot performa bine pe anumite segmente. Aisle descrie evaluarea ca o combinație de factori – „inteligență per token”, „tokeni per dolar”, „tokeni pe secundă” și expertiza de securitate integrată în „scaffold” (structura de instrumente și procese care orchestrează modelul). Chiar dacă Mythos ar maximiza „inteligența per token”, celelalte variabile pot cântări la fel de mult în utilizarea reală. Separat, Irregular propune ca eficiența să fie judecată și prin „costul așteptat per succes” – adică nu doar dacă modelul poate reuși, ci cât costă, în medie, să ajungi la un rezultat util în practică. Benchmark-urile AISI: Mythos conduce la sarcini complexe, dar cu buget mare de tokeni O altă evaluare, realizată de AI Security Institute (AISI) din Marea Britanie, indică faptul că Mythos este cel mai capabil model în benchmark-urile proprii de securitate cibernetică ale institutului. Diferențele față de alte modele nu ar fi „dramatice” pe toate sarcinile, însă la descoperiri și exploatări mai complexe Mythos ar ieși în față. Un element important este dependența de „context lung” (intrări mari) și de bugete ridicate de tokeni. AISI spune că a testat Mythos până la un buget de 100 de milioane de tokeni și că performanța a continuat să crească până la acel prag, sugerând că ar putea scala și mai departe cu mai mult „inference compute” (putere de calcul pentru rularea modelului). Disponibilitatea serviciului: 98,4% uptime, sub standardul cerut de clienții mari Dincolo de performanță și cost, apare o problemă operațională: capacitatea Anthropic de a livra serviciul la nivel „enterprise”. Tom’s Hardware notează că modelele Anthropic au avut o rată de disponibilitate (uptime) de 98,4% în ultimele 90 de zile, la momentul redactării. Prin comparație, 99,99% este considerat standard „enterprise-grade” – iar diferența se traduce în aproape 12 ore de indisponibilitate pe lună, un nivel slab pentru servicii cloud. În același material se menționează că API-ul OpenAI oferă 99,99% uptime, ceea ce contează direct într-un model de afaceri bazat pe vânzarea de tokeni. În acest cadru, Mythos – descris ca probabil mai „greu” computațional – ar putea pune presiune suplimentară pe infrastructura Anthropic, care ar avea nevoie de mai multă capacitate de calcul (publicația amintește și un acord recent cu Broadcom , în acest sens). Ce înseamnă pentru piață Pentru companiile care cumpără servicii de securitate cibernetică sau rulează intern astfel de capabilități, mesajul este pragmatic: Mythos poate fi printre cele mai bune modele, dar nu neapărat cea mai eficientă opțiune „end-to-end”, dacă alternativele mai ieftine ating rezultate apropiate pe o parte din sarcini. Pentru Anthropic, miza devine dublă: să justifice economic un model de vârf (în condițiile în care prețul final nu este prezentat) și să ridice fiabilitatea livrării la nivelul așteptat de clienții mari din zona SaaS și securitate cibernetică. [...]

Evaluarea de 852 mld. dolari (aprox. 3.900 mld. lei) a OpenAI este pusă sub semnul întrebării de unii dintre propriii investitori , pe fondul schimbărilor repetate de strategie și al pivotării către clienți corporate, potrivit The Next Web , care citează Financial Times. Îngrijorările vizează „turbulența” strategică din ultimele luni: OpenAI și-a revizuit de două ori foaia de parcurs a produselor în șase luni, mai întâi sub presiunea competiției cu Google, apoi cu Anthropic , și a renunțat între timp la mai multe inițiative, inclusiv lansarea Sora pentru generare video și un chatbot „adult”. Unii investitori au spus pentru Financial Times că aceste schimbări rapide pot lăsa compania vulnerabilă în fața Anthropic și a unui Google aflat în revenire, în timp ce OpenAI se pregătește pentru o posibilă listare la bursă chiar din trimestrul IV 2026. Un investitor timpuriu a criticat direcția companiei, invocând creșterea ChatGPT și întrebând de ce OpenAI „vorbește despre enterprise și cod”, concluzionând că este „o companie profund nefocusată”. Separat, Jai Das, președintele Sapphire Ventures (care nu investește în OpenAI sau Anthropic), a comparat OpenAI cu „Netscape of AI”, sugerând riscul de a fi depășită într-o piață care se consolidează rapid. Un alt investitor, care a finanțat ambele companii, a spus că pentru a justifica ultima rundă de finanțare ar trebui presupusă o evaluare la IPO de cel puțin 1,2 trilioane de dolari (aprox. 5.500 mld. lei). Răspunsul OpenAI: finanțare record și pondere în creștere a veniturilor enterprise Conducerea OpenAI a respins criticile. Directoarea financiară Sarah Friar a indicat runda de finanțare de 122 mld. dolari (aprox. 560 mld. lei) închisă luna trecută — descrisă drept cea mai mare rundă privată din istoria Silicon Valley — ca dovadă a încrederii investitorilor, între care sunt menționați SoftBank, Amazon, Nvidia, Andreessen Horowitz, Sequoia Capital și Thrive Capital, alături de peste 25 de investitori. „Sugestia că investitorii nu susțin strategia noastră contrazice faptele”, a spus Friar. „Runda noastră, cea mai mare din istorie, a fost suprasubscrisă, închisă în timp record și susținută de un set larg de investitori globali.” Friar a mai declarat pentru CNBC că segmentul enterprise reprezintă acum 40% din veniturile totale ale OpenAI și este pe cale să ajungă la nivelul business-ului de consum până la finalul lui 2026. Miza competitivă: venituri „annualizate” și disputa de contabilizare cu Anthropic În centrul tensiunilor se află ritmul de creștere al veniturilor Anthropic. Potrivit materialului, venitul annualizat (run rate) al companiei care dezvoltă Claude ar fi urcat de la aproximativ 9 mld. dolari la final de 2025 la 30 mld. dolari la final de martie 2026, pe fondul cererii pentru instrumente de programare. OpenAI susține că a atins 25 mld. dolari venit annualizat în februarie. Diferența a declanșat o reacție dură din partea noului director comercial (CRO) al OpenAI, Denise Dresser (angajată în decembrie 2025, venind din rolul de CEO al Slack). Într-un memo intern, Dresser a acuzat Anthropic că și-ar supraevalua run rate-ul cu circa 8 mld. dolari, din cauza unei diferențe de raportare: Anthropic ar înregistra „brut” (gross) veniturile generate prin parteneri de distribuție în cloud (Amazon Web Services și Google Cloud), în timp ce OpenAI ar raporta „net” (după deducerea părții partenerului) veniturile din parteneriatul cu Microsoft. Articolul precizează că ambele abordări sunt permise de standardele contabile americane (US GAAP). Dacă analiza OpenAI ar fi corectă, run rate-ul comparabil al Anthropic ar fi mai aproape de 22 mld. dolari, nu de 30 mld. dolari. Anthropic a contestat interpretarea, iar o persoană apropiată companiei a spus pentru Financial Times că recunoaște veniturile „brut” prin parteneri deoarece este „principalul” în tranzacție, iar partenerii cloud sunt canalul de distribuție. Ce urmează: capacitate de calcul și ofensiva pe enterprise OpenAI vizează 30 gigawați de capacitate de calcul până în 2030 și le-a spus investitorilor că a securizat deja 8 gigawați, susținând că Anthropic nu ar ajunge la acest nivel până la finalul lui 2027. În memo-ul intern, Dresser a recunoscut că focusul Anthropic pe programare i-a oferit un avantaj inițial în enterprise, dar a argumentat că o poziționare îngustă, centrată pe dezvoltatori, poate deveni o vulnerabilitate pe măsură ce utilizarea AI se extinde dincolo de echipele de inginerie. Documentul a enumerat și priorități pentru trimestrul al doilea, inclusiv un nou model cu nume de cod „Spud”, dezvoltarea platformei de agenți „Frontier”, extinderea printr-un parteneriat anunțat cu Amazon și construirea unui „motor de implementare” numit DeployCo. [...]

O hotărâre a unui judecător federal din New York ridică riscuri juridice directe pentru utilizarea chatbot-urilor în dosare penale și civile, după ce instanța a decis că un fost director nu poate ascunde conversațiile cu un asistent AI de procurori, potrivit Digi24 . Decizia a amplificat avertismentele venite din partea avocaților americani: discuțiile cu chatboți precum Claude (Anthropic) și ChatGPT (OpenAI) pot fi cerute ca probe, fie de procurori în anchete penale, fie de părțile adverse în litigii civile. Miza este pierderea „privilegiului avocat-client” – protecția care, în mod obișnuit, face confidențiale comunicările dintre avocat și client – atunci când informațiile ajung la o terță parte, iar un chatbot nu este considerat avocat. Hotărârea care a declanșat semnalele de alarmă Cazul îl vizează pe Bradley Heppner , fost președinte al companiei de servicii financiare falimentare GWG Holdings și fondator al Beneficent, acuzat de procurori federali (în noiembrie anul trecut) de fraudă în domeniul valorilor mobiliare și fraudă electronică; acesta a pledat nevinovat. Heppner a folosit Claude pentru a pregăti rapoarte despre cazul său și le-a împărtășit avocaților. Apărarea a susținut că schimburile cu AI ar trebui protejate, deoarece includeau detalii primite de la avocați. Procurorii au argumentat însă că avocații nu au fost implicați direct în acele comunicări și că privilegiul avocat-client nu se aplică chatbot-urilor. În februarie, judecătorul districtual american Jed Rakoff (Manhattan) a decis că Heppner trebuie să predea 31 de documente generate cu ajutorul lui Claude, legate de caz. „Nu există «și nici nu ar putea exista o relație avocat-client între un utilizator de IA și o platformă precum Claude»”, a scris Rakoff. De ce contează pentru companii și persoane: confidențialitatea devine incertă Pe fondul utilizării tot mai frecvente a inteligenței artificiale pentru „sfaturi” și redactări, peste o duzină de firme de avocatură importante din SUA au început să trimită clienților e-mailuri și să publice avize cu recomandări pentru reducerea riscului ca discuțiile cu AI să ajungă în instanță. Printre ideile vehiculate de avocați se numără: alegerea atentă a platformelor de AI și a condițiilor de utilizare; preferința pentru sisteme „închise”, destinate uzului corporativ, despre care unele firme spun că ar putea oferi protecții mai solide (dar subliniază că zona rămâne, în mare parte, netestată); folosirea AI pentru cercetare juridică mai ales la indicația unui avocat, ceea ce ar putea crește șansele de protecție prin privilegiul avocat-client. Firma Debevoise & Plimpton a sugerat inclusiv o formulare pe care utilizatorii să o introducă în solicitarea către chatbot atunci când lucrează la indicația avocatului: „Efectuez această cercetare la indicația avocatului în cadrul litigiului X.” Două instanțe, două abordări în aceeași zi În aceeași zi cu hotărârea lui Rakoff, un alt judecător – magistratul american Anthony Patti (Michigan) – a decis că o femeie care se reprezenta singură într-un proces împotriva fostei companii nu era obligată să predea conversațiile cu ChatGPT despre pretențiile din dosar. Patti a tratat discuțiile cu AI ca parte a propriului „produs al muncii” (material pregătit pentru caz), nu ca pe conversații cu o persoană care ar putea fi folosită de angajator în apărare. „ChatGPT și alte programe generative de AI sunt instrumente, nu persoane”, a scris Patti. Ce urmează: mai multe litigii și reguli de prudență Potrivit avocaților citați, sunt așteptate noi hotărâri care să lămurească în ce condiții conversațiile cu AI pot deveni probe. Până atunci, recomandarea de bază rămâne una conservatoare: dacă ai un caz cu miză juridică, nu discuta detalii sensibile cu nimeni în afara avocatului – inclusiv cu un chatbot. [...]

Google își mută Gemini mai aproape de fluxul de lucru pe Mac , printr-o aplicație dedicată care promite acces instant și integrare mai bună decât varianta din browser, potrivit 9to5Mac . Pentru utilizatori și companii, miza este una operațională: reducerea „fricțiunii” de utilizare a asistentului AI în sarcini de zi cu zi (documente, e-mail, rezumate, cod), direct din macOS. Ce se schimbă pentru utilizatorii de Mac Până acum, accesul „complet” la Gemini pe Mac era, în practică, prin Chrome sau în web. Aplicația oficială introduce un mecanism de deschidere rapidă din tastatură, gândit să țină asistentul la un gest distanță de orice aplicație. Elementul central este scurtătura Option + Space pentru acces instant, iar aplicația oferă și o variantă de „mini chat” versus fereastra completă. Funcții-cheie: scurtături, meniu, Dock și partajare de ecran Aplicația include o serie de opțiuni orientate spre utilizare rapidă și context mai bun pentru întrebări: Scurtături configurabile : Option + Space deschide mini chat, iar Option + Shift + Space deschide experiența completă; ambele pot fi schimbate din Settings. Acces din bara de meniu : iconiță Gemini în partea de sus a ecranului. Lansare din Dock : aplicația poate fi deschisă direct ca orice altă aplicație macOS. Partajare de ecran : posibilitatea de a-ți împărtăși ecranul pentru „context” suplimentar în conversație. În plus, sunt menționate opțiuni de personalizare precum alegerea modului implicit de deschidere a conversațiilor (mini chat sau fereastra principală), resetarea mini chat după un interval de timp și selectarea uneia dintre mai multe voci pentru răspunsurile citite. Aplicație „100% nativă” pe macOS și cerințe de sistem Google descrie aplicația ca fiind „100% native Swift” , adică dezvoltată specific pentru platformele Apple, nu un ambalaj peste o pagină web. Gemini pentru Mac poate fi descărcată gratuit de la gemini.google/mac și rulează pe macOS 15 Sequoia sau mai nou , conform publicației. Context: Gemini, tot mai prezent în ecosistemul Apple Dincolo de aplicația de Mac, 9to5Mac amintește că Gemini ar urma să stea la baza unor funcții viitoare pentru Siri și Apple Intelligence, începând cu iOS 27 și macOS 27, cu mai multe detalii așteptate la WWDC 2026 (8 iunie). Google spune și că „mai multe funcții sunt pe drum”, fără un calendar detaliat în material. [...]