Știri
Știri din categoria Inteligență artificială

Claude Mythos riscă să fie greu de monetizat în securitate cibernetică din cauza costurilor de rulare și a disponibilității sub nivel „enterprise”, chiar dacă performanța tehnică este ridicată, potrivit unei analize Tom's Hardware.
Modelul AI al Anthropic a atras atenția după ce compania a sugerat că Mythos ar putea identifica vulnerabilități de tip „zero-day” (breșe necunoscute public și necorectate) în browsere și sisteme de operare, ceea ce a dus la inițiativa „Project Glasswing” – o colaborare cu companii mari de tehnologie pentru remedierea problemelor înainte ca modelul (aflat încă în versiune „preview”) să fie lansat pe scară mai largă. Publicația notează însă că, dincolo de mesajul ambițios, capabilitățile nu sunt „spectaculoase” în sensul prezentat inițial.
Un punct cheie pentru companii este că o parte din vulnerabilitățile prezentate drept „de referință” pentru Mythos pot fi detectate și de modele mai accesibile, inclusiv modele cu greutăți deschise (open-weight), conform unei analize publicate de Aisle. În exemplele citate:
Concluzia de business sugerată de această comparație: dacă diferența de performanță nu este mare, unele organizații pot prefera variante mai ieftine de rulat (inclusiv local), în locul unui model de vârf cu costuri mai ridicate.
Analiza Aisle mai susține că Anthropic tratează securitatea cibernetică drept un instrument unitar care acoperă mai multe etape (descoperire, verificare, exploatare, remediere), deși în practică acestea sunt pași diferiți, cu cerințe diferite. În acest context, unele modele mai „ușoare” pot performa bine pe anumite segmente.
Aisle descrie evaluarea ca o combinație de factori – „inteligență per token”, „tokeni per dolar”, „tokeni pe secundă” și expertiza de securitate integrată în „scaffold” (structura de instrumente și procese care orchestrează modelul). Chiar dacă Mythos ar maximiza „inteligența per token”, celelalte variabile pot cântări la fel de mult în utilizarea reală.
Separat, Irregular propune ca eficiența să fie judecată și prin „costul așteptat per succes” – adică nu doar dacă modelul poate reuși, ci cât costă, în medie, să ajungi la un rezultat util în practică.
O altă evaluare, realizată de AI Security Institute (AISI) din Marea Britanie, indică faptul că Mythos este cel mai capabil model în benchmark-urile proprii de securitate cibernetică ale institutului. Diferențele față de alte modele nu ar fi „dramatice” pe toate sarcinile, însă la descoperiri și exploatări mai complexe Mythos ar ieși în față.
Un element important este dependența de „context lung” (intrări mari) și de bugete ridicate de tokeni. AISI spune că a testat Mythos până la un buget de 100 de milioane de tokeni și că performanța a continuat să crească până la acel prag, sugerând că ar putea scala și mai departe cu mai mult „inference compute” (putere de calcul pentru rularea modelului).
Dincolo de performanță și cost, apare o problemă operațională: capacitatea Anthropic de a livra serviciul la nivel „enterprise”. Tom’s Hardware notează că modelele Anthropic au avut o rată de disponibilitate (uptime) de 98,4% în ultimele 90 de zile, la momentul redactării.
Prin comparație, 99,99% este considerat standard „enterprise-grade” – iar diferența se traduce în aproape 12 ore de indisponibilitate pe lună, un nivel slab pentru servicii cloud. În același material se menționează că API-ul OpenAI oferă 99,99% uptime, ceea ce contează direct într-un model de afaceri bazat pe vânzarea de tokeni.
În acest cadru, Mythos – descris ca probabil mai „greu” computațional – ar putea pune presiune suplimentară pe infrastructura Anthropic, care ar avea nevoie de mai multă capacitate de calcul (publicația amintește și un acord recent cu Broadcom, în acest sens).
Pentru companiile care cumpără servicii de securitate cibernetică sau rulează intern astfel de capabilități, mesajul este pragmatic: Mythos poate fi printre cele mai bune modele, dar nu neapărat cea mai eficientă opțiune „end-to-end”, dacă alternativele mai ieftine ating rezultate apropiate pe o parte din sarcini.
Pentru Anthropic, miza devine dublă: să justifice economic un model de vârf (în condițiile în care prețul final nu este prezentat) și să ridice fiabilitatea livrării la nivelul așteptat de clienții mari din zona SaaS și securitate cibernetică.
Recomandate

Agenția americană NSA folosește modelul de inteligență artificială Mythos Preview al Anthropic , în pofida conflictului prelungit dintre companie și Pentagon, potrivit Engadget . Informația indică faptul că accesul la instrumente avansate de IA pentru securitate cibernetică continuă în interiorul aparatului federal american, chiar și în condițiile unor restricții și dispute la nivel politic și contractual. Potrivit Axios, care citează două surse familiarizate cu situația, NSA utilizează Mythos Preview, un model prezentat de Anthropic la începutul lunii aprilie și descris de companie ca un model de limbaj de uz general „remarcabil de capabil în sarcini de securitate informatică”. Conform acelorași surse, NSA ar fi una dintre aproximativ 40 de organizații care au primit acces la Mythos Preview, iar unul dintre interlocutori susține că instrumentul „este folosit mai larg în cadrul departamentului”. De ce contează: utilizare operațională în ciuda interdicțiilor politice Contextul este cu atât mai relevant cu cât, în februarie, președintele Donald Trump a ordonat agențiilor guvernamentale să înceteze utilizarea serviciilor Anthropic, după ce compania „a refuzat să cedeze” asupra unor măsuri de protecție (safeguards) pentru utilizări militare în timpul negocierilor contractuale. În acest cadru, folosirea Mythos Preview de către NSA sugerează fie existența unor excepții, fie o aplicare neuniformă a ordinului, fie o delimitare între „servicii” și accesul controlat la un model aflat în testare — aspecte pe care materialul nu le clarifică. Întâlniri la Casa Albă și litigii cu Departamentul Apărării Știrea vine la câteva zile după ce CEO-ul Anthropic, Dario Amodei, s-a întâlnit cu șefa de cabinet a Casei Albe, Susie Wiles, și cu alți oficiali, discuțiile vizând, potrivit relatărilor, Mythos. Casa Albă a descris ulterior întâlnirea drept „productivă și constructivă”, însă Trump a declarat că „nu are nicio idee” despre ea, conform Reuters. În paralel, Anthropic rămâne într-o dispută juridică cu guvernul SUA. Compania a dat în judecată Departamentul Apărării în martie, în două instanțe, după ce administrația Trump a etichetat-o drept „risc pentru lanțul de aprovizionare” (supply chain risk). Un tribunal a acordat o ordonanță preliminară care blochează temporar această desemnare, în timp ce judecători federali din cealaltă cauză au respins cererea companiei de a ridica eticheta. [...]

Amazon își securizează pe 10 ani cererea de calcul pentru AI printr-un acord care poate duce investiția în Anthropic la 33 mld. dolari (aprox. 151 mld. lei), în schimbul unui angajament de peste 100 mld. dolari (aprox. 460 mld. lei) cheltuieli cloud pe AWS, potrivit The Next Web . Amazon a convenit să investească „până la” 25 mld. dolari în Anthropic, compania din spatele modelelor Claude, însă structura tranzacției arată că nu este vorba de un cec integral: 5 mld. dolari sunt investiți imediat, iar până la 20 mld. dolari sunt condiționați de atingerea unor obiective comerciale. Suma se adaugă celor 8 mld. dolari pe care Amazon îi angajase deja din 2023, ceea ce ridică investiția potențială totală la circa 33 mld. dolari (aprox. 152 mld. lei). În paralel, Anthropic își asumă un angajament de peste 100 mld. dolari pentru AWS pe următorul deceniu, dar publicația precizează că acesta este un „angajament de achiziție” (procurement pledge), nu o plată în avans: compania se obligă să cumpere capacitate de calcul, cipuri personalizate pentru AI și servicii de infrastructură de la Amazon. Practic, Amazon finanțează Anthropic, iar Anthropic direcționează o parte semnificativă din acești bani către infrastructura Amazon. De ce contează: AWS își blindează cererea și împinge Trainium în centrul AI-ului „frontieră” Miza operațională a acordului este capacitatea de calcul și, implicit, controlul lanțului de aprovizionare pentru antrenarea și rularea modelelor. În centrul înțelegerii se află Trainium, linia de cipuri dezvoltată intern de Amazon ca alternativă la GPU-urile Nvidia pentru antrenare și inferență (rularea modelelor). Acordul acoperă Trainium2, viitorul Trainium3 și Trainium4 (încă nelansat), plus „zeci de milioane” de nuclee CPU Graviton. Anthropic obține până la 5 gigawați de capacitate pentru a antrena și a rula Claude. Amazon afirmă că o capacitate semnificativă Trainium2 intră în funcțiune în trimestrul al doilea din 2026, iar până la finalul anului ar urma să fie disponibil aproape 1 gigawatt combinat Trainium2 și Trainium3. Context: creșterea Anthropic și consolidarea distribuției prin AWS Acordul vine pe fondul unei cereri în creștere rapide, pe care Anthropic o leagă de evoluția veniturilor: compania a ajuns la venituri anualizate de 30 mld. dolari, de la aproximativ 9 mld. dolari la final de 2025. Parteneriatul se adâncește și pe distribuție: clienții AWS vor putea accesa „întreaga Claude Platform” (interfața nativă a Anthropic) direct din conturile lor AWS, fără acreditări sau facturare separate. Este un pas peste disponibilitatea Claude prin Amazon Bedrock, „piața” de AI gestionat a Amazon. În același timp, Claude rămâne, potrivit sursei, singurul model „frontieră” disponibil pe toate cele trei mari platforme cloud: AWS Bedrock, Google Cloud Vertex AI și Microsoft Azure Foundry. Raportul de forțe: Amazon devine partenerul principal de infrastructură The Next Web notează că structura este similară cu un acord de acum două luni, când Amazon ar fi investit 50 mld. dolari în OpenAI în cadrul unui angajament comparabil de 100 mld. dolari pentru cloud. În cazul Anthropic, acordul cu AWS „surclasează” o înțelegere separată din noiembrie 2025, când Microsoft a investit până la 5 mld. dolari în Anthropic, iar compania s-a angajat să cumpere 30 mld. dolari capacitate de calcul pe Azure. Noua înțelegere cu AWS „stabilește ferm Amazon” ca partenerul principal de infrastructură al Anthropic, potrivit articolului. Evaluarea folosită pentru investiția inițială este cea mai recentă evaluare a Anthropic, de 380 mld. dolari. Publicația mai menționează că fonduri de capital de risc ar fi oferit finanțare la evaluări de 800 mld. dolari sau mai mult înaintea unei posibile listări, însă nu a fost anunțată o astfel de rundă. [...]

Google își diversifică agresiv lanțul de aprovizionare pentru cipuri AI, mizând pe patru parteneri ca să reducă dependența de Nvidia în inferență , potrivit The Next Web . Strategia combină mai mulți furnizori de proiectare, o relație unică de fabricație cu TSMC și o foaie de parcurs care merge de la TPU-ul „Ironwood” (deja livrat) până la procesoare pe 2 nanometri așteptate în 2027. Miza este economică și operațională: inferența (rularea modelelor pentru utilizatori) devine costul dominant în AI, iar Google încearcă să obțină un cost mai mic „pe interogare” prin cipuri dedicate, în locul GPU-urilor generaliste. Ce face Google diferit: patru parteneri, roluri separate Programul de cipuri al Google este construit în jurul a patru parteneri de proiectare, cu responsabilități împărțite pe segmente: Broadcom : gestionează variantele de înaltă performanță și proiectează TPU v8 pentru antrenare („Sunfish”), țintind procesul TSMC pe 2 nm pentru finalul lui 2027 . Google și Broadcom au semnat pe 6 aprilie un acord pe termen lung pentru livrări până în 2031 (TPU-uri și componente de rețea). MediaTek : proiectează varianta optimizată pe cost pentru inferență a TPU v8 („Zebrafish”), tot pentru TSMC 2 nm în finalul lui 2027 . Implicarea MediaTek a început cu module I/O și componente periferice la Ironwood, unde designurile sale ar fi cu 20–30% mai ieftine decât alternativele. Marvell : este în discuții cu Google pentru o unitate de procesare a memoriei și un nou TPU orientat pe inferență; dacă se semnează contractul, ar deveni un al treilea partener de design pe această zonă. Google ar intenționa să producă aproape două milioane de astfel de unități, cu finalizarea designului așteptată anul viitor. Intel : are un acord multianual (din 9 aprilie) pentru procesoare Xeon și unități personalizate de procesare pentru infrastructura centrelor de date AI ale Google, acoperind straturile de rețea și calcul general care „înconjoară” TPU-urile, nu acceleratoarele AI propriu-zise. Indiferent de partenerul de proiectare, TSMC fabrică toate cipurile personalizate ale Google , ceea ce face relația cu producătorul taiwanez un element structural al strategiei. Ironwood, „capul de pod” în inferență Piesa centrală „de azi” este Ironwood , a șaptea generație TPU și primul cip Google proiectat explicit pentru inferență. Conform articolului, Ironwood oferă: de 10 ori performanța de vârf a TPU v5p; 192 GB memorie HBM3E per cip și 7,2 TB/s lățime de bandă; scalare până la 9.216 cipuri răcite cu lichid într-un „superpod”, cu 42,5 exaflopși FP8 . Ironwood este deja disponibil pentru clienții Google Cloud, iar Google intenționează să producă milioane de unități în acest an. Anthropic s-a angajat la până la un milion de TPU-uri , iar Meta are un aranjament de închiriere, potrivit sursei. De ce contează: inferența schimbă economia AI Rațiunea strategică invocată este că antrenarea unui model de vârf este un eveniment intens, dar relativ „punctual”, în timp ce inferența este continuă și crește cu fiecare utilizator și produs care integrează AI. La scara Google (căutări augmentate cu AI, conversații Gemini, apeluri API), costul per inferență devine determinant pentru profitabilitatea întregului business AI. În acest context, Google încearcă să atace punctul forte al Nvidia nu printr-un „cip unic” superior, ci printr-un sistem de cipuri specializate pe sarcini și costuri, care să reducă treptat ponderea hardware-ului Nvidia în infrastructura proprie. Cifrele și ce urmează la Cloud Next Articolul menționează proiecții de livrări totale TPU de 4,3 milioane de unități în 2026 , cu o creștere la peste 35 de milioane până în 2028 . Totodată, TrendForce ar estima că vânzările de cipuri personalizate (ASIC – circuite integrate proiectate pentru o sarcină specifică) vor crește cu 45% în 2026 , față de 16% pentru livrările de GPU-uri, iar piața ar putea ajunge la 118 miliarde dolari (aprox. 531 miliarde lei ) până în 2033. Google Cloud Next începe miercuri, la Las Vegas, cu keynote-uri susținute de Sundar Pichai și Thomas Kurian. Evenimentul este așteptat să detalieze arhitectura următoarei generații de TPU și legătura dintre Ironwood și generația v8. În paralel, Nvidia ar încerca să rămână relevantă și în ecosistemul de cipuri personalizate, inclusiv prin investiția de 2 miliarde dolari (aprox. 9 miliarde lei ) în Marvell și prin programul NVLink Fusion, conform sursei. [...]

Inteligența artificială ar putea elimina în cinci ani până la 50% din joburile „entry-level” de birou , potrivit unei evaluări făcute de CEO-ul Anthropic , Dario Amodei , într-un interviu preluat de IT之家 . Mesajul are o miză operațională directă pentru companii: presiunea de a reproiecta rapid rolurile de început de carieră și traseele de formare, pe măsură ce AI devine capabilă să preia sarcini standardizate. De ce contează: „entry-level”-ul, prima zonă expusă automatizării Amodei susține că AI are încă „un spațiu uriaș de dezvoltare”, comparând evoluția cu un curcubeu „fără capăt”, iar creșterea puterii de calcul (capacitatea de procesare necesară antrenării și rulării modelelor) ar avea „un drum lung” înainte. În acest context, el estimează că, în următorii cinci ani, AI ar putea înlocui „până la 50%” din posturile de birou pentru angajații aflați la început de drum. Afirmația vizează în special munca de tip rutinier din zona „white-collar” (activități de birou), unde o parte importantă a sarcinilor poate fi formalizată și delegată unor sisteme AI. Ritmul adoptării: tehnologia se răspândește „cu viteza încrederii” În aceeași discuție, Amodei spune că nivelul de încredere al societății în AI rămâne insuficient, ceea ce face ca tehnologia să se răspândească „cu viteza încrederii”. El pune o parte din această reticență pe seama faptului că industria nu a livrat unele promisiuni optimiste din trecut, în timp ce avertismentele privind riscurile s-au acumulat. „Oamenii vor suspecta că ceea ce spunem este doar un castel în aer, așa că trebuie să construim cu adevărat ceea ce ne propunem.” Ce urmează pentru companii: impactul nu poate fi „îndulcit” Amodei avertizează că industria nu ar trebui să minimalizeze șocul potențial asupra pieței muncii și că este necesar ca AI să genereze „o valoare pozitivă” mai mare. În termeni practici, asta înseamnă că firmele vor fi împinse să găsească un echilibru între câștigurile de productivitate și modul în care își reorganizează recrutarea, instruirea și rolurile de început de carieră, într-un interval de timp relativ scurt. Notă: IT之家 citează publicația The Decoder ca sursă a interviului și a declarațiilor atribuite lui Dario Amodei. [...]

Piața muncii nu pare să se contracte pe fondul AI, dar se reconfigurează pe competențe , arată un sondaj citat de Economedia : 8 din 10 angajatori spun că, în următorii doi ani, vor recruta aproximativ același număr de oameni, însă o parte importantă anticipează că vor căuta candidați cu abilități diferite față de cele cerute acum. Adopția AI în companii rămâne, în mare, la nivel de utilizare „ad-hoc”: 47,4% dintre angajatorii participanți la sondajul eJobs România declară că folosesc soluții bazate pe inteligență artificială sporadic, mai degrabă la inițiativa angajaților decât ca politică internă. Doar 5,2% spun că AI este integrată strategic în majoritatea departamentelor, iar 15,5% au câteva procese clar definite care implică AI. În organizațiile unde există implementări, percepția asupra efectelor este mixtă: angajatorii au observat atât entuziasm și curiozitate, cât și reticență sau indiferență. Potrivit Ralucăi Dumitra, Head of Marketing la eJobs, măsurătorile indică faptul că volumul de muncă nu s-a schimbat, dar calitatea muncii este mai bună. Ce se schimbă operațional: productivitate, control și încredere „moderată” Datele din sondaj indică efecte diferite asupra volumului de muncă: 26% dintre angajatori spun că volumul de muncă a scăzut cu 10% până la peste 20% din timp; 10% afirmă că volumul a crescut, din cauza timpului necesar pentru învățarea și verificarea instrumentelor; alți 10% spun că reducerea volumului de muncă este vizibilă, dar cu rezultate mai slabe calitativ. În paralel, peste jumătate dintre respondenți declară că au o încredere moderată în acuratețea rezultatelor oferite de AI și că acestea necesită verificare amănunțită (fact-checking). 11,4% au încredere scăzută și folosesc AI mai ales pentru generare de idei, în timp ce 33% spun că au un nivel ridicat de încredere și fac doar revizuiri rapide. Recrutarea rămâne, dar criteriile se mută spre „alfabetizare AI” În privința impactului asupra nevoii de personal, 8 din 10 angajatori se așteaptă să angajeze același număr de oameni ca până acum. Jumătate dintre aceștia adaugă însă că vor fi necesare competențe noi. 16% cred că vor angaja mai puțin, deoarece AI va prelua din sarcini, iar 1,2% anticipează o creștere a nevoii de personal pentru gestionarea tehnologiei. În prezent, „alfabetizarea AI” (capacitatea de a folosi instrumente AI și de a formula cerințe eficiente către ele) este mai degrabă un avantaj decât un filtru: 39% dintre angajatori spun că nu o evaluează încă la interviu, iar pentru 17,1% reprezintă un avantaj competitiv major. Barierele: date, competențe digitale și costuri Principalele obstacole menționate de angajatori țin de securitatea și confidențialitatea datelor. Apar și bariere legate de competențele digitale ale angajaților, inclusiv dificultatea de a formula prompturi. În plus, 17,2% indică drept problemă costurile ridicate ale licențelor și implementării, iar 12,6% menționează rezistența culturală a echipei la schimbare. Pe partea de beneficii observate după integrarea AI: aproape 40% indică eliminarea sarcinilor repetitive; 30% văd un plus pe creativitate și generare de idei; 19,8% menționează viteză mai mare de răspuns în piață; 3,7% vorbesc despre reducerea costurilor cu recrutarea și salariile, deoarece angajează mai puțin; 2,5% indică reducerea costurilor operaționale. Sondajul eJobs a fost realizat în martie, pe un eșantion de 196 de companii din 19 domenii, reprezentate de manageri HR, specialiști HR, manageri de departament și antreprenori. [...]

Abonații Google AI Pro și Ultra primesc limite mai mari în AI Studio , ceea ce mută prototiparea cu modele Gemini într-o zonă cu costuri mai previzibile și cu mai puține fricțiuni pentru dezvoltatorii care au depășit nivelul gratuit, potrivit Google Blog . Actualizarea, disponibilă „începând de astăzi”, crește limitele de utilizare în Google AI Studio pentru abonații Google AI Pro și Ultra și adaugă acces la modele precum Nano Banana Pro și Gemini Pro . Mesajul central al Google este operațional: dezvoltatorii ar putea trece „în câteva minute” de la idee la o aplicație funcțională, cu costuri „previzibile”, în cadrul abonamentului. Ce se schimbă pentru dezvoltatori Pentru cei care au epuizat limitele din varianta gratuită, Google poziționează abonamentul Google AI ca o „punte” cu configurare redusă către facturare, utilă pentru testare și prototipare mai profundă în AI Studio. În paralel, compania menține că pentru lansări la scară de producție standardul rămâne utilizarea cheilor API cu tarifare „per cerere” (pay-per-request). Cum se face trecerea către producție Google susține că, atunci când un proiect este gata de lansare, tranziția de la beneficiile din abonament la o configurare bazată pe API poate fi realizată direct din AI Studio. Publicația nu oferă însă detalii despre nivelurile exacte ale noilor limite sau despre prețuri, dincolo de ideea de „costuri previzibile” în etapa de prototipare. Beneficiile sunt în curs de activare pentru toți abonații AI Pro și Ultra; utilizatorii trebuie să se autentifice cu contul asociat abonamentului pentru a le accesa. [...]