Știri
Știri din categoria Inteligență artificială

TurboQuant nu va tempera semnificativ cererea de memorie pentru AI, iar presiunea pe prețuri ar putea rămâne ridicată până spre 2028, potrivit unei analize techradar.com, care citează opinii ale unor analiști din Coreea de Sud. Miza pentru piață este economică: chiar dacă algoritmii de compresie fac modelele mai „eficiente”, competiția din AI se poartă pe performanță, ceea ce tinde să mențină (sau să crească) consumul total de DRAM în centrele de date.
Analiștii citați susțin că îmbunătățirile de tip TurboQuant (un algoritm de compresie anunțat recent de Google) nu se traduc neapărat în scăderea cererii de semiconductori și memorie. Logica este că modele mai eficiente reduc costul per unitate de calcul, ceea ce poate stimula utilizarea AI la scară mai mare, anulând economiile de resurse la nivel de industrie.
Un analist de la Samsung Securities, Lee Jong-wook, este citat cu ideea că optimizarea modelelor tinde să fie folosită pentru a livra servicii AI mai performante cu aceleași resurse, nu pentru a reduce consumul total. În același registru, el argumentează că, atâta timp cât companiile AI concurează pe performanță, optimizarea nu va apăsa în jos cererea de semiconductori.
Un alt analist, Kim Rok-ho (Hana Securities), atrage atenția că tehnologiile de compresie nu sunt noi și că rămâne neclar dacă vor fi adoptate pe scară largă în industria AI. Chiar și într-un scenariu de adopție mai amplă pe termen mediu și lung, el vede mai probabilă scăderea barierelor de cost și extinderea utilizării AI, decât o reducere a cererii pentru DRAM și stocare.
Analiza notează și o doză de scepticism în comunitățile online privind modul în care Google își prezintă tehnologia, subliniind totodată că, în acest moment, TurboQuant este încă la nivel de cercetare, iar implementarea la scară mare rămâne de văzut.
Textul trece în revistă și un raport TrendForce despre scăderi de preț la DDR5 în SUA, Europa și Asia, însă interpretarea este că ieftinirile țin mai degrabă de o reacție a consumatorilor la niveluri considerate prea ridicate, nu de o îmbunătățire structurală a ofertei. În paralel, se menționează că prețurile „de contract” pentru marii producători nu ar indica o schimbare majoră de trend.
Este amintit și producătorul de laptopuri Framework, care a reușit să limiteze temporar creșterile de cost, dar compania ar fi avertizat că volatilitatea și scumpirile ar putea continua în restul lui 2026.
Concluzia analizei este că dezechilibrul dintre cerere și ofertă pe piața memoriei, alimentat de AI, nu pare să se corecteze rapid, iar estimările citate indică lipsa unei îmbunătățiri „semnificative” până în 2028. În acest context, TurboQuant este prezentat mai degrabă ca o tehnologie care poate crește performanța și accesibilitatea AI, nu ca un factor care să reducă presiunea asupra consumului total de RAM.
Recomandate

Google extinde global rezervările „agentice” în AI Mode , o funcție care poate căuta și face rezervări la restaurante în numele utilizatorului, în timp ce interfața primește o reproiectare a casetei de prompt, potrivit 9to5google.com . Miza practică este creșterea utilității operaționale a modului AI din Google, prin automatizarea unei sarcini concrete (rezervarea), nu doar generarea de răspunsuri. Funcția de rezervări pentru dining, anunțată inițial în SUA, se extinde în opt piețe noi: Australia, Canada, Hong Kong, India, Noua Zeelandă, Singapore, Africa de Sud și Regatul Unit. Utilizatorul trebuie să includă în cerere detalii precum ora, locația, tipul de bucătărie, numărul de persoane sau preferințe de atmosferă, iar AI Mode caută opțiuni disponibile consultând mai multe platforme de rezervări și site-uri, inclusiv prin parteneriate locale. Extinderea se face direct în AI Mode, fără a fi necesară activarea prin Labs (programul de testare al Google). Publicația nu precizează un calendar exact pentru disponibilitatea completă în fiecare piață. Reproiectare de interfață: caseta de prompt trece la „bottom sheet” pe mobil În paralel, AI Mode primește o modificare de design a casetei de prompt, similară cu aplicația Gemini. Pe mobil, în locul unui meniu de tip pop-up (care se potrivea cu interfața web), Google trece la un panou glisant din partea de jos („bottom sheet”). În noua interfață apar: butoane mari pentru „Gallery” și „Camera”; o secțiune „Tools”, unde pe mobil este disponibil doar „Create images”; un comutator pentru „Gemini 3 models”, cu opțiunile Auto sau Pro. Schimbarea apare pe Android și iOS și este încă în curs de distribuire către canalul stabil, ceea ce sugerează o implementare graduală. [...]

Google va folosi procesoare Intel Xeon și IPU-uri personalizate potrivit Tom’s Hardware , care relatează despre un acord multianual anunțat joi de Intel și Google pentru infrastructura de cloud și inteligență artificială a companiei. În cadrul colaborării, Google va continua să implementeze platforme Intel Xeon pentru următoarea generație de infrastructură AI și cloud. Aceste platforme se vor baza atât pe viitoarele procesoare Xeon ale Intel, cât și pe unități de procesare pentru infrastructură (IPU-uri), cipuri specializate pentru sarcini din centrele de date, proiectate împreună de Intel și Google. Anunțul vine într-un context în care tot mai multe companii adoptă procesoare personalizate bazate pe arhitectura Arm pentru sarcini de inteligență artificială, în încercarea de a optimiza costurile și performanța în centrele de date. Directorul general al Intel, Lip-Bu Tan , a declarat că extinderea sistemelor AI „necesită mai mult decât acceleratoare” și că „procesoarele și IPU-urile sunt esențiale” pentru performanță, eficiență și flexibilitate. La rândul său, Amin Vahdat, vicepreședinte senior și director tehnologic pentru infrastructura AI la Google, a spus că procesoarele și accelerarea infrastructurii rămân o componentă de bază a sistemelor AI, de la coordonarea antrenării până la inferență și implementare. Pentru piață, parteneriatul semnalează că Google mizează în continuare pe o combinație între procesoare generale (CPU) și cipuri specializate pentru infrastructură, în locul unei dependențe exclusive de acceleratoare sau de procesoare dezvoltate intern, iar Intel își consolidează poziția ca furnizor pentru centre de date într-o perioadă de competiție intensă pe segmentul AI. [...]

Anthropic declară că a depășit 30 mld. dolari venit anualizat , și confirmă că își va extinde capacitatea de calcul pentru inteligență artificială printr-o colaborare cu Broadcom și Google, pe fondul creșterii cererii pentru serviciul Claude. Compania afirmă că „revenue run rate” (venit anualizat, un indicator estimat pe baza vânzărilor curente) a trecut de 30 de miliarde de dolari, față de 9 miliarde de dolari la finalul lui 2025. Anthropic susține că, în 2026, cererea pentru Claude a continuat să crească, iar peste 1.000 de clienți corporate ar cheltui, în medie, mai mult de 1 milion de dolari pe an; nivelul ar fi crescut de peste două ori din februarie. Într-o declarație citată de publicație, directorul financiar Krishna Rao a spus că parteneriatul anunțat luna trecută cu Broadcom și Google va ajuta compania să „construiască capacitatea de calcul necesară” pentru a răspunde extinderii bazei de clienți. Noile date sugerează că disputa publică a companiei cu guvernul SUA nu i-a blocat creșterea: după un conflict legat de reguli de siguranță în inteligența artificială, Departamentul Apărării a inclus Anthropic pe o listă de risc pentru lanțul de aprovizionare, iar compania a deschis un proces. Avocații Anthropic au spus recent, într-o audiere la San Francisco, că peste 100 de clienți au contactat compania cu îngrijorări privind continuarea colaborării, în timp ce directorul comercial Paul Smith a declarat într-un interviu de săptămâna trecută că unii clienți apreciază faptul că firma „își apără principiile” în relația cu guvernul. Din documente depuse luni de Broadcom reiese că firma dezvoltă cipuri pe baza Tensor Processing Unit (TPU) de la Google, ca alternativă la tehnologia Nvidia. Broadcom și Google (Alphabet) au un acord pe termen lung pentru furnizarea acestor cipuri și o înțelegere de garantare a livrărilor până în 2031, iar cele trei companii intenționează să aprofundeze cooperarea: din 2027, Anthropic ar urma să primească sprijin de calcul de circa 3,5 gigawați putere totală. Broadcom a precizat că accesul Anthropic la această capacitate extinsă depinde de evoluția comercială a companiei și că părțile discută implementarea cu parteneri operaționali și financiari. Elementele-cheie ale anunțului, așa cum sunt prezentate în material, sunt: Venit anualizat Anthropic de peste 30 mld. dolari, față de 9 mld. dolari la finalul lui 2025 Peste 1.000 de clienți enterprise care ar cheltui peste 1 mil. dolari/an pentru Claude, cu o creștere de peste două ori din februarie Colaborare Anthropic–Broadcom–Google pentru extinderea capacității de calcul, cu țintă de aproximativ 3,5 GW din 2027 Broadcom dezvoltă cipuri pe baza TPU Google și are acorduri de furnizare până în 2031 După publicarea documentelor, acțiunile Broadcom au urcat cu până la 3,6% în tranzacțiile după închidere În același context, publicația consemnează că directorul general al Broadcom, Hock Tan, a discutat anterior despre parteneriat și a spus, într-un apel cu investitorii, că se așteaptă ca vânzările de cipuri pentru inteligență artificială ale companiei să depășească 100 de miliarde de dolari anul viitor, pe fondul competiției cu Nvidia. TPU-urile Google, proiectate inițial pentru accelerarea calculelor din motorul de căutare, sunt folosite acum și la dezvoltarea și rularea software-ului de inteligență artificială, iar Broadcom realizează proiectarea completă a cipurilor pe baza specificațiilor Google, urmând ca producția să fie externalizată către fabrici specializate. [...]

Documente fiscale din China indică o tranzacție de 92 milioane de dolari (aprox. 414 milioane lei) cu servere ce ar fi inclus acceleratoare AI Nvidia supuse interdicțiilor SUA , un episod care reaprinde riscul de reglementare și de conformitate în lanțul global de aprovizionare cu hardware pentru inteligență artificială, potrivit tomshardware.com . Informația se bazează pe înregistrări de facturi din baza Administrației de Stat pentru Taxare din China, care arată că Sharetronic Data Technology Co. (companie chineză ce vinde și închiriază servere AI) a achiziționat aproape 300 de servere ce ar conține cipuri AI Nvidia „interzise” la export către China, apoi le-a vândut unei subsidiare din Shenzhen pentru 92 milioane de dolari. Ce s-a cumpărat și când Conform facturilor citate, Sharetronic ar fi vândut către subsidiara din Shenzhen, în mai și iunie 2025: 276 de servere Super Micro SYS-821GE-TNHR , despre care pagina de produs menționează suport pentru „Nvidia HGX H100/H200 8-GPU”; 32 de servere Dell PowerEdge XE9680 , ale căror specificații indică drept acceleratoare compatibile Nvidia HGX H100, Nvidia HGX H200, Nvidia HGX H20, AMD Instinct MI300X și Intel Gaudi 3. Publicația notează, citând Bloomberg, că nu este clar ce cipuri exacte au fost efectiv incluse în serverele facturate și nici de unde au fost procurate , însă opțiunile menționate ar fi fost, la acel moment, sub incidența controalelor de export ale SUA către China. De ce contează: risc de conformitate și expunere pentru furnizori SUA au interzis exportul către China al acestor acceleratoare AI de înaltă performanță încă din 2022, cu mult înainte ca Super Micro și Dell să înceapă livrările pentru aceste platforme de servere. În acest context, tomshardware.com arată că este puțin probabil ca produsele din facturi să fie „stoc vechi” cumpărat înainte de interdicții (deși unele companii au făcut stocuri pentru până la 18 luni). Dell a negat orice abatere, afirmând că nu există „nicio evidență a vânzărilor presupuse” și că, dacă se constată deturnarea produselor sau transferul către o locație ori un client neautorizat, compania ia măsuri, inclusiv încetarea relației comerciale. Ce urmează nu este precizat în material: din datele prezentate reiese doar că documentele fiscale și compatibilitățile tehnice ridică semne de întrebare privind respectarea regimului de export, fără a stabili în mod definitiv configurația livrată sau proveniența componentelor. [...]

OpenAI susține că Elon Musk încearcă să schimbe din mers miza procesului, cu efect direct asupra calendarului și strategiei de apărare , potrivit ithome.com , care citează Bloomberg. Compania afirmă că Musk ar fi introdus, cu doar câteva săptămâni înainte de termen, o „surpriză legală” menită să ia pârâții pe nepregătite și să perturbe desfășurarea litigiului. Într-un document depus vineri noaptea la instanță, OpenAI spune că noile solicitări ale lui Musk urmăresc nu doar să complice procedura, ci și să „remodeleze” narațiunea publică despre proces. OpenAI califică aceste pretenții de ultim moment drept „necorespunzătoare din punct de vedere juridic” și „lipsite de bază factuală”. Ce cere Musk acum și de ce contează procedural Musk a dat în judecată OpenAI și Microsoft în 2024, acuzând OpenAI că s-a îndepărtat de misiunea inițială de cercetare după ce a atras investiții de ordinul miliardelor de dolari de la Microsoft și a început demersuri de reorganizare către un model cu scop lucrativ. În acțiune, el a cerut ca pârâții să plătească între aproximativ 79 miliarde și 134 miliarde de dolari (aprox. 360–610 miliarde lei) reprezentând „câștiguri ilegale”, conform materialului. Potrivit documentului depus de avocații lui Musk în această săptămână, el mai solicită: ca orice despăgubiri obținute la proces să fie direcționate către brațul caritabil al OpenAI, nu către el personal; ca instanța să anuleze transformarea corporativă a OpenAI; ca instanța să supravegheze viitoarele finanțări și tranzacții ale OpenAI, pentru a se asigura că nu se îndepărtează de misiunea inițială; demiterea lui Sam Altman din funcția de CEO al OpenAI și a unor membri ai consiliului de administrație. Din perspectiva operațională a litigiului, OpenAI susține că această schimbare de direcție ar necesita probe diferite și audierea unor martori diferiți față de cazul „împins” de Musk cu doar trei zile înainte, ceea ce ar putea complica pregătirea apărării într-un interval scurt. Calendar: proces programat pe 27 aprilie Procesul este programat pentru 27 aprilie, notează publicația. În acest context, OpenAI își construiește argumentul că noile cereri vin prea târziu și ar fi formulate tocmai pentru a crea presiune procedurală înainte de termenul de judecată. Materialul nu oferă, în fragmentul disponibil, un răspuns al lui Musk la poziția OpenAI și nici detalii despre cum ar urma instanța să se pronunțe asupra acestor solicitări înainte de termenul din 27 aprilie. [...]

Rusia își leagă strategia AI de suveranitate tehnologică și pregătește o lege dedicată , într-un efort de a accelera dezvoltarea de modele „de bază” (foundation models) competitive la nivel global și de a trece la soluții interne în economie și apărare, potrivit ithome.com , care citează relatări ale presei de stat din Rusia și China despre o reuniune prezidată de Vladimir Putin pe 10 aprilie. Mesajul central al lui Putin este că modelele lingvistice mari (LLM) devin infrastructură critică pentru autonomie economică și militară, iar ciclul complet de dezvoltare și antrenare trebuie realizat de companii rusești, astfel încât inginerii locali să poată controla „toți parametrii” sistemelor. În aceeași logică, el a cerut „trecerea completă” la tehnologie autohtonă, cu accent pe utilizarea pe scară largă a soluțiilor AI în administrație, industrie și domeniul de securitate. Ce cere Kremlinul până în 2030: implementare pe scară largă Putin a indicat că, până în 2030, tehnologiile bazate pe AI ar trebui să fie folosite activ în lanțul de producție, logistică, energie, guvernare și educație. În plus, el a enumerat un set de priorități operaționale, de la planificare până la export: elaborarea unor planuri pentru introducerea accelerată a AI în industrii-cheie, domenii sociale și în sistemul de guvernanță; adaptarea întregului sistem de formare a resursei umane (de la școală la piața muncii) la utilizarea pe scară largă a AI, inclusiv recalificare; identificarea riscurilor și a „modelelor de amenințări” asociate utilizării AI și stabilirea de măsuri preventive; dezvoltarea de soluții AI autohtone pentru apărare și securitate națională; construirea unui sistem de promovare externă a sistemelor și serviciilor AI rusești și extinderea cooperării cu parteneri din CSI, Organizația de Cooperare de la Shanghai și BRICS. Reglementare: lege pentru AI și reguli care „să accelereze”, nu să frâneze Pe partea de reglementare, Putin a cerut ajustarea cadrului legal astfel încât acesta să nu blocheze dezvoltarea, ci să stimuleze cercetarea și implementarea avansată. În paralel, guvernul lucrează la un proiect de lege privind inteligența artificială, menit să definească noțiunile, să stabilească responsabilități pentru participanții din piață, să creeze reguli-cadru pentru utilizare și să reducă riscurile în domenii „deosebit de sensibile”, conform informațiilor citate în material. Dimensiunea economică: cheltuieli de 257 mld. ruble în 2025 Un indicator al ritmului investițional este suma comunicată de vicepremierul Dmitri Grigorenko: în 2025, companiile rusești ar fi cheltuit 257 miliarde ruble pentru implementarea și utilizarea tehnologiilor AI. Sursa citată de ithome.com oferă și o conversie în yuani, însă articolul nu detaliază distribuția pe sectoare sau ponderea finanțării publice versus private. Ce urmează Din informațiile disponibile, următoarele repere sunt: accelerarea implementării soluțiilor AI „made in Russia” în sectoare civile și militare, construirea unei arhitecturi de finanțare care să implice statul, companiile private și întreprinderile de stat, respectiv avansarea proiectului de lege pentru AI. Materialul nu precizează un calendar legislativ sau bugete asumate pentru programul național. [...]