Știri
Știri din categoria Inteligență artificială

Google Cloud și Nvidia introduc GPU-uri fracționate pentru costuri mai mici în AI, potrivit Google Cloud, într-un parteneriat extins anunțat la GTC 2026, care vizează accelerarea adoptării inteligenței artificiale în mediul enterprise.
Noutatea centrală este lansarea mașinilor virtuale G4 fracționate, care permit împărțirea unui GPU Nvidia RTX Pro 6000 în mai multe segmente:
Această abordare reduce costurile și oferă flexibilitate, permițând companiilor să plătească doar pentru resursele utilizate, într-un context în care cererea pentru infrastructură AI crește rapid.
Parteneriatul merge dincolo de hardware și include integrarea profundă a tehnologiilor Nvidia în ecosistemul Google:
Aceste instrumente sunt concepute pentru a accelera dezvoltarea și implementarea modelelor AI complexe, inclusiv a celor de tip „agentic AI”, considerate următorul val în industrie.
Google Cloud a confirmat și că va adopta sistemele Vera Rubin NVL72 în a doua jumătate a lui 2026. Acestea includ:
| Componentă | Specificație |
|---|---|
| GPU-uri | 72 unități Rubin |
| CPU-uri | 36 procesoare Vera |
| Utilizare | antrenare și inferență la scară mare |
Clienți importanți, precum General Motors sau Salesforce, folosesc deja infrastructura comună pentru aplicații AI avansate, inclusiv platforme autonome și sisteme de analiză complexă.
Anunțul reflectă o direcție clară: transformarea infrastructurii AI într-un serviciu flexibil și scalabil pentru companii. Nvidia și Google Cloud încearcă astfel să răspundă competiției din partea Amazon și Microsoft, dar și să capitalizeze cererea tot mai mare pentru modele AI capabile să opereze autonom.
În paralel, Nvidia promovează ideea că „tokenii devin o resursă economică”, sugerând că viitorul industriei va depinde nu doar de puterea de calcul, ci și de eficiența utilizării acesteia.
Recomandate

Departamentul american al Apărării își extinde rapid accesul la instrumente de inteligență artificială pe rețele militare clasificate , după ce Amazon Web Services (AWS) , Microsoft și NVIDIA au semnat acorduri care permit Pentagonului utilizarea tehnologiilor lor „pentru utilizare operațională legală”, potrivit Engadget . Informația este relatată inițial de Bloomberg , care notează că, alături de cele trei companii, și Reflection AI a încheiat un acord similar. Pentagonul a transmis, într-o declarație citată de Bloomberg, că aceste acorduri „accelerează transformarea” către un model în care armata SUA devine o „forță de luptă AI-first” (orientată în primul rând către folosirea inteligenței artificiale). Ce se schimbă operațional: AI pe rețele clasificate Elementul cu impact direct este faptul că instrumentele de AI ale companiilor vor putea fi folosite pe rețele militare clasificate , ceea ce ridică miza față de utilizări comerciale sau administrative. Formularea „pentru utilizare operațională legală” indică un cadru de utilizare în interiorul regulilor și procedurilor militare, fără ca materialul citat să detalieze ce tipuri de aplicații vor fi implementate efectiv. Lista furnizorilor se lărgește; Anthropic rămâne în afara acordurilor Engadget arată că AWS, Microsoft și NVIDIA se alătură altor companii care au semnat acorduri similare cu Departamentul Apărării, între care xAI, OpenAI și Google. În acest context, Anthropic este prezentată drept singurul furnizor major de AI din SUA care nu are un acord funcțional cu Pentagonul. Materialul descrie și tensiunile dintre administrația Trump și Anthropic: în februarie, secretarul apărării Pete Hegseth ar fi amenințat că va eticheta compania drept „risc pentru lanțul de aprovizionare” dacă nu renunță la măsuri de protecție care împiedică folosirea chatbotului Claude pentru supraveghere în masă a americanilor sau în arme complet autonome. După refuzul companiei, președintele Trump a ordonat agențiilor federale să înceteze utilizarea produselor Anthropic în termen de șase luni, iar disputa a ajuns în instanță. Reacție publică: semnal de risc reputațional pentru furnizori Engadget notează că ritmul de adopție al AI în apărare și viteza cu care marile companii americane „se aliniază” pentru a vinde către administrația Trump ar trebui să fie un motiv de îngrijorare pentru cetățenii SUA. Ca indiciu al sensibilității publice, publicația citează date ale firmei de inteligență de piață Sensor Tower: OpenAI ar fi înregistrat o creștere cu 413% de la an la an a dezinstalărilor aplicației ChatGPT în februarie, după acordul companiei cu Departamentul Apărării. Ce urmează, pe baza informațiilor disponibile, este extinderea acestui tip de parteneriate în zona militară, cu o presiune tot mai mare pe furnizorii care nu acceptă condițiile Pentagonului și cu posibile costuri de imagine pentru cei care intră în astfel de acorduri. [...]

Blocajele de reglementare care țin pe loc livrările Nvidia H200 către China pot accelera transferul de cotă de piață către Huawei , într-o piață locală de cipuri pentru inteligență artificială estimată să ajungă la 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, potrivit unei analize Tom's Hardware , care citează un reportaj Financial Times și estimări Morgan Stanley. Potrivit Financial Times (link în sursă), Huawei este „pe drumul” de a capta cea mai mare cotă din piața chineză de cipuri AI chiar din acest an, pe fondul cererii în creștere din partea companiilor chineze pentru alternative interne la Nvidia. Contextul: operațiunile Nvidia din China, care ar fi reprezentat anterior până la 25% din veniturile diviziei de centre de date, sunt afectate de restricții la export și bariere de reglementare impuse atât de SUA, cât și de China, pe fondul tensiunilor comerciale și tehnologice. De ce s-au blocat livrările H200: cerințe contradictorii SUA–China Tom’s Hardware notează că Jensen Huang, CEO-ul Nvidia, a confirmat în martie 2026 că firma a primit licențe din SUA pentru a vinde cipuri AI H200 către China și că a repornit producția pentru a acoperi cererea. Totuși, deși compania ar fi obținut aprobarea SUA și comenzi de la clienți chinezi, livrările au întâmpinat obstacole, cu posibile întârzieri legate de reglementările chineze de import. Financial Times susține că Beijingul ar fi instruit companiile chineze de tehnologie să limiteze utilizarea cipurilor Nvidia la operațiunile lor din afara țării, în timp ce sprijină producția internă. În paralel, autoritățile americane cer ca toate cipurile Nvidia comandate de clienți chinezi să fie folosite doar în China. Rezultatul, potrivit materialului: un blocaj la nivelul procedurilor vamale pentru H200, pe fondul acestor cerințe care se bat cap în cap. Pariul Huawei: „inference” și clustere, nu performanță brută Deși cipurile Nvidia rămân mai avansate, Huawei ar urmări o strategie diferită: țintește segmentul de „inference” (calculul folosit de modelele AI pentru a genera răspunsuri și a executa sarcini după finalizarea antrenării), descris ca fiind în creștere rapidă. Conform Financial Times, Huawei și-a poziționat procesoarele 950PR drept opțiunea preferată pentru companiile locale care rulează sarcini de inference. Argumentul Huawei, redat în articol: pe măsură ce asistenții AI și agenții autonomi devin mai răspândiți, inference ar urma să devină cea mai mare sursă de cerere pentru putere de calcul AI. Pentru că aceste sarcini sunt, în general, mai puțin solicitante decât antrenarea modelelor foarte mari, Huawei poate rămâne competitivă chiar dacă performanța brută a cipurilor este mai slabă. Pentru a compensa, compania ar lega un număr mare de cipuri folosind tehnologie proprie de rețelistică, construind clustere (grupuri de servere/cipuri care lucrează împreună) pentru a crește performanța la nivel de sistem. Un exemplu invocat: DeepSeek ar fi folosit cipul Huawei 950PR pentru inference, deși cel mai recent model v4 ar fi fost antrenat pe cipuri Nvidia, potrivit confirmării companiei menționate în articol. Miza economică: o piață de 67 mld. dolari și o pondere tot mai mare pentru furnizorii locali Estimările Morgan Stanley citate indică o schimbare structurală: piața de cipuri AI din China ar putea ajunge la circa 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, iar companiile locale ar urma să acopere aproximativ 86% din cerere. Tot Morgan Stanley estimează că furnizorii chinezi ar putea reprezenta, singuri, circa 21 miliarde dolari (aprox. 97 miliarde lei) din piață chiar în acest an. În paralel, Huawei își sprijină planurile de creștere pe capacitatea de producție internă: majoritatea cipurilor sale AI sunt fabricate de SMIC , iar compania ar plănui să adauge încă două fabrici dedicate în acest an. Dacă își crește producția cu succes, prognoza inițială de venituri ar putea fi depășită, potrivit articolului. Ce rămâne în avantajul Nvidia Chiar și cu presiunea de reglementare, Nvidia păstrează avantaje importante, în special ecosistemul software. Tom’s Hardware arată că, deși Huawei dezvoltă platforma Cann ca alternativă internă la CUDA (platforma software Nvidia folosită pe scară largă), dezvoltatorii spun că aceasta rămâne în urmă la capitolele ușurință de utilizare și maturitate. Costurile operaționale și complexitatea de dezvoltare pot crește pentru clienți, ceea ce ajută Nvidia să își mențină influența globală. În China, însă, „prinderea” Nvidia s-a slăbit după ce Washingtonul a blocat anul trecut vânzările H20 (un procesor modificat pentru piața chineză, conform cerințelor de export), iar compania ar avea dificultăți în a găsi un produs care să respecte simultan regulile americane și cerințele de reglementare chineze. „Ziua în care DeepSeek apare mai întâi pe Huawei este un rezultat groaznic pentru națiunea noastră – ar putea duce la un scenariu în care modelele AI din întreaga lume sunt dezvoltate și rulează cel mai bine pe hardware non-american”, a spus Jensen Huang, într-un interviu recent citat de articol. În lipsa unei deblocări rapide a livrărilor H200 și a unei soluții stabile de conformare pe ambele maluri, riscul operațional pentru Nvidia este ca piața chineză să se reorienteze accelerat către furnizori locali, cu efect direct asupra veniturilor și a influenței ecosistemului său în a doua cea mai mare economie a lumii. [...]

Google Photos va introduce vara aceasta o funcție care îți cataloghează automat hainele din fotografii și le transformă într-un „dulap digital” , cu opțiuni de filtrare, combinare în ținute și previzualizare „virtual try-on”, potrivit Google . Lansarea începe pe Android , urmând să ajungă ulterior și pe iOS, ceea ce mută aplicația din zona de stocare și organizare a imaginilor spre un instrument practic de planificare a ținutelor, bazat pe inteligență artificială . Ce face concret noua funcție și de ce contează operațional Funcția creează automat o colecție dedicată „wardrobe” (dulap) pe baza pieselor vestimentare care apar în biblioteca ta de fotografii. Practic, aplicația scanează imaginile și extrage articolele de îmbrăcăminte pe care le-ai purtat, apoi le organizează într-o structură ușor de parcurs. Din perspectiva utilizării de zi cu zi, noutatea este că utilizatorul nu mai pornește de la fotografii disparate, ci de la o „inventariere” a garderobei, generată automat, care poate reduce timpul de căutare și de planificare a ținutelor. Cum se folosește: filtrare, ținute și „probă” virtuală Google descrie trei utilizări principale: Filtrare pe categorii : poți vedea toate articolele la un loc sau poți intra pe o categorie (de exemplu bijuterii, topuri sau pantaloni) pentru a redescoperi piese „uitate” în dulap. Crearea de ținute : poți combina articolele pentru a construi outfituri, pe care le poți distribui prietenilor sau salva într-un „moodboard” (panou de inspirație) digital. Pot exista moodboard-uri separate pentru ocazii diferite, precum nunți de vară, o călătorie în Italia sau ținute de lucru. „Try it on” (probă virtuală) : selectezi piese individuale și folosești opțiunea „Try it on” pentru a vedea cum ar arăta o combinație înainte să te îmbraci. Când ajunge la utilizatori Funcția „wardrobe” va începe să fie disponibilă în această vară , mai întâi în Google Photos pe Android , apoi pe iOS , conform anunțului. Google nu oferă în material un calendar mai detaliat (date exacte) și nici informații despre disponibilitatea pe piețe sau condiții de acces. [...]

Alphabet își leagă creșterea din T1 2026 de monetizarea și eficientizarea AI , cu un avans de 19% la Search & Other Advertising și o accelerare puternică în Cloud, unde veniturile au urcat cu 63% și au depășit pentru prima dată 20 mld. dolari (aprox. 92 mld. lei), potrivit Google . Mesajul CEO-ului Sundar Pichai , publicat ca transcript editat al intervenției din apelul cu investitorii, pune accent pe faptul că investițiile în inteligență artificială și abordarea „full-stack” (de la infrastructură la modele și aplicații) „conduc performanța” în toate liniile majore de business. Din perspectivă economică, două elemente ies în față: ritmul de creștere al Cloud și încercarea de a ține sub control costurile și latența (timpul de răspuns) pe măsură ce AI este integrată în produse cu audiență masivă, precum Search. Cloud: creștere pe AI, contracte mari și backlog în salt Google indică o cerere ridicată pentru produse și infrastructură AI în Cloud. În T1 2026, veniturile Cloud au crescut cu 63% și au depășit 20 mld. dolari (aprox. 92 mld. lei), iar „backlog”-ul (valoarea contractelor semnate, dar încă neîncasate) „aproape s-a dublat” față de trimestrul anterior, la peste 460 mld. dolari (aprox. 2.116 mld. lei). Compania mai susține că soluțiile sale de AI pentru companii au devenit „principalul motor de creștere” pentru Cloud „pentru prima dată”, iar veniturile din produse construite pe modelele sale generative au crescut „aproape 800%” față de anul anterior. La nivel comercial, Google menționează: dublarea achiziției de clienți noi față de aceeași perioadă a anului trecut; dublarea numărului de contracte între 100 mil. și 1 mld. dolari (aprox. 460 mil.–4,6 mld. lei) față de anul anterior și semnarea „mai multor” contracte de peste 1 mld. dolari; depășirea angajamentelor inițiale de către clienți cu 45%, în accelerare față de trimestrul anterior. Pe produs, Google arată că Gemini Enterprise a crescut cu 40% trimestru la trimestru ca utilizatori activi lunari plătitori, iar vânzările prin parteneri au urcat de 9 ori față de anul anterior (atât ca „seats” vândute, cât și ca număr de parteneri care adoptă intern produsul). Search: mai mult AI, dar cu presiune pe cost și viteză În Search, compania spune că interogările sunt la un maxim istoric și că AI Overviews și AI Mode contribuie la creștere și la revenirea utilizatorilor. În același timp, Google insistă pe eficiență: afirmă că a redus latența Search cu peste 35% în ultimii cinci ani, iar după trecerea AI Overviews și AI Mode la Gemini 3 a redus costul răspunsurilor AI „de bază” cu peste 30%, prin îmbunătățiri de hardware și inginerie. Aceste detalii sunt relevante pentru modelul economic al Search: integrarea AI în pagina de rezultate tinde să crească consumul de calcul, iar controlul costurilor devine o condiție pentru a susține marje și investiții. Infrastructură și modele: TPU-uri noi și volum în creștere Google își leagă strategia de AI de infrastructură proprie (TPU-uri – procesoare specializate pentru AI) și de opțiuni multiple de calcul, inclusiv GPU-uri NVIDIA. Compania spune că va fi „printre primii” furnizori care vor oferi NVIDIA Vera Rubin NVL72, pe lângă instanțe bazate pe Blackwell și Hopper. La Cloud Next, Google a prezentat TPU-urile de generația a opta, cu două variante: TPU 8t (pentru antrenare) și TPU 8i (pentru inferență – rularea modelului pentru a genera răspunsuri). Potrivit companiei, TPU 8t are de trei ori puterea de procesare față de Ironwood și de două ori performanța, iar TPU 8i oferă cu 80% mai bună performanță per dolar decât generația anterioară. La nivel de utilizare, Google afirmă că modelele sale „first-party” procesează peste 16 miliarde de tokeni pe minut prin utilizare directă a API-urilor de către clienți (față de 10 miliarde în trimestrul anterior). În ultimele 12 luni, 330 de clienți Google Cloud ar fi procesat fiecare peste 1 trilion de tokeni, iar 35 au depășit pragul de 10 trilioane. Abonamente și YouTube: baza plătitoare crește Pe zona de consum, Google spune că a avut „cel mai puternic trimestru” pentru planurile sale de AI pentru consumatori, în principal datorită adopției aplicației Gemini. Numărul total de abonamente plătite a ajuns la 350 de milioane, cu YouTube și Google One ca principali contributori. Separat, compania notează că YouTube Music și Premium au avut în T1 cea mai mare creștere trimestrială a numărului de abonați (excluzând perioadele de probă), atât la nivel global, cât și în SUA, de la lansarea YouTube Premium în iunie 2018. Ce urmează Google indică drept repere apropiate evenimentele I/O, Brandcast și Google Marketing Live, unde ar urma să ofere mai multe detalii despre evoluțiile din Search și AI. În paralel, mesajul către investitori rămâne unul consecvent: creșterea vine din extinderea AI în produse și din monetizarea acesteia în Cloud, cu accent pe infrastructură și pe reducerea costurilor de operare pe măsură ce utilizarea se intensifică. [...]

LG Electronics discută cu Nvidia o posibilă cooperare pe centre de date AI, robotică și mobilitate , o combinație care ar putea împinge compania sud-coreeană mai adânc în lanțul de furnizori pentru infrastructura AI și ar extinde prezența Nvidia dincolo de zona industrială, potrivit The Next Web . LG a confirmat miercuri că poartă discuții cu Nvidia pentru colaborare în trei direcții: robotică, centre de date pentru inteligență artificială și mobilitate. Întâlnirea a avut loc după o vizită la sediul LG din Yeouido (Seul) a lui Madison Huang, director senior Nvidia pentru platforme de „AI fizic” (inteligență artificială integrată în roboți și sisteme autonome), alături de reprezentanți ai altor companii tehnologice sud-coreene; la discuții a participat și CEO-ul LG, Ryu Jae-cheol. Nu există, deocamdată, un acord formal. Discuțiile sunt descrise ca fiind exploratorii, fără produse, sume de investiții sau calendare confirmate. De ce contează: miza comercială imediată pare să fie centrele de date Deși componenta de robotică este cea mai vizibilă public, materialul indică faptul că discuțiile despre centre de date și mobilitate ar putea avea o relevanță comercială mai rapidă. În zona centrelor de date, LG și-a poziționat deja oferta ca furnizor de soluții de răcire și management termic (HVAC) pentru centre de date AI, pe fondul creșterii densității de putere a clusterelor de GPU, care face răcirea convențională tot mai dificilă. O eventuală colaborare cu Nvidia ar plasa LG ca furnizor hardware în ecosistemul Nvidia la nivel de infrastructură, completând stratul de calcul (compute) cu cel de răcire, fără a concura direct cu acesta. Robotică: LG are platformă proprie, Nvidia are „stack”-ul de dezvoltare La CES 2026, LG a prezentat CLOiD, un robot pentru acasă cu două brațe articulate (șapte grade de libertate pe braț) și câte cinci degete acționate individual la fiecare mână, parte din viziunea „Zero Labor Home”, în care roboții și electrocasnicele conectate preiau sarcini casnice. Robotul rulează pe platforma proprie LG, „Affectionate Intelligence”, orientată spre conștientizare contextuală, interacțiune naturală și învățare continuă din mediul de acasă. În schimb, Nvidia vine cu Isaac (platforma sa pentru robotică), care include simulare, modele pre-antrenate pentru manipulare, infrastructură de „geamăn digital” (digital twin) bazată pe Omniverse și calcul pe GPU optimizat pentru inferență în timp real. Integrarea ar putea scurta drumul de la prototip la producție, printr-un flux de dezvoltare–implementare deja validat în industrie. Pentru Nvidia, un partener precum LG ar însemna acces la scară de consum: distribuție de masă, o bază instalată globală de electrocasnice conectate prin ecosistemul ThinQ și un plan explicit de a aduce roboți în locuințe — un mediu bogat în date pentru antrenare (sarcini reale, variabilitate mare). Mobilitate: integrare posibilă între „experiența din cabină” și platforma de calcul Pe mobilitate, discuțiile ar putea lega platforma Nvidia DRIVE (folosită pe scară largă pentru calcul AI în vehicule autonome și semi-autonome) de activitatea LG din componente auto. Divizia LG produce sisteme de infotainment, camere, componente pentru vehicule electrice și soluții AI în mașină (inclusiv urmărirea privirii, afișaje adaptive și platforme generative multimodale). O colaborare ar putea integra stratul de experiență AI din cabină al LG cu platforma de calcul DRIVE a Nvidia. Context: „AI-ul fizic” trece de la teste controlate la parteneriate comerciale Materialul plasează discuțiile în tendința mai largă de accelerare a „AI-ului fizic”, adică trecerea de la modele rulate în cloud la sisteme care operează în lumea reală (roboți, vehicule, logistică). Sunt menționate, ca repere, un trial Siemens–Nvidia într-o fabrică din Erlangen și o rundă de finanțare de 110 milioane de dolari (aprox. 506 milioane lei) atrasă de Sereact pentru scalarea AI-ului care face roboții adaptabili. În acest moment, singura certitudine este existența discuțiilor și ariile vizate; dacă și când se va ajunge la un acord, precum și forma concretă (produse, investiții, termene), rămân neconfirmate. [...]

Spotify introduce un sistem de verificare care ar putea schimba modul în care sunt descoperiți artiștii pe platformă , printr-o insignă menită să diferențieze muzicienii reali de conținutul generat cu inteligență artificială, potrivit The Guardian . Miza este una operațională: într-un catalog tot mai încărcat de piese sintetice, vizibilitatea în căutări și în paginile de artist devine dependentă de un semnal de „autenticitate” acordat de platformă. Insigna „Verified by Spotify”, reprezentată de un bife verde, urmează să apară în următoarele săptămâni pe profilurile artiștilor și în rezultatele de căutare. Spotify spune că badge-ul indică faptul că un profil a fost revizuit și îndeplinește standardele interne ale companiei privind autenticitatea. Cine primește badge-ul și cine rămâne în afara lui Spotify precizează că profilurile care reprezintă în principal muzică generată de AI sau „personaje” create cu AI nu vor fi eligibile pentru verificare. Pentru a obține verificarea, artiștii trebuie să îndeplinească mai multe condiții, între care: să demonstreze implicare susținută din partea ascultătorilor în timp; să respecte regulile platformei; să arate semne ale unei prezențe reale pe platformă și în afara ei (de exemplu, date de concerte, produse de merchandising și conturi de social media conectate). Spotify argumentează schimbarea prin nevoia de încredere într-un context în care conținutul sintetic se multiplică rapid: „În era AI, este mai important ca niciodată să poți avea încredere în autenticitatea muzicii pe care o asculți.” Compania mai susține că, la lansare, peste 99% dintre artiștii pe care utilizatorii îi caută activ vor fi verificați, ceea ce ar însemna „sute de mii” de muzicieni, din genuri și regiuni diferite. „Etichetă nutrițională” pentru paginile de artist Separat de badge, Spotify adaugă o secțiune nouă de informații pe toate paginile de artist – inclusiv pentru cei neverificați – cu date despre momente importante din carieră, tipare de lansare și istoricul concertelor. Compania compară această zonă cu etichetarea nutrițională a alimentelor: un rezumat rapid care ar ajuta utilizatorii să evalueze „istoricul” unui artist pe platformă. Context: presiunea conținutului sintetic asupra platformelor Inițiativa vine pe fondul îngrijorărilor din industrie că muzica generată cu AI poate „inunda” cataloagele de streaming. În acest context, The Guardian notează că Deezer a comunicat recent că piesele sintetice reprezintă 44% din muzica nou încărcată zilnic pe serviciul său. Totodată, marile case de discuri încearcă să limiteze fenomenul: Sony Music a spus că a cerut eliminarea a peste 135.000 de piese produse cu AI care imitau artiști aflați sub contract, pe diverse servicii de streaming. Dimensiunea platformei Anunțul a venit după raportarea rezultatelor Spotify pentru primul trimestru din 2026, când compania a indicat că baza de abonați plătitori a ajuns la 293 de milioane. Într-un astfel de ecosistem, un mecanism de verificare poate influența direct descoperirea artiștilor și încrederea utilizatorilor în ceea ce consumă. [...]