Inteligență artificială24 apr. 2026
Google Cloud își optimizează TPUs pentru a susține cerințele tot mai mari ale aplicațiilor AI - Noile unități de procesare pot atinge 121 exaflops, dublând lățimea de bandă față de generațiile anterioare
Cipurile TPU ale Google au ajuns la 121 exaflopși, o miză directă pentru costul și viteza rulării modelelor AI : potrivit Google Cloud , cea mai nouă generație de Tensor Processing Units (TPU) poate procesa 121 exaflopși putere de calcul și vine cu o lățime de bandă dublă față de generațiile anterioare, într-un moment în care sarcinile de lucru pentru inteligență artificială devin tot mai „grele”. TPU-urile sunt cipuri specializate, proiectate „pentru un singur job”: efectuarea de calcule matematice la scară foarte mare, necesare pentru antrenarea și rularea modelelor AI. Google spune că le-a proiectat „de la zero” în urmă cu mai bine de un deceniu, tocmai pentru a rula astfel de modele. De ce contează pentru companii: performanță mai mare pe infrastructură dedicată AI În practică, creșterea de putere de calcul și de lățime de bandă are impact operațional: poate reduce timpii de procesare pentru sarcini AI și poate susține modele mai mari sau mai multe cereri simultane, în funcție de modul în care sunt folosite aceste resurse în infrastructură. Google își poziționează TPU-urile ca infrastructură din spatele produselor sale de zi cu zi, subliniind că aceste cipuri sunt construite pentru a accelera calculele care stau la baza funcționării modelelor AI. Ce a comunicat concret Google Din informațiile publicate, elementele tehnice punctuale sunt: TPU = „Tensor Processing Unit”, cip personalizat pentru calcule matematice la scară mare; proiectate de Google de peste un deceniu pentru rularea modelelor AI; cea mai nouă generație: 121 exaflopși și lățime de bandă dublă față de generațiile anterioare. Materialul include și un video explicativ despre modul în care funcționează TPU-urile, fără alte detalii financiare sau de disponibilitate comercială în textul extras. [...]