Inteligență artificială11 apr. 2026
CEO-ul Amazon, Andy Jassy, subliniază importanța AI ca oportunitate unică - AWS se pregătește pentru o expansiune rapidă pe piața tehnologiilor AI
Amazon mizează pe AI ca motor de creștere pentru AWS, dar recunoaște că cererea depășește capacitatea disponibilă , într-un moment în care investițiile în infrastructură (energie, centre de date, cipuri) devin un factor limitativ pentru extindere, potrivit techradar.com . În scrisoarea anuală către acționari și într-o postare asociată, CEO-ul Amazon, Andy Jassy, își structurează viziunea despre viitorul AI în șase „adevăruri”, cu accent pe ritmul de adopție și pe implicațiile financiare și operaționale pentru AWS. Jassy susține că dezbaterea despre „supraevaluarea” AI ratează esențialul pentru Amazon: tehnologia va reinventa „fiecare experiență” pentru clienți, iar întrebările despre „bulă” și profitabilitate au, în opinia sa, răspunsuri diferite în cazul companiei: „nu, nu și da” (nu e supraevaluată, nu e o bulă, iar marjele și randamentul capitalului investit ar urma să fie atractive). AWS: creștere accelerată, dar cu „cerere neacoperită” Din perspectiva impactului economic, mesajul central este că AI împinge AWS într-o nouă etapă de expansiune. Jassy afirmă că AWS are un „AI revenue run rate” de peste 15 miliarde de dolari în T1 2026 și că acesta crește „rapid”. În același timp, el indică o constrângere operațională: capacitatea. Amazon a adăugat 3,9 GW de capacitate nouă de energie în 2025 și se așteaptă să își dubleze capacitatea totală până la finalul lui 2027, dar, chiar și așa, compania spune că există „capacity constraints” care duc la „unserved demand”, pe fondul cererii tot mai mari de putere de calcul pentru AI. Pariul pe cipuri proprii: reducerea costurilor și avantaj de marjă Un alt element cu miză financiară este strategia de cipuri. Jassy descrie businessul de cipuri al AWS drept „în plină efervescență”, menționând evoluția familiei Graviton (lansată în 2018) și cererea pentru Trainium. Deși Amazon își reafirmă parteneriatul cu Nvidia și faptul că va rămâne „cel mai bun loc” pentru rularea cipurilor Nvidia în AWS, Jassy spune că mulți clienți caută „preț-performanță” mai bună. În acest context, el leagă Trainium de o potențială schimbare de economie la scară: „La scară, ne așteptăm ca Trainium să ne economisească zeci de miliarde de dolari capex pe an și să ofere câteva sute de puncte de bază avantaj de marjă operațională față de dependența de cipurile altora pentru inferență.” („Inferența” este etapa în care un model AI deja antrenat rulează efectiv pentru a genera răspunsuri/rezultate.) De ce contează pentru piață: AI accelerează investițiile, dar și presiunea pe infrastructură Mesajul lui Jassy sugerează două consecințe directe pentru companii și pentru piața de cloud: AI crește cererea de infrastructură mai repede decât poate fi livrată , ceea ce poate însemna întârzieri, prioritizări și competiție mai dură pentru resurse (energie, hardware, capacitate de centre de date). Integrarea verticală (cipuri proprii) devine un instrument de control al costurilor , cu efect potențial asupra prețurilor și marjelor în cloud, dacă economiile de capex și avantajul de marjă se materializează. Ce urmează Jassy indică faptul că Amazon se bazează pe forța bazei de clienți și menționează, ca exemplu, un „angajament” recent al OpenAI de peste 100 miliarde de dolari, plus „mai multe acorduri” finalizate (dar neanunțate) sau aflate în negociere. Detaliile acestor acorduri nu sunt prezentate în material, însă compania lasă să se înțeleagă că vor exista anunțuri suplimentare. [...]