Tag: inferenta

Știri despre „inferenta

Acasă/Știri/Tag: „inferenta

Cipul Maia 200 de la Microsoft, destinat eficienței în AI.
Inteligență artificială26 ian. 2026

Microsoft lansează Maia 200, cipul AI care promite eficiență superioară și costuri mai mici pentru OpenAI

Microsoft a anunțat oficial lansarea cipului Maia 200 , o unitate de procesare AI de ultimă generație proiectată pentru sarcini masive de inferență , relatează Windows Central . Cipul este dezvoltat pe tehnologia de 3 nm de la TSMC și este destinat în special pentru a reduce costurile operaționale ale modelelor de limbaj de mari dimensiuni (LLM), precum GPT-5.2, prin scăderea semnificativă a costului per-token. Microsoft susține că Maia 200 este cel mai performant cip dezvoltat vreodată intern de un hyperscaler și depășește performanțele competitorilor direcți: are de trei ori mai multă performanță FP4 decât Trainium 3 de la Amazon și performanțe FP8 superioare TPU-urilor de generația a șaptea de la Google. Compania afirmă că noul cip oferă un randament cu 30% mai mare per dolar față de hardware-ul de ultimă generație utilizat anterior în infrastructura proprie. Maia 200 – un pas spre independența Microsoft în AI? Această lansare vine pe fondul speculațiilor privind o distanțare tot mai clară a Microsoft față de OpenAI, în direcția dezvoltării propriei autonomii tehnologice. De altfel, CEO-ul Microsoft AI, Mustafa Suleyman, a sugerat anterior că viitorul AI va aparține doar marilor jucători care își pot permite dezvoltarea hardware-ului și modelelor proprii, pe fondul costurilor operaționale uriașe. În același timp, lansarea Maia 200 ar putea ajuta direct OpenAI , care se estimează că va înregistra pierderi de până la 14 miliarde de dolari în 2026. Modelul de cost actual al funcționării ChatGPT și al altor aplicații LLM se bazează pe un consum energetic ridicat și resurse de calcul costisitoare – în special în faza de inferență, atunci când AI generează răspunsuri în timp real. Maia 200 este construit tocmai pentru a eficientiza această parte, iar Microsoft susține că cipul va fi integrat în Microsoft Foundry și Copilot, dar și în fluxurile operaționale ale OpenAI. Costuri în scădere pentru inferență Pentru companii precum OpenAI, care oferă acces masiv la servicii de tip chatbot și generatoare de conținut, inferența devine o cheltuială permanentă majoră. Microsoft afirmă că Maia 200 a fost optimizat special pentru acest proces și poate aduce economii semnificative prin reducerea costului per-token. Cu alte cuvinte, AI-ul nu doar că va funcționa mai rapid, dar și mai ieftin. „Maia 200 face parte din infrastructura noastră AI eterogenă și va deservi mai multe modele, inclusiv GPT-5.2, oferind un avantaj clar de cost pentru Foundry și Microsoft 365 Copilot”, a transmis Microsoft, conform Windows Central. Un răspuns strategic la explozia costurilor AI Lansarea Maia 200 vine într-un moment critic pentru industrie. Pe măsură ce modelele devin tot mai complexe și mai costisitoare de operat, presiunea pe rentabilitate este uriașă. OpenAI, de exemplu, se află în centrul unui „foc financiar” care ar putea atinge 14 miliarde de dolari în pierderi doar în acest an, potrivit sursei citate. Este de așteptat ca și alți jucători din industrie să urmeze exemplul Microsoft , accelerând dezvoltarea de cipuri personalizate, pentru a reduce dependența de furnizori precum Nvidia și pentru a controla mai bine costurile și performanța. Dacă promisiunile privind Maia 200 se confirmă, Microsoft nu doar că va consolida poziția sa în infrastructura AI globală, ci ar putea redefini complet calculul economic din spatele modelelor AI – ceea ce ar putea însemna diferența între profit și pierdere pentru companii ca OpenAI . [...]