Știri
Știri din categoria Inteligență artificială

Microsoft a anunțat oficial lansarea cipului Maia 200, o unitate de procesare AI de ultimă generație proiectată pentru sarcini masive de inferență, relatează Windows Central. Cipul este dezvoltat pe tehnologia de 3 nm de la TSMC și este destinat în special pentru a reduce costurile operaționale ale modelelor de limbaj de mari dimensiuni (LLM), precum GPT-5.2, prin scăderea semnificativă a costului per-token.
Microsoft susține că Maia 200 este cel mai performant cip dezvoltat vreodată intern de un hyperscaler și depășește performanțele competitorilor direcți: are de trei ori mai multă performanță FP4 decât Trainium 3 de la Amazon și performanțe FP8 superioare TPU-urilor de generația a șaptea de la Google. Compania afirmă că noul cip oferă un randament cu 30% mai mare per dolar față de hardware-ul de ultimă generație utilizat anterior în infrastructura proprie.
Această lansare vine pe fondul speculațiilor privind o distanțare tot mai clară a Microsoft față de OpenAI, în direcția dezvoltării propriei autonomii tehnologice. De altfel, CEO-ul Microsoft AI, Mustafa Suleyman, a sugerat anterior că viitorul AI va aparține doar marilor jucători care își pot permite dezvoltarea hardware-ului și modelelor proprii, pe fondul costurilor operaționale uriașe.

În același timp, lansarea Maia 200 ar putea ajuta direct OpenAI, care se estimează că va înregistra pierderi de până la 14 miliarde de dolari în 2026. Modelul de cost actual al funcționării ChatGPT și al altor aplicații LLM se bazează pe un consum energetic ridicat și resurse de calcul costisitoare – în special în faza de inferență, atunci când AI generează răspunsuri în timp real. Maia 200 este construit tocmai pentru a eficientiza această parte, iar Microsoft susține că cipul va fi integrat în Microsoft Foundry și Copilot, dar și în fluxurile operaționale ale OpenAI.
Pentru companii precum OpenAI, care oferă acces masiv la servicii de tip chatbot și generatoare de conținut, inferența devine o cheltuială permanentă majoră. Microsoft afirmă că Maia 200 a fost optimizat special pentru acest proces și poate aduce economii semnificative prin reducerea costului per-token. Cu alte cuvinte, AI-ul nu doar că va funcționa mai rapid, dar și mai ieftin.
„Maia 200 face parte din infrastructura noastră AI eterogenă și va deservi mai multe modele, inclusiv GPT-5.2, oferind un avantaj clar de cost pentru Foundry și Microsoft 365 Copilot”, a transmis Microsoft, conform Windows Central.
Lansarea Maia 200 vine într-un moment critic pentru industrie. Pe măsură ce modelele devin tot mai complexe și mai costisitoare de operat, presiunea pe rentabilitate este uriașă. OpenAI, de exemplu, se află în centrul unui „foc financiar” care ar putea atinge 14 miliarde de dolari în pierderi doar în acest an, potrivit sursei citate.
Este de așteptat ca și alți jucători din industrie să urmeze exemplul Microsoft, accelerând dezvoltarea de cipuri personalizate, pentru a reduce dependența de furnizori precum Nvidia și pentru a controla mai bine costurile și performanța.
Dacă promisiunile privind Maia 200 se confirmă, Microsoft nu doar că va consolida poziția sa în infrastructura AI globală, ci ar putea redefini complet calculul economic din spatele modelelor AI – ceea ce ar putea însemna diferența între profit și pierdere pentru companii ca OpenAI.
Recomandate

OpenAI își schimbă strategia și se concentrează pe programare și clienți business , potrivit The Wall Street Journal , într-o mișcare care marchează o retragere din proiectele secundare și o încercare de a valorifica mai eficient avantajul tehnologic. Decizia este analizată de CEO-ul Sam Altman și de Mark Chen , iar angajații urmează să primească detalii oficiale în perioada următoare, după ce planul a fost deja prezentat intern de Fidji Simo ca un efort de a fixa direcția companiei pe activitățile esențiale. Schimbarea nu vine din senin, ci continuă o serie de ajustări începute încă din 2025, când OpenAI a suspendat inițiative precum publicitatea, agenți pentru sănătate sau funcții de cumpărături, pentru a redirecționa resursele către îmbunătățirea ChatGPT. Noua etapă merge însă mai departe și stabilește două priorități clare: dezvoltarea instrumentelor de programare extinderea soluțiilor pentru companii Această repoziționare apare pe fondul unei competiții intense, în special cu Anthropic, ale cărei modele sunt percepute ca fiind mai performante în sarcini de codare. Deși OpenAI susține că produsul său Codex și-a triplat numărul de utilizatori săptămânali din ianuarie 2026, piața rămâne una disputată, iar integrarea în ecosisteme populare devine decisivă. În paralel, conducerea companiei consideră că principala problemă nu mai este capacitatea tehnologică, ci implementarea în mediul real. Directorul financiar Sarah Friar sublinia încă din ianuarie că obiectivul pentru 2026 este „adopția practică”, adică transformarea capabilităților AI în instrumente utilizate zilnic de companii și instituții. Câteva repere relevante pentru contextul actual: Indicator Valoare estimată Utilizatori săptămânali ChatGPT peste 900 milioane Venituri recurente anuale peste 20 miliarde dolari Evaluare companie (martie 2026) aproximativ 730 miliarde dolari În acest context, presiunea este dublă: competiția tehnologică și nevoia de a demonstra că investițiile masive pot genera venituri sustenabile, mai ales în perspectiva unei posibile listări la bursă spre finalul anului 2026. Practic, OpenAI încearcă să treacă de la statutul de lider în cercetare la cel de jucător dominant în aplicații comerciale. [...]

ChatGPT integrează peste 14 aplicații populare și face un pas important spre ideea de „super-aplicație” digitală , permițând utilizatorilor să comande mâncare, să rezerve curse sau să creeze playlisturi direct din conversație. Potrivit TechCrunch , OpenAI a extins sistemul de integrări cu servicii externe astfel încât mai multe acțiuni online să poată fi realizate prin simple comenzi în limbaj natural, fără a părăsi interfața chatbotului. Funcția a fost prezentată inițial la OpenAI DevDay din octombrie 2025 , când platforma avea doar șapte parteneri. În prezent, lista a depășit 14 aplicații , incluzând servicii populare precum Uber, DoorDash, Spotify, Canva, Expedia sau Target. Integrarea este disponibilă pentru utilizatorii autentificați din Statele Unite și Canada , inclusiv pentru cei care folosesc planul gratuit. Cum funcționează integrările Utilizatorii pot activa un serviciu direct din conversație, tastând numele aplicației în prompt. De exemplu, o comandă precum „Spotify, creează un playlist pentru o cină” permite chatbotului să genereze lista și să o salveze în contul utilizatorului. Aplicațiile pot fi conectate și din meniul Settings – Apps and Connectors , iar după conectare ChatGPT poate afișa elemente interactive direct în chat, precum: hărți pentru curse sau locații playlisturi muzicale interfețe de rezervare coșuri de cumpărături Prin conectarea conturilor, utilizatorii permit accesul la anumite date. De exemplu, integrarea cu Spotify oferă acces la playlisturi și istoricul de ascultare pentru personalizarea recomandărilor. Serviciile disponibile în prezent Printre aplicațiile care pot fi conectate în ChatGPT se numără: Booking.com Canva Coursera DoorDash Expedia Figma Quizlet Spotify Target Uber Uber Eats Wix Angi Zillow OpenAI a confirmat că OpenTable, PayPal și Walmart urmează să fie adăugate ulterior. O nouă strategie după GPT Store Această inițiativă marchează a doua încercare a OpenAI de a construi un ecosistem de aplicații în jurul ChatGPT , după lansarea GPT Store în 2024, care nu a reușit să genereze interes major. Noua strategie se bazează pe parteneriate directe cu branduri mari și pe o infrastructură tehnică numită Apps SDK , construită pe standardul Model Context Protocol pentru conectarea modelelor AI cu servicii externe. Opinie: ChatGPT se apropie de modelul „super-app” Extinderea integrărilor sugerează că OpenAI încearcă să transforme ChatGPT într-un hub digital central , similar aplicațiilor „super-app” din Asia, unde mai multe servicii sunt accesate dintr-un singur loc. Dacă această strategie va avea succes, utilizatorii ar putea începe să își planifice călătorii, să facă cumpărături sau să consume conținut fără să mai deschidă alte aplicații, iar ChatGPT ar deveni interfața principală dintre utilizator și internet. În același timp, modelul ridică întrebări legate de concurență între servicii similare și de modul în care platforma va decide ce aplicații sau rezultate sunt afișate utilizatorilor. [...]

Giganți din industria tehnologică, printre care AMD, Microsoft, NVIDIA și OpenAI, au anunțat formarea unui consorțiu pentru dezvoltarea unui standard deschis de interconectare optică destinat infrastructurilor AI. Inițiativa poartă numele Optical Compute Interconnect Multi-Source Agreement ( OCI MSA ) și vizează modul în care vor fi conectate sistemele de calcul din centrele de date care rulează modele de inteligență artificială de mari dimensiuni. Consorțiul reunește șase membri fondatori: AMD, Broadcom, Meta, Microsoft, NVIDIA și OpenAI . Scopul principal este definirea unei specificații tehnice comune care să permită echipamentelor produse de companii diferite să funcționeze împreună în infrastructurile AI de tip hyperscale. De ce apare această inițiativă Creșterea rapidă a dimensiunii clusterelor AI pune presiune pe tehnologiile de interconectare utilizate în prezent în centrele de date. Conexiunile tradiționale pe cupru devin limitate în ceea ce privește lățimea de bandă, consumul energetic și distanța la care pot transmite date. Prin urmare, consorțiul propune trecerea către interconectări optice , care folosesc fibre și semnale optice pentru a transmite date între procesoare, acceleratoare AI și echipamente de rețea. Obiectivele consorțiului Potrivit anunțului, OCI MSA urmărește trei direcții principale: definirea unei specificații deschise și interoperabile pentru interconectările utilizate în clustere AI de mari dimensiuni; sprijinirea tranziției industriei de la conexiuni pe cupru la interconectări optice cu consum redus de energie ; dezvoltarea unui ecosistem multi-vendor , care să reducă dependența de soluții proprietare și să permită interoperabilitatea echipamentelor produse de companii diferite. Ce prevede prima specificație tehnică Prima specificație publicată de consorțiu descrie o interfață optică de aproximativ 200 Gbps , destinată conexiunilor din interiorul centrelor de date. Sistemul utilizează tehnici precum multiplexarea pe lungimi de undă și transmisia bidirecțională pe aceeași fibră, pentru a crește densitatea conexiunilor și eficiența energetică. Documentul tehnic stabilește și parametri pentru sincronizare, corecția erorilor și funcționarea transceiverelor optice pe distanțe tipice din centrele de date, de până la aproximativ 500 de metri de fibră optică . Context Standardele de interconectare sunt considerate critice pentru infrastructura AI deoarece performanța modelelor depinde nu doar de puterea GPU-urilor sau a acceleratoarelor, ci și de viteza cu care acestea pot comunica între ele. Prin crearea unui standard deschis, companiile implicate încearcă să faciliteze dezvoltarea infrastructurilor AI de mari dimensiuni și să accelereze adoptarea tehnologiilor optice în centrele de date. [...]

OpenAI ar urma să integreze generatorul video Sora direct în ChatGPT , extinzând astfel funcțiile platformei cu posibilitatea de a crea videoclipuri cu inteligență artificială, potrivit unui raport citat de Reuters . Informația provine din surse familiarizate cu planurile companiei și indică faptul că instrumentul ar putea fi lansat în curând în interiorul ChatGPT . În prezent, Sora funcționează ca aplicație separată, lansată în 2025, care permite utilizatorilor să genereze videoclipuri AI pornind de la descrieri text. Ce este Sora Sora este un model de inteligență artificială specializat în generarea de videoclipuri pe baza comenzilor text , parte a strategiei OpenAI de dezvoltare a sistemelor multimodale. Prin acest sistem, utilizatorii pot: crea clipuri video generate de AI din descrieri scrise; edita sau genera scene complexe; distribui videoclipurile pe platforme online. Aplicația a fost lansată inițial ca serviciu independent, unde utilizatorii pot crea și publica videoclipuri într-un flux similar rețelelor sociale. Integrarea în ChatGPT Potrivit raportului, OpenAI intenționează să păstreze aplicația Sora separată , însă în același timp să introducă funcția de generare video și în ChatGPT. O astfel de integrare ar transforma ChatGPT într-o platformă mai completă pentru creație digitală, unde utilizatorii ar putea genera: text; imagini; videoclipuri AI. Această mișcare ar intensifica competiția în domeniul AI generativ, unde companii precum Meta și Google dezvoltă propriile tehnologii de creare automată de conținut video. Video generativ – noua frontieră a inteligenței artificiale După succesul modelelor de generare de text și imagini, tehnologia de text-to-video este considerată următorul pas major în evoluția inteligenței artificiale. Specialiștii estimează că astfel de instrumente ar putea avea un impact semnificativ asupra: industriei media; producției video și publicității; conținutului pentru social media. OpenAI nu a confirmat oficial planurile până în acest moment, iar informațiile din raport nu au fost verificate independent. [...]

Microsoft reduce discret integrarea Copilot în Windows 11 , potrivit Windows Central , renunțând la mai multe funcții anunțate încă din 2024 și schimbând strategia privind inteligența artificială din sistemul de operare. Decizia vizează în special eliminarea sau amânarea unor integrări directe în zone cheie precum Setări, notificări și File Explorer, acolo unde Copilot ar fi trebuit să devină un asistent omniprezent. Inițial, Microsoft promitea o integrare profundă a Copilot în Windows 11, inclusiv sugestii inteligente în notificări sau acțiuni directe în File Explorer fără deschiderea altor aplicații. La aproape doi ani de la anunț, aceste funcții nu au mai fost lansate, nici măcar în versiuni de test. În schimb, compania a ales să păstreze unele funcționalități de inteligență artificială, dar fără eticheta Copilot și cu o prezență mai discretă. Ce se schimbă concret în Windows 11: integrarea Copilot în notificări este, cel mai probabil, abandonată; aplicația Setări include căutare semantică, dar fără branding Copilot; File Explorer oferă acțiuni asistate de AI, însă trimite utilizatorul către alte aplicații; infrastructura „Copilot Runtime” a fost redenumită în „Windows AI APIs”. Microsoft recunoaște că unele funcții prezentate public pot fi modificate sau chiar eliminate în funcție de feedback-ul utilizatorilor. Surse citate de publicație indică faptul că gigantul american încearcă în 2026 să reducă ceea ce este perceput drept „supraîncărcare cu AI” în Windows 11 , după critici legate de aglomerarea inutilă a sistemului. Noua direcție nu înseamnă renunțarea la inteligența artificială, ci o utilizare mai atentă și opțională a acesteia. Funcțiile AI vor rămâne acolo unde sunt utile, dar vor putea fi dezactivate mai ușor, iar brandingul Copilot va fi rezervat în special serviciilor din ecosistemul Microsoft 365. În esență, Microsoft încearcă să corecteze percepția negativă creată de integrarea agresivă a AI, mizând pe o experiență mai echilibrată și mai puțin intruzivă pentru utilizatori. [...]

Armata SUA testează utilizarea chatboților de inteligență artificială pentru planuri de război , potrivit unei analize publicate de WIRED , care descrie demonstrații realizate de compania americană Palantir pentru Pentagon. În cadrul acestor prezentări, sisteme de inteligență artificială precum Claude sau ChatGPT sunt integrate într-o platformă capabilă să analizeze rapid cantități mari de informații militare și să sugereze scenarii de acțiune pentru comandamentele armatei. Tehnologia ar funcționa ca un instrument de asistență strategică , capabil să combine date provenite din surse diverse: rapoarte de informații, imagini satelitare, poziții ale trupelor sau informații despre logistică. Pe baza acestor date, chatbotul poate genera rapid opțiuni tactice sau planuri de operațiuni pe care analiștii militari le pot evalua ulterior. În demonstrațiile prezentate, platforma dezvoltată de Palantir permite operatorilor să pună întrebări în limbaj natural, iar sistemul răspunde prin: analizarea situației militare; identificarea riscurilor și oportunităților; sugerarea unor pași operaționali sau scenarii posibile. Scopul declarat al acestor sisteme nu este înlocuirea deciziei umane, ci accelerarea procesului de analiză și planificare într-un mediu în care informațiile se schimbă rapid. În paralel însă, utilizarea inteligenței artificiale în domeniul militar a generat controverse. Compania Anthropic , dezvoltatoarea modelului Claude , a refuzat recent să ofere guvernului american acces nelimitat la sistemele sale, argumentând că acestea nu ar trebui folosite pentru supraveghere în masă sau pentru arme complet autonome. Ca reacție, Pentagonul a catalogat produsele companiei drept un posibil „risc pentru lanțul de aprovizionare”, decizie contestată în instanță de Anthropic. Disputa evidențiază tensiunea tot mai mare dintre industria tehnologică și sectorul militar, într-un moment în care inteligența artificială devine un instrument strategic în analiza datelor, planificarea operațiunilor și dezvoltarea tehnologiilor de apărare. [...]