Știri
Știri din categoria Inteligență artificială

Microsoft spune că va plăti integral costurile cu electricitatea pentru centrele AI potrivit Ars Technica, compania anunțând că va cere utilităților și autorităților de reglementare tarife suficient de mari încât să acopere complet consumul și investițiile de infrastructură necesare centrelor sale de date.
Brad Smith, președintele Microsoft, recunoaște că în ultimele luni tarifele rezidențiale au crescut în zeci de state americane, pe fondul inflației, al problemelor din lanțurile de aprovizionare și al modernizărilor rețelei, și susține că noile investiții sunt binevenite în comunități doar dacă nu duc la facturi mai mari sau la presiuni asupra resurselor de apă.

Microsoft afirmă că nu este de acord ca publicul să suporte costurile suplimentare de electricitate generate de extinderea centrelor AI, argumentând că, în condițiile în care companiile de tehnologie sunt foarte profitabile, o astfel de abordare ar fi „nedreaptă” și „nerealistă politic”. În Wisconsin, compania spune că sprijină o structură de tarifare care ar taxa „clienții foarte mari”, inclusiv centrele de date, pentru costul energiei necesare deservirii lor.
Pe partea de apă folosită la răcire, Microsoft își propune o îmbunătățire de 40% a intensității utilizării apei până în 2030 și anunță un nou design de centru de date cu sistem închis, care recirculă constant lichidul de răcire și reduce semnificativ consumul de apă. În această configurație, deja implementată în Wisconsin și Georgia, compania spune că nu mai este nevoie de apă potabilă pentru răcire.
În același timp, Smith afirmă că Microsoft nu va cere autorităților locale reduceri de taxe pe proprietate și că își va plăti integral obligațiile, obiectivul fiind ca aceste angajamente să fie puse în practică în prima jumătate a lui 2026.
Recomandate

Microsoft reduce discret integrarea Copilot în Windows 11 , potrivit Windows Central , renunțând la mai multe funcții anunțate încă din 2024 și schimbând strategia privind inteligența artificială din sistemul de operare. Decizia vizează în special eliminarea sau amânarea unor integrări directe în zone cheie precum Setări, notificări și File Explorer, acolo unde Copilot ar fi trebuit să devină un asistent omniprezent. Inițial, Microsoft promitea o integrare profundă a Copilot în Windows 11, inclusiv sugestii inteligente în notificări sau acțiuni directe în File Explorer fără deschiderea altor aplicații. La aproape doi ani de la anunț, aceste funcții nu au mai fost lansate, nici măcar în versiuni de test. În schimb, compania a ales să păstreze unele funcționalități de inteligență artificială, dar fără eticheta Copilot și cu o prezență mai discretă. Ce se schimbă concret în Windows 11: integrarea Copilot în notificări este, cel mai probabil, abandonată; aplicația Setări include căutare semantică, dar fără branding Copilot; File Explorer oferă acțiuni asistate de AI, însă trimite utilizatorul către alte aplicații; infrastructura „Copilot Runtime” a fost redenumită în „Windows AI APIs”. Microsoft recunoaște că unele funcții prezentate public pot fi modificate sau chiar eliminate în funcție de feedback-ul utilizatorilor. Surse citate de publicație indică faptul că gigantul american încearcă în 2026 să reducă ceea ce este perceput drept „supraîncărcare cu AI” în Windows 11 , după critici legate de aglomerarea inutilă a sistemului. Noua direcție nu înseamnă renunțarea la inteligența artificială, ci o utilizare mai atentă și opțională a acesteia. Funcțiile AI vor rămâne acolo unde sunt utile, dar vor putea fi dezactivate mai ușor, iar brandingul Copilot va fi rezervat în special serviciilor din ecosistemul Microsoft 365. În esență, Microsoft încearcă să corecteze percepția negativă creată de integrarea agresivă a AI, mizând pe o experiență mai echilibrată și mai puțin intruzivă pentru utilizatori. [...]

Microsoft a lansat Copilot Health , un spațiu dedicat în asistentul său AI care analizează datele personale de sănătate , noul serviciu agregă informații provenite din dispozitive purtabile, dosare medicale electronice și rezultate de laborator pentru a crea ceea ce compania descrie drept „o poveste coerentă” a stării de sănătate a utilizatorului. Platforma a deschis lista de așteptare pe 12 martie 2026 și va fi lansată treptat, inițial pentru adulții vorbitori de limba engleză din Statele Unite. Prin această inițiativă, Microsoft intră direct pe piața aplicațiilor de sănătate bazate pe inteligență artificială, alăturându-se unor servicii similare lansate recent de OpenAI și Anthropic. Copilot Health apare ca un tab separat în interfața Copilot, atât pe web, cât și în aplicația mobilă. Utilizatorii își creează un profil de sănătate introducând informații de bază precum vârsta și sexul, după care pot conecta diferite surse de date. Sistemul poate analiza rezultatele analizelor medicale, interpreta datele provenite de la dispozitive wearable și identifica conexiuni între diferite tipuri de informații, ajutând utilizatorii să își înțeleagă mai bine starea de sănătate sau să pregătească întrebări pentru consultațiile medicale. Platforma folosește trei tipuri principale de conectări pentru colectarea datelor. Informațiile provenite de la dispozitive purtabile, inclusiv activitatea fizică, somnul sau semnele vitale, pot fi integrate din peste 50 de dispozitive, printre care Apple Health, Oura sau Fitbit. Dosarele medicale electronice sunt conectate prin infrastructura HealthEx, care include date de la zeci de mii de organizații medicale, iar rezultatele analizelor de laborator pot fi integrate prin compania Function, specializată în testări medicale. Microsoft afirmă că datele de sănătate și conversațiile utilizatorilor sunt stocate separat de restul interacțiunilor Copilot, sunt criptate și nu sunt utilizate pentru antrenarea modelelor AI. Compania subliniază că utilizatorii pot revoca oricând accesul la orice sursă de date conectată. În același timp, compania promovează Copilot Health ca un pas către ceea ce numește „superinteligență medicală”, o viziune în care inteligența artificială ar combina cunoștințele generale ale unui medic de familie cu expertiza specializată din diverse domenii medicale. Această direcție este susținută de sistemul experimental Microsoft AI Diagnostic Orchestrator, aflat încă în fază de cercetare. Totuși, lansarea serviciului ridică și întrebări privind reglementarea și protecția datelor. Microsoft a confirmat că Copilot Health nu este supus legii americane HIPAA privind protecția datelor medicale, deoarece serviciul funcționează direct pentru consumatori, care își furnizează singuri informațiile. Această situație înseamnă că platforma nu intră sub aceleași reguli stricte aplicate instituțiilor medicale. Reacțiile inițiale din mediul medical sunt prudente. Unii specialiști consideră că instrumentele de acest tip ar putea ajuta pacienții să înțeleagă mai bine informațiile medicale și să se pregătească pentru consultații, într-un context în care sistemele de sănătate sunt tot mai aglomerate. În același timp, există îngrijorări legate de confidențialitatea datelor și de posibilitatea ca interpretarea automată a unor informații să creeze anxietate sau să determine consultații medicale inutile. Microsoft subliniază că Copilot Health nu este conceput pentru a diagnostica sau trata boli și nu înlocuiește consultul medical profesional. [...]

Giganți din industria tehnologică, printre care AMD, Microsoft, NVIDIA și OpenAI, au anunțat formarea unui consorțiu pentru dezvoltarea unui standard deschis de interconectare optică destinat infrastructurilor AI. Inițiativa poartă numele Optical Compute Interconnect Multi-Source Agreement ( OCI MSA ) și vizează modul în care vor fi conectate sistemele de calcul din centrele de date care rulează modele de inteligență artificială de mari dimensiuni. Consorțiul reunește șase membri fondatori: AMD, Broadcom, Meta, Microsoft, NVIDIA și OpenAI . Scopul principal este definirea unei specificații tehnice comune care să permită echipamentelor produse de companii diferite să funcționeze împreună în infrastructurile AI de tip hyperscale. De ce apare această inițiativă Creșterea rapidă a dimensiunii clusterelor AI pune presiune pe tehnologiile de interconectare utilizate în prezent în centrele de date. Conexiunile tradiționale pe cupru devin limitate în ceea ce privește lățimea de bandă, consumul energetic și distanța la care pot transmite date. Prin urmare, consorțiul propune trecerea către interconectări optice , care folosesc fibre și semnale optice pentru a transmite date între procesoare, acceleratoare AI și echipamente de rețea. Obiectivele consorțiului Potrivit anunțului, OCI MSA urmărește trei direcții principale: definirea unei specificații deschise și interoperabile pentru interconectările utilizate în clustere AI de mari dimensiuni; sprijinirea tranziției industriei de la conexiuni pe cupru la interconectări optice cu consum redus de energie ; dezvoltarea unui ecosistem multi-vendor , care să reducă dependența de soluții proprietare și să permită interoperabilitatea echipamentelor produse de companii diferite. Ce prevede prima specificație tehnică Prima specificație publicată de consorțiu descrie o interfață optică de aproximativ 200 Gbps , destinată conexiunilor din interiorul centrelor de date. Sistemul utilizează tehnici precum multiplexarea pe lungimi de undă și transmisia bidirecțională pe aceeași fibră, pentru a crește densitatea conexiunilor și eficiența energetică. Documentul tehnic stabilește și parametri pentru sincronizare, corecția erorilor și funcționarea transceiverelor optice pe distanțe tipice din centrele de date, de până la aproximativ 500 de metri de fibră optică . Context Standardele de interconectare sunt considerate critice pentru infrastructura AI deoarece performanța modelelor depinde nu doar de puterea GPU-urilor sau a acceleratoarelor, ci și de viteza cu care acestea pot comunica între ele. Prin crearea unui standard deschis, companiile implicate încearcă să faciliteze dezvoltarea infrastructurilor AI de mari dimensiuni și să accelereze adoptarea tehnologiilor optice în centrele de date. [...]

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]

Google Cloud și Nvidia introduc GPU-uri fracționate pentru costuri mai mici în AI , potrivit Google Cloud , într-un parteneriat extins anunțat la GTC 2026, care vizează accelerarea adoptării inteligenței artificiale în mediul enterprise. GPU-uri „la porție” pentru companii Noutatea centrală este lansarea mașinilor virtuale G4 fracționate, care permit împărțirea unui GPU Nvidia RTX Pro 6000 în mai multe segmente: 1/8 GPU – pentru sarcini ușoare, precum desktopuri virtuale 1/4 GPU – pentru aplicații AI moderate 1/2 GPU – pentru inferență avansată și simulări Această abordare reduce costurile și oferă flexibilitate, permițând companiilor să plătească doar pentru resursele utilizate, într-un context în care cererea pentru infrastructură AI crește rapid. Integrare software și modele AI Parteneriatul merge dincolo de hardware și include integrarea profundă a tehnologiilor Nvidia în ecosistemul Google: Nvidia NeMo integrat în Vertex AI Nvidia Dynamo conectat la GKE Inference Gateway modele Nemotron 3 disponibile în Vertex AI Model Garden Aceste instrumente sunt concepute pentru a accelera dezvoltarea și implementarea modelelor AI complexe, inclusiv a celor de tip „agentic AI”, considerate următorul val în industrie. Infrastructură de nouă generație Google Cloud a confirmat și că va adopta sistemele Vera Rubin NVL72 în a doua jumătate a lui 2026. Acestea includ: Componentă Specificație GPU-uri 72 unități Rubin CPU-uri 36 procesoare Vera Utilizare antrenare și inferență la scară mare Clienți importanți, precum General Motors sau Salesforce, folosesc deja infrastructura comună pentru aplicații AI avansate, inclusiv platforme autonome și sisteme de analiză complexă. Miza: dominația în AI enterprise Anunțul reflectă o direcție clară: transformarea infrastructurii AI într-un serviciu flexibil și scalabil pentru companii. Nvidia și Google Cloud încearcă astfel să răspundă competiției din partea Amazon și Microsoft, dar și să capitalizeze cererea tot mai mare pentru modele AI capabile să opereze autonom. În paralel, Nvidia promovează ideea că „tokenii devin o resursă economică”, sugerând că viitorul industriei va depinde nu doar de puterea de calcul, ci și de eficiența utilizării acesteia. [...]

Nvidia a lansat DLSS 5 și un cip AI pentru centre de date spațiale , potrivit CNBC , marcând o dublă direcție strategică: grafică avansată pentru jocuri și extinderea inteligenței artificiale în orbită. Anunțul a fost făcut de CEO-ul Jensen Huang în cadrul conferinței GTC 2026 din San Jose. DLSS 5: un salt major în grafica jocurilor Noua versiune DLSS 5 schimbă abordarea clasică a randării, introducând un model neuronal capabil să reconstruiască în timp real lumina, materialele și detaliile scenelor la rezoluții de până la 4K. Spre deosebire de versiunile anterioare, care îmbunătățeau performanța prin upscaling, această tehnologie „înțelege” scena și adaugă detalii fotorealiste direct la nivel de pixeli. Printre elementele cheie: randare neuronală în timp real control artistic păstrat pentru dezvoltatori suport anunțat de studiouri mari precum Ubisoft, Capcom sau Warner Bros. DLSS 5 este programat pentru lansare în toamna lui 2026, însă demonstrațiile actuale arată cerințe hardware ridicate, fiind necesare două plăci video RTX 5090 pentru rulare optimă. AI în spațiu: Vera Rubin Space-1 Nvidia a prezentat și Vera Rubin Space-1 , un modul de calcul proiectat pentru funcționare în orbită, destinat centrelor de date spațiale. Acesta ar oferi de până la 25 de ori mai multă putere de procesare AI comparativ cu GPU-ul H100. Caracteristici principale: optimizat pentru analiză în timp real și operațiuni autonome adaptat condițiilor extreme din spațiu (radiații, lipsa convecției) destinat viitoarelor infrastructuri de tip „data center orbital” Compania colaborează deja cu parteneri precum Axiom Space și Planet Labs, iar primul test ar putea avea loc în noiembrie 2026, prin lansarea unui satelit echipat cu acest modul. Provocări și miză Deși ambițiile sunt mari, Nvidia recunoaște dificultățile tehnice, în special legate de răcirea sistemelor în spațiu. Totuși, interesul pentru centre de date orbitale crește, pe fondul accesului la energie solară continuă și al cererii uriașe pentru putere de calcul AI. Prin aceste anunțuri, Nvidia încearcă să își consolideze poziția atât în industria jocurilor, cât și în infrastructura globală de inteligență artificială, extinzând competiția dincolo de Pământ. [...]