Știri
Știri din categoria Inteligență artificială

Meta, compania-mamă a Facebook, a încheiat trei acorduri strategice pentru a asigura alimentarea cu energie a viitoarelor sale centre de date pentru inteligență artificială, folosind exclusiv energie nucleară, informează Associated Press. Acordurile au fost semnate cu TerraPower, Oklo și Vistra, trei companii americane implicate în producția de energie nucleară, și vizează generarea a până la 6,6 gigawați de energie curată până în 2035 — suficient pentru a alimenta echivalentul a cinci milioane de locuințe.
Aceste acorduri au ca scop susținerea energetică a Prometheus, un complex de centre de date AI de 1 gigawatt pe care Meta îl construiește în New Albany, statul Ohio, și care este programat să devină operațional în cursul acestui an.
Compania lui Mark Zuckerberg dorește să se asigure că infrastructura AI de ultimă generație va funcționa cu energie constantă, curată și fiabilă, pe fondul presiunilor crescânde asupra rețelei electrice din zona Mid-Atlantic (care include state precum Ohio și Pennsylvania), unde mai multe centre de date au fost deja acuzate că ridică prețurile la energie pentru consumatorii casnici.
În plus, Meta anunțase anterior și un contract de 20 de ani cu Constellation Energy pentru achiziția de energie nucleară, semnat în iunie 2025.
Deși Meta afirmă că noile proiecte „întăresc lanțul de aprovizionare nuclear american și creează locuri de muncă”, există preocupări legate de efectele asupra rețelei și consumatorilor. Jesse Jenkins, profesor de inginerie la Universitatea Princeton, a avertizat că activarea Prometheus fără surse energetice dedicate ar putea duce la creșteri suplimentare ale tarifelor la energie în regiune.
În concluzie, Meta pare decisă să rezolve problema consumului uriaș de energie al centrelor sale AI prin investiții directe în infrastructură nucleară, oferind în același timp un semnal clar despre viitorul energetic al industriei tech: energie curată, dar fermă și stabilă.
Recomandate

ByteDance ar urma să achiziționeze mii de cipuri AI NVIDIA B200 pentru infrastructură construită în afara Chinei potrivit Engadget , compania care deține TikTok ar fi găsit o modalitate de a utiliza cele mai noi procesoare pentru inteligență artificială, în ciuda restricțiilor de export impuse de Statele Unite. Conform unui raport citat de publicație, ByteDance colaborează cu firma Aolani Cloud , iar infrastructura de calcul ar urma să fie construită în Malaysia . Prin acest proiect, compania ar putea avea acces la aproximativ 36.000 de cipuri NVIDIA B200 , considerate printre cele mai puternice procesoare AI dezvoltate de compania americană. Investiția totală pentru acest sistem ar depăși 2,5 miliarde de dolari , iar ByteDance ar intenționa să utilizeze capacitatea de calcul pentru cercetare și dezvoltare în domeniul inteligenței artificiale . Accesul direct la cipurile B200 este restricționat pentru China deoarece acestea sunt produse în Statele Unite și intră sub incidența regulilor americane privind exportul de tehnologii avansate. Pentru a ocoli aceste limitări, unele companii chineze încearcă să dezvolte infrastructuri în alte țări, folosind parteneri externi pentru achiziția și operarea echipamentelor. În acest caz, compania Aolani Cloud , cu sediul în Singapore, ar urma să cumpere componentele de la NVIDIA și să opereze centrele de date în Malaysia. Reprezentanții firmei au declarat că respectă toate reglementările privind exportul tehnologic și că ByteDance va fi doar unul dintre mai mulți clienți ai platformei de cloud computing. Situația apare într-un context mai larg de tensiuni tehnologice între Statele Unite și China. Washingtonul a impus restricții stricte privind exportul de cipuri AI avansate, pentru a limita accesul companiilor chineze la tehnologii considerate sensibile din punct de vedere strategic. Recent, autoritățile americane au permis vânzarea către China a cipurilor NVIDIA H200 , însă cu condiții stricte, inclusiv o taxă de import de 25% și cerințe suplimentare de verificare a clienților pentru a preveni utilizarea tehnologiei de către armata chineză. Până în prezent, NVIDIA nu a confirmat că a acceptat toate aceste condiții. Proiectul ByteDance arată astfel cum companiile tehnologice încearcă să găsească soluții alternative pentru a continua dezvoltarea infrastructurii AI, într-un moment în care competiția globală pentru puterea de calcul devine tot mai intensă. [...]

Modelul AI „Avocado” dezvoltat de Meta ar putea fi amânat , după ce testele interne au arătat că sistemul nu reușește să egaleze performanțele celor mai noi modele create de Google și Anthropic, potrivit Benzinga . Modelul „Avocado” este conceput ca un sistem de inteligență artificială fundamental care ar urma să stea la baza viitoarelor produse AI ale Meta, inclusiv chatboți, instrumente de programare asistată de inteligență artificială și alte aplicații integrate în platformele companiei. În cadrul testelor interne, sistemul a arătat rezultate mai bune decât generațiile anterioare de modele dezvoltate de Meta și chiar a depășit o versiune mai veche a modelului Google Gemini . Cu toate acestea, potrivit unor persoane familiarizate cu proiectul, performanțele sale nu reușesc să ajungă la nivelul celei mai recente versiuni Gemini și nici la cele ale modelelor dezvoltate de compania Anthropic. Din acest motiv, conducerea Meta ar fi decis să își reevalueze calendarul de lansare. Dacă inițial compania plănuia să prezinte modelul în martie 2026, lansarea ar putea fi amânată cel puțin până în luna mai. În paralel, există discuții interne privind posibilitatea ca Meta să licențieze temporar tehnologie bazată pe modelul Gemini al Google pentru a susține anumite produse AI, însă o decizie finală nu a fost anunțată. Întârzierea apare într-un moment în care Meta investește masiv în dezvoltarea inteligenței artificiale, domeniu considerat esențial pentru strategia companiei conduse de Mark Zuckerberg . Pentru anul 2026, Meta estimează cheltuieli de până la 135 de miliarde de dolari pentru infrastructură și dezvoltarea tehnologiilor AI, aproape dublu față de aproximativ 72 de miliarde de dolari investite anul trecut. În paralel cu „Avocado”, compania lucrează și la alte modele aflate în dezvoltare, printre care „Mango”, dedicat generării de imagini și video, și un sistem viitor cu numele de cod „Watermelon”, toate acestea făcând parte din planul Meta de a concura direct cu liderii actuali ai industriei AI. [...]

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]

Google Cloud și Nvidia introduc GPU-uri fracționate pentru costuri mai mici în AI , potrivit Google Cloud , într-un parteneriat extins anunțat la GTC 2026, care vizează accelerarea adoptării inteligenței artificiale în mediul enterprise. GPU-uri „la porție” pentru companii Noutatea centrală este lansarea mașinilor virtuale G4 fracționate, care permit împărțirea unui GPU Nvidia RTX Pro 6000 în mai multe segmente: 1/8 GPU – pentru sarcini ușoare, precum desktopuri virtuale 1/4 GPU – pentru aplicații AI moderate 1/2 GPU – pentru inferență avansată și simulări Această abordare reduce costurile și oferă flexibilitate, permițând companiilor să plătească doar pentru resursele utilizate, într-un context în care cererea pentru infrastructură AI crește rapid. Integrare software și modele AI Parteneriatul merge dincolo de hardware și include integrarea profundă a tehnologiilor Nvidia în ecosistemul Google: Nvidia NeMo integrat în Vertex AI Nvidia Dynamo conectat la GKE Inference Gateway modele Nemotron 3 disponibile în Vertex AI Model Garden Aceste instrumente sunt concepute pentru a accelera dezvoltarea și implementarea modelelor AI complexe, inclusiv a celor de tip „agentic AI”, considerate următorul val în industrie. Infrastructură de nouă generație Google Cloud a confirmat și că va adopta sistemele Vera Rubin NVL72 în a doua jumătate a lui 2026. Acestea includ: Componentă Specificație GPU-uri 72 unități Rubin CPU-uri 36 procesoare Vera Utilizare antrenare și inferență la scară mare Clienți importanți, precum General Motors sau Salesforce, folosesc deja infrastructura comună pentru aplicații AI avansate, inclusiv platforme autonome și sisteme de analiză complexă. Miza: dominația în AI enterprise Anunțul reflectă o direcție clară: transformarea infrastructurii AI într-un serviciu flexibil și scalabil pentru companii. Nvidia și Google Cloud încearcă astfel să răspundă competiției din partea Amazon și Microsoft, dar și să capitalizeze cererea tot mai mare pentru modele AI capabile să opereze autonom. În paralel, Nvidia promovează ideea că „tokenii devin o resursă economică”, sugerând că viitorul industriei va depinde nu doar de puterea de calcul, ci și de eficiența utilizării acesteia. [...]

Nvidia a lansat DLSS 5 și un cip AI pentru centre de date spațiale , potrivit CNBC , marcând o dublă direcție strategică: grafică avansată pentru jocuri și extinderea inteligenței artificiale în orbită. Anunțul a fost făcut de CEO-ul Jensen Huang în cadrul conferinței GTC 2026 din San Jose. DLSS 5: un salt major în grafica jocurilor Noua versiune DLSS 5 schimbă abordarea clasică a randării, introducând un model neuronal capabil să reconstruiască în timp real lumina, materialele și detaliile scenelor la rezoluții de până la 4K. Spre deosebire de versiunile anterioare, care îmbunătățeau performanța prin upscaling, această tehnologie „înțelege” scena și adaugă detalii fotorealiste direct la nivel de pixeli. Printre elementele cheie: randare neuronală în timp real control artistic păstrat pentru dezvoltatori suport anunțat de studiouri mari precum Ubisoft, Capcom sau Warner Bros. DLSS 5 este programat pentru lansare în toamna lui 2026, însă demonstrațiile actuale arată cerințe hardware ridicate, fiind necesare două plăci video RTX 5090 pentru rulare optimă. AI în spațiu: Vera Rubin Space-1 Nvidia a prezentat și Vera Rubin Space-1 , un modul de calcul proiectat pentru funcționare în orbită, destinat centrelor de date spațiale. Acesta ar oferi de până la 25 de ori mai multă putere de procesare AI comparativ cu GPU-ul H100. Caracteristici principale: optimizat pentru analiză în timp real și operațiuni autonome adaptat condițiilor extreme din spațiu (radiații, lipsa convecției) destinat viitoarelor infrastructuri de tip „data center orbital” Compania colaborează deja cu parteneri precum Axiom Space și Planet Labs, iar primul test ar putea avea loc în noiembrie 2026, prin lansarea unui satelit echipat cu acest modul. Provocări și miză Deși ambițiile sunt mari, Nvidia recunoaște dificultățile tehnice, în special legate de răcirea sistemelor în spațiu. Totuși, interesul pentru centre de date orbitale crește, pe fondul accesului la energie solară continuă și al cererii uriașe pentru putere de calcul AI. Prin aceste anunțuri, Nvidia încearcă să își consolideze poziția atât în industria jocurilor, cât și în infrastructura globală de inteligență artificială, extinzând competiția dincolo de Pământ. [...]

OpenAI își schimbă strategia și se concentrează pe programare și clienți business , potrivit The Wall Street Journal , într-o mișcare care marchează o retragere din proiectele secundare și o încercare de a valorifica mai eficient avantajul tehnologic. Decizia este analizată de CEO-ul Sam Altman și de Mark Chen , iar angajații urmează să primească detalii oficiale în perioada următoare, după ce planul a fost deja prezentat intern de Fidji Simo ca un efort de a fixa direcția companiei pe activitățile esențiale. Schimbarea nu vine din senin, ci continuă o serie de ajustări începute încă din 2025, când OpenAI a suspendat inițiative precum publicitatea, agenți pentru sănătate sau funcții de cumpărături, pentru a redirecționa resursele către îmbunătățirea ChatGPT. Noua etapă merge însă mai departe și stabilește două priorități clare: dezvoltarea instrumentelor de programare extinderea soluțiilor pentru companii Această repoziționare apare pe fondul unei competiții intense, în special cu Anthropic, ale cărei modele sunt percepute ca fiind mai performante în sarcini de codare. Deși OpenAI susține că produsul său Codex și-a triplat numărul de utilizatori săptămânali din ianuarie 2026, piața rămâne una disputată, iar integrarea în ecosisteme populare devine decisivă. În paralel, conducerea companiei consideră că principala problemă nu mai este capacitatea tehnologică, ci implementarea în mediul real. Directorul financiar Sarah Friar sublinia încă din ianuarie că obiectivul pentru 2026 este „adopția practică”, adică transformarea capabilităților AI în instrumente utilizate zilnic de companii și instituții. Câteva repere relevante pentru contextul actual: Indicator Valoare estimată Utilizatori săptămânali ChatGPT peste 900 milioane Venituri recurente anuale peste 20 miliarde dolari Evaluare companie (martie 2026) aproximativ 730 miliarde dolari În acest context, presiunea este dublă: competiția tehnologică și nevoia de a demonstra că investițiile masive pot genera venituri sustenabile, mai ales în perspectiva unei posibile listări la bursă spre finalul anului 2026. Practic, OpenAI încearcă să treacă de la statutul de lider în cercetare la cel de jucător dominant în aplicații comerciale. [...]