Știri
Știri din categoria Inteligență artificială

NVIDIA a lansat Earth-2, o platformă AI inovatoare pentru prognoza meteo globală, care promite să fie accesibilă, rapidă și de mare precizie, relatează Știrile ProTV. Această inițiativă a fost prezentată în cadrul Reuniunii Anuale a Societății Americane de Meteorologie și include o serie de modele, biblioteci și framework-uri deschise, menite să revoluționeze modul în care se realizează prognozele meteo și climatice.
Earth-2 oferă un ecosistem complet deschis și accelerat de software AI, incluzând modele preantrenate și framework-uri care facilitează toate etapele prognozei, de la procesarea datelor inițiale până la realizarea prognozelor pe 15 zile sau a celor locale de furtuni. Această abordare reduce semnificativ timpul și costurile necesare prognozei meteo, făcând-o mai accesibilă pentru state, instituții și companii.
Printre utilizatorii Earth-2 se numără diverse industrii și organizații, inclusiv Israel Meteorological Service, Central Weather Administration din Taiwan și companii energetice precum TotalEnergies și Eni. Acestea folosesc platforma pentru a anticipa condițiile meteo și a obține informații utile pentru diferite sectoare.
NVIDIA a introdus mai multe modele inovatoare în cadrul Earth-2:
Aceste modele sunt completate de Earth-2 CorrDiff și Earth-2 FourCastNet3, care oferă prognoze de înaltă rezoluție și extrem de precise, depășind performanțele metodelor tradiționale.
Prognoza meteo precisă are un impact semnificativ, contribuind la salvarea de vieți, protejarea mediului și susținerea deciziilor în diverse industrii, precum agricultură, energie și sănătate publică. Modelele Earth-2 sunt deja utilizate de cercetători și companii pentru a obține descoperiri științifice și a îmbunătăți acuratețea prognozelor.
Earth-2 Medium Range și Earth-2 Nowcasting sunt disponibile public prin NVIDIA Earth2Studio, precum și pe platformele Hugging Face și GitHub. Earth-2 Global Data Assimilation urmează să fie lansat mai târziu în acest an.
Recomandate

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]

Google Cloud și Nvidia introduc GPU-uri fracționate pentru costuri mai mici în AI , potrivit Google Cloud , într-un parteneriat extins anunțat la GTC 2026, care vizează accelerarea adoptării inteligenței artificiale în mediul enterprise. GPU-uri „la porție” pentru companii Noutatea centrală este lansarea mașinilor virtuale G4 fracționate, care permit împărțirea unui GPU Nvidia RTX Pro 6000 în mai multe segmente: 1/8 GPU – pentru sarcini ușoare, precum desktopuri virtuale 1/4 GPU – pentru aplicații AI moderate 1/2 GPU – pentru inferență avansată și simulări Această abordare reduce costurile și oferă flexibilitate, permițând companiilor să plătească doar pentru resursele utilizate, într-un context în care cererea pentru infrastructură AI crește rapid. Integrare software și modele AI Parteneriatul merge dincolo de hardware și include integrarea profundă a tehnologiilor Nvidia în ecosistemul Google: Nvidia NeMo integrat în Vertex AI Nvidia Dynamo conectat la GKE Inference Gateway modele Nemotron 3 disponibile în Vertex AI Model Garden Aceste instrumente sunt concepute pentru a accelera dezvoltarea și implementarea modelelor AI complexe, inclusiv a celor de tip „agentic AI”, considerate următorul val în industrie. Infrastructură de nouă generație Google Cloud a confirmat și că va adopta sistemele Vera Rubin NVL72 în a doua jumătate a lui 2026. Acestea includ: Componentă Specificație GPU-uri 72 unități Rubin CPU-uri 36 procesoare Vera Utilizare antrenare și inferență la scară mare Clienți importanți, precum General Motors sau Salesforce, folosesc deja infrastructura comună pentru aplicații AI avansate, inclusiv platforme autonome și sisteme de analiză complexă. Miza: dominația în AI enterprise Anunțul reflectă o direcție clară: transformarea infrastructurii AI într-un serviciu flexibil și scalabil pentru companii. Nvidia și Google Cloud încearcă astfel să răspundă competiției din partea Amazon și Microsoft, dar și să capitalizeze cererea tot mai mare pentru modele AI capabile să opereze autonom. În paralel, Nvidia promovează ideea că „tokenii devin o resursă economică”, sugerând că viitorul industriei va depinde nu doar de puterea de calcul, ci și de eficiența utilizării acesteia. [...]

Nvidia a lansat DLSS 5 și un cip AI pentru centre de date spațiale , potrivit CNBC , marcând o dublă direcție strategică: grafică avansată pentru jocuri și extinderea inteligenței artificiale în orbită. Anunțul a fost făcut de CEO-ul Jensen Huang în cadrul conferinței GTC 2026 din San Jose. DLSS 5: un salt major în grafica jocurilor Noua versiune DLSS 5 schimbă abordarea clasică a randării, introducând un model neuronal capabil să reconstruiască în timp real lumina, materialele și detaliile scenelor la rezoluții de până la 4K. Spre deosebire de versiunile anterioare, care îmbunătățeau performanța prin upscaling, această tehnologie „înțelege” scena și adaugă detalii fotorealiste direct la nivel de pixeli. Printre elementele cheie: randare neuronală în timp real control artistic păstrat pentru dezvoltatori suport anunțat de studiouri mari precum Ubisoft, Capcom sau Warner Bros. DLSS 5 este programat pentru lansare în toamna lui 2026, însă demonstrațiile actuale arată cerințe hardware ridicate, fiind necesare două plăci video RTX 5090 pentru rulare optimă. AI în spațiu: Vera Rubin Space-1 Nvidia a prezentat și Vera Rubin Space-1 , un modul de calcul proiectat pentru funcționare în orbită, destinat centrelor de date spațiale. Acesta ar oferi de până la 25 de ori mai multă putere de procesare AI comparativ cu GPU-ul H100. Caracteristici principale: optimizat pentru analiză în timp real și operațiuni autonome adaptat condițiilor extreme din spațiu (radiații, lipsa convecției) destinat viitoarelor infrastructuri de tip „data center orbital” Compania colaborează deja cu parteneri precum Axiom Space și Planet Labs, iar primul test ar putea avea loc în noiembrie 2026, prin lansarea unui satelit echipat cu acest modul. Provocări și miză Deși ambițiile sunt mari, Nvidia recunoaște dificultățile tehnice, în special legate de răcirea sistemelor în spațiu. Totuși, interesul pentru centre de date orbitale crește, pe fondul accesului la energie solară continuă și al cererii uriașe pentru putere de calcul AI. Prin aceste anunțuri, Nvidia încearcă să își consolideze poziția atât în industria jocurilor, cât și în infrastructura globală de inteligență artificială, extinzând competiția dincolo de Pământ. [...]

ByteDance ar urma să achiziționeze mii de cipuri AI NVIDIA B200 pentru infrastructură construită în afara Chinei potrivit Engadget , compania care deține TikTok ar fi găsit o modalitate de a utiliza cele mai noi procesoare pentru inteligență artificială, în ciuda restricțiilor de export impuse de Statele Unite. Conform unui raport citat de publicație, ByteDance colaborează cu firma Aolani Cloud , iar infrastructura de calcul ar urma să fie construită în Malaysia . Prin acest proiect, compania ar putea avea acces la aproximativ 36.000 de cipuri NVIDIA B200 , considerate printre cele mai puternice procesoare AI dezvoltate de compania americană. Investiția totală pentru acest sistem ar depăși 2,5 miliarde de dolari , iar ByteDance ar intenționa să utilizeze capacitatea de calcul pentru cercetare și dezvoltare în domeniul inteligenței artificiale . Accesul direct la cipurile B200 este restricționat pentru China deoarece acestea sunt produse în Statele Unite și intră sub incidența regulilor americane privind exportul de tehnologii avansate. Pentru a ocoli aceste limitări, unele companii chineze încearcă să dezvolte infrastructuri în alte țări, folosind parteneri externi pentru achiziția și operarea echipamentelor. În acest caz, compania Aolani Cloud , cu sediul în Singapore, ar urma să cumpere componentele de la NVIDIA și să opereze centrele de date în Malaysia. Reprezentanții firmei au declarat că respectă toate reglementările privind exportul tehnologic și că ByteDance va fi doar unul dintre mai mulți clienți ai platformei de cloud computing. Situația apare într-un context mai larg de tensiuni tehnologice între Statele Unite și China. Washingtonul a impus restricții stricte privind exportul de cipuri AI avansate, pentru a limita accesul companiilor chineze la tehnologii considerate sensibile din punct de vedere strategic. Recent, autoritățile americane au permis vânzarea către China a cipurilor NVIDIA H200 , însă cu condiții stricte, inclusiv o taxă de import de 25% și cerințe suplimentare de verificare a clienților pentru a preveni utilizarea tehnologiei de către armata chineză. Până în prezent, NVIDIA nu a confirmat că a acceptat toate aceste condiții. Proiectul ByteDance arată astfel cum companiile tehnologice încearcă să găsească soluții alternative pentru a continua dezvoltarea infrastructurii AI, într-un moment în care competiția globală pentru puterea de calcul devine tot mai intensă. [...]

Nvidia pregătește lansarea unui nou cip dedicat inteligenței artificiale , bazat pe tehnologia companiei Groq, anunțul urmând să fie făcut de CEO-ul Jensen Huang la conferința GTC 2026 din San Jose, potrivit Nvidia News . Evenimentul anual GPU Technology Conference (GTC) se desfășoară între 16 și 19 martie 2026 și va reuni peste 30.000 de participanți din peste 190 de țări , fiind unul dintre cele mai importante evenimente globale dedicate tehnologiei AI. În discursul de deschidere, programat luni la ora 11:00 PT , Jensen Huang ar urma să prezinte mai multe inovații majore din portofoliul Nvidia. Un cip nou pentru piața AI Cel mai așteptat anunț este un procesor specializat pentru inferență AI , realizat pe baza tehnologiei startup-ului Groq, companie pe care Nvidia a cumpărat-o în decembrie 2025 pentru aproximativ 20 de miliarde de dolari . Noul sistem ar urma să rezolve una dintre limitările actuale ale infrastructurii Nvidia. GPU-urile companiei sunt extrem de eficiente pentru antrenarea modelelor de inteligență artificială , dar devin mai puțin eficiente în etapa de inferință – procesul prin care modelele AI generează răspunsuri în timp real, precum în cazul asistenților de cod sau al agenților AI. Tehnologia Groq, bazată pe arhitecturi cu memorie SRAM de mare viteză , este optimizată pentru generarea rapidă de „tokeni” – unitățile de bază ale textului produse de modelele AI. Lansarea unei noi platforme Nvidia În paralel, compania este așteptată să prezinte și noua platformă Vera Rubin , succesorul arhitecturii Blackwell utilizate în prezent în centrele de date AI. Noua platformă ar include: GPU Rubin cu aproximativ 336 de miliarde de tranzistori memorie HBM4 de mare viteză CPU Vera bazat pe arhitectură ARM Analiștii estimează că performanța ar putea fi de 3,3 până la 5 ori mai mare decât generația Blackwell în anumite sarcini AI. O strategie mai amplă în ecosistemul AI Pe lângă hardware, Nvidia ar putea prezenta și NemoClaw , o platformă open-source pentru dezvoltarea de agenți AI autonomi. Interesant este că software-ul ar putea funcționa și pe cipurile competitorilor , nu doar pe hardware Nvidia. Compania a discutat deja posibilul proiect cu giganți tehnologici precum: Salesforce Cisco Google Adobe CrowdStrike Totuși, parteneriate oficiale nu au fost confirmate până în prezent. Presiuni geopolitice asupra industriei cipurilor Anunțurile vin într-un moment complicat pentru sectorul semiconductorilor. Exporturile de cipuri AI către China sunt limitate de politica comercială a SUA, care a permis doar livrări condiționate ale procesoarelor H200 , cu plafonarea vânzărilor la jumătate din nivelul pieței interne. În prezent, Nvidia susține că nu mai generează venituri din centre de date din China , pe fondul acestor restricții. CEO-ul Jensen Huang a rezumat miza actuală a industriei AI astfel: „Inteligența artificială nu mai este doar o aplicație sau o descoperire izolată. Ea devine infrastructură esențială pentru fiecare companie și pentru fiecare națiune”. [...]

Giganți din industria tehnologică, printre care AMD, Microsoft, NVIDIA și OpenAI, au anunțat formarea unui consorțiu pentru dezvoltarea unui standard deschis de interconectare optică destinat infrastructurilor AI. Inițiativa poartă numele Optical Compute Interconnect Multi-Source Agreement ( OCI MSA ) și vizează modul în care vor fi conectate sistemele de calcul din centrele de date care rulează modele de inteligență artificială de mari dimensiuni. Consorțiul reunește șase membri fondatori: AMD, Broadcom, Meta, Microsoft, NVIDIA și OpenAI . Scopul principal este definirea unei specificații tehnice comune care să permită echipamentelor produse de companii diferite să funcționeze împreună în infrastructurile AI de tip hyperscale. De ce apare această inițiativă Creșterea rapidă a dimensiunii clusterelor AI pune presiune pe tehnologiile de interconectare utilizate în prezent în centrele de date. Conexiunile tradiționale pe cupru devin limitate în ceea ce privește lățimea de bandă, consumul energetic și distanța la care pot transmite date. Prin urmare, consorțiul propune trecerea către interconectări optice , care folosesc fibre și semnale optice pentru a transmite date între procesoare, acceleratoare AI și echipamente de rețea. Obiectivele consorțiului Potrivit anunțului, OCI MSA urmărește trei direcții principale: definirea unei specificații deschise și interoperabile pentru interconectările utilizate în clustere AI de mari dimensiuni; sprijinirea tranziției industriei de la conexiuni pe cupru la interconectări optice cu consum redus de energie ; dezvoltarea unui ecosistem multi-vendor , care să reducă dependența de soluții proprietare și să permită interoperabilitatea echipamentelor produse de companii diferite. Ce prevede prima specificație tehnică Prima specificație publicată de consorțiu descrie o interfață optică de aproximativ 200 Gbps , destinată conexiunilor din interiorul centrelor de date. Sistemul utilizează tehnici precum multiplexarea pe lungimi de undă și transmisia bidirecțională pe aceeași fibră, pentru a crește densitatea conexiunilor și eficiența energetică. Documentul tehnic stabilește și parametri pentru sincronizare, corecția erorilor și funcționarea transceiverelor optice pe distanțe tipice din centrele de date, de până la aproximativ 500 de metri de fibră optică . Context Standardele de interconectare sunt considerate critice pentru infrastructura AI deoarece performanța modelelor depinde nu doar de puterea GPU-urilor sau a acceleratoarelor, ci și de viteza cu care acestea pot comunica între ele. Prin crearea unui standard deschis, companiile implicate încearcă să faciliteze dezvoltarea infrastructurilor AI de mari dimensiuni și să accelereze adoptarea tehnologiilor optice în centrele de date. [...]