Știri
Știri din categoria Inteligență artificială

NVIDIA a lansat Earth-2, o platformă AI inovatoare pentru prognoza meteo globală, care promite să fie accesibilă, rapidă și de mare precizie, relatează Știrile ProTV. Această inițiativă a fost prezentată în cadrul Reuniunii Anuale a Societății Americane de Meteorologie și include o serie de modele, biblioteci și framework-uri deschise, menite să revoluționeze modul în care se realizează prognozele meteo și climatice.
Earth-2 oferă un ecosistem complet deschis și accelerat de software AI, incluzând modele preantrenate și framework-uri care facilitează toate etapele prognozei, de la procesarea datelor inițiale până la realizarea prognozelor pe 15 zile sau a celor locale de furtuni. Această abordare reduce semnificativ timpul și costurile necesare prognozei meteo, făcând-o mai accesibilă pentru state, instituții și companii.
Printre utilizatorii Earth-2 se numără diverse industrii și organizații, inclusiv Israel Meteorological Service, Central Weather Administration din Taiwan și companii energetice precum TotalEnergies și Eni. Acestea folosesc platforma pentru a anticipa condițiile meteo și a obține informații utile pentru diferite sectoare.
NVIDIA a introdus mai multe modele inovatoare în cadrul Earth-2:
Aceste modele sunt completate de Earth-2 CorrDiff și Earth-2 FourCastNet3, care oferă prognoze de înaltă rezoluție și extrem de precise, depășind performanțele metodelor tradiționale.
Prognoza meteo precisă are un impact semnificativ, contribuind la salvarea de vieți, protejarea mediului și susținerea deciziilor în diverse industrii, precum agricultură, energie și sănătate publică. Modelele Earth-2 sunt deja utilizate de cercetători și companii pentru a obține descoperiri științifice și a îmbunătăți acuratețea prognozelor.
Earth-2 Medium Range și Earth-2 Nowcasting sunt disponibile public prin NVIDIA Earth2Studio, precum și pe platformele Hugging Face și GitHub. Earth-2 Global Data Assimilation urmează să fie lansat mai târziu în acest an.
Recomandate

Departamentul american al Apărării își extinde rapid accesul la instrumente de inteligență artificială pe rețele militare clasificate , după ce Amazon Web Services (AWS) , Microsoft și NVIDIA au semnat acorduri care permit Pentagonului utilizarea tehnologiilor lor „pentru utilizare operațională legală”, potrivit Engadget . Informația este relatată inițial de Bloomberg , care notează că, alături de cele trei companii, și Reflection AI a încheiat un acord similar. Pentagonul a transmis, într-o declarație citată de Bloomberg, că aceste acorduri „accelerează transformarea” către un model în care armata SUA devine o „forță de luptă AI-first” (orientată în primul rând către folosirea inteligenței artificiale). Ce se schimbă operațional: AI pe rețele clasificate Elementul cu impact direct este faptul că instrumentele de AI ale companiilor vor putea fi folosite pe rețele militare clasificate , ceea ce ridică miza față de utilizări comerciale sau administrative. Formularea „pentru utilizare operațională legală” indică un cadru de utilizare în interiorul regulilor și procedurilor militare, fără ca materialul citat să detalieze ce tipuri de aplicații vor fi implementate efectiv. Lista furnizorilor se lărgește; Anthropic rămâne în afara acordurilor Engadget arată că AWS, Microsoft și NVIDIA se alătură altor companii care au semnat acorduri similare cu Departamentul Apărării, între care xAI, OpenAI și Google. În acest context, Anthropic este prezentată drept singurul furnizor major de AI din SUA care nu are un acord funcțional cu Pentagonul. Materialul descrie și tensiunile dintre administrația Trump și Anthropic: în februarie, secretarul apărării Pete Hegseth ar fi amenințat că va eticheta compania drept „risc pentru lanțul de aprovizionare” dacă nu renunță la măsuri de protecție care împiedică folosirea chatbotului Claude pentru supraveghere în masă a americanilor sau în arme complet autonome. După refuzul companiei, președintele Trump a ordonat agențiilor federale să înceteze utilizarea produselor Anthropic în termen de șase luni, iar disputa a ajuns în instanță. Reacție publică: semnal de risc reputațional pentru furnizori Engadget notează că ritmul de adopție al AI în apărare și viteza cu care marile companii americane „se aliniază” pentru a vinde către administrația Trump ar trebui să fie un motiv de îngrijorare pentru cetățenii SUA. Ca indiciu al sensibilității publice, publicația citează date ale firmei de inteligență de piață Sensor Tower: OpenAI ar fi înregistrat o creștere cu 413% de la an la an a dezinstalărilor aplicației ChatGPT în februarie, după acordul companiei cu Departamentul Apărării. Ce urmează, pe baza informațiilor disponibile, este extinderea acestui tip de parteneriate în zona militară, cu o presiune tot mai mare pe furnizorii care nu acceptă condițiile Pentagonului și cu posibile costuri de imagine pentru cei care intră în astfel de acorduri. [...]

Blocajele de reglementare care țin pe loc livrările Nvidia H200 către China pot accelera transferul de cotă de piață către Huawei , într-o piață locală de cipuri pentru inteligență artificială estimată să ajungă la 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, potrivit unei analize Tom's Hardware , care citează un reportaj Financial Times și estimări Morgan Stanley. Potrivit Financial Times (link în sursă), Huawei este „pe drumul” de a capta cea mai mare cotă din piața chineză de cipuri AI chiar din acest an, pe fondul cererii în creștere din partea companiilor chineze pentru alternative interne la Nvidia. Contextul: operațiunile Nvidia din China, care ar fi reprezentat anterior până la 25% din veniturile diviziei de centre de date, sunt afectate de restricții la export și bariere de reglementare impuse atât de SUA, cât și de China, pe fondul tensiunilor comerciale și tehnologice. De ce s-au blocat livrările H200: cerințe contradictorii SUA–China Tom’s Hardware notează că Jensen Huang, CEO-ul Nvidia, a confirmat în martie 2026 că firma a primit licențe din SUA pentru a vinde cipuri AI H200 către China și că a repornit producția pentru a acoperi cererea. Totuși, deși compania ar fi obținut aprobarea SUA și comenzi de la clienți chinezi, livrările au întâmpinat obstacole, cu posibile întârzieri legate de reglementările chineze de import. Financial Times susține că Beijingul ar fi instruit companiile chineze de tehnologie să limiteze utilizarea cipurilor Nvidia la operațiunile lor din afara țării, în timp ce sprijină producția internă. În paralel, autoritățile americane cer ca toate cipurile Nvidia comandate de clienți chinezi să fie folosite doar în China. Rezultatul, potrivit materialului: un blocaj la nivelul procedurilor vamale pentru H200, pe fondul acestor cerințe care se bat cap în cap. Pariul Huawei: „inference” și clustere, nu performanță brută Deși cipurile Nvidia rămân mai avansate, Huawei ar urmări o strategie diferită: țintește segmentul de „inference” (calculul folosit de modelele AI pentru a genera răspunsuri și a executa sarcini după finalizarea antrenării), descris ca fiind în creștere rapidă. Conform Financial Times, Huawei și-a poziționat procesoarele 950PR drept opțiunea preferată pentru companiile locale care rulează sarcini de inference. Argumentul Huawei, redat în articol: pe măsură ce asistenții AI și agenții autonomi devin mai răspândiți, inference ar urma să devină cea mai mare sursă de cerere pentru putere de calcul AI. Pentru că aceste sarcini sunt, în general, mai puțin solicitante decât antrenarea modelelor foarte mari, Huawei poate rămâne competitivă chiar dacă performanța brută a cipurilor este mai slabă. Pentru a compensa, compania ar lega un număr mare de cipuri folosind tehnologie proprie de rețelistică, construind clustere (grupuri de servere/cipuri care lucrează împreună) pentru a crește performanța la nivel de sistem. Un exemplu invocat: DeepSeek ar fi folosit cipul Huawei 950PR pentru inference, deși cel mai recent model v4 ar fi fost antrenat pe cipuri Nvidia, potrivit confirmării companiei menționate în articol. Miza economică: o piață de 67 mld. dolari și o pondere tot mai mare pentru furnizorii locali Estimările Morgan Stanley citate indică o schimbare structurală: piața de cipuri AI din China ar putea ajunge la circa 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, iar companiile locale ar urma să acopere aproximativ 86% din cerere. Tot Morgan Stanley estimează că furnizorii chinezi ar putea reprezenta, singuri, circa 21 miliarde dolari (aprox. 97 miliarde lei) din piață chiar în acest an. În paralel, Huawei își sprijină planurile de creștere pe capacitatea de producție internă: majoritatea cipurilor sale AI sunt fabricate de SMIC , iar compania ar plănui să adauge încă două fabrici dedicate în acest an. Dacă își crește producția cu succes, prognoza inițială de venituri ar putea fi depășită, potrivit articolului. Ce rămâne în avantajul Nvidia Chiar și cu presiunea de reglementare, Nvidia păstrează avantaje importante, în special ecosistemul software. Tom’s Hardware arată că, deși Huawei dezvoltă platforma Cann ca alternativă internă la CUDA (platforma software Nvidia folosită pe scară largă), dezvoltatorii spun că aceasta rămâne în urmă la capitolele ușurință de utilizare și maturitate. Costurile operaționale și complexitatea de dezvoltare pot crește pentru clienți, ceea ce ajută Nvidia să își mențină influența globală. În China, însă, „prinderea” Nvidia s-a slăbit după ce Washingtonul a blocat anul trecut vânzările H20 (un procesor modificat pentru piața chineză, conform cerințelor de export), iar compania ar avea dificultăți în a găsi un produs care să respecte simultan regulile americane și cerințele de reglementare chineze. „Ziua în care DeepSeek apare mai întâi pe Huawei este un rezultat groaznic pentru națiunea noastră – ar putea duce la un scenariu în care modelele AI din întreaga lume sunt dezvoltate și rulează cel mai bine pe hardware non-american”, a spus Jensen Huang, într-un interviu recent citat de articol. În lipsa unei deblocări rapide a livrărilor H200 și a unei soluții stabile de conformare pe ambele maluri, riscul operațional pentru Nvidia este ca piața chineză să se reorienteze accelerat către furnizori locali, cu efect direct asupra veniturilor și a influenței ecosistemului său în a doua cea mai mare economie a lumii. [...]

LG Electronics discută cu Nvidia o posibilă cooperare pe centre de date AI, robotică și mobilitate , o combinație care ar putea împinge compania sud-coreeană mai adânc în lanțul de furnizori pentru infrastructura AI și ar extinde prezența Nvidia dincolo de zona industrială, potrivit The Next Web . LG a confirmat miercuri că poartă discuții cu Nvidia pentru colaborare în trei direcții: robotică, centre de date pentru inteligență artificială și mobilitate. Întâlnirea a avut loc după o vizită la sediul LG din Yeouido (Seul) a lui Madison Huang, director senior Nvidia pentru platforme de „AI fizic” (inteligență artificială integrată în roboți și sisteme autonome), alături de reprezentanți ai altor companii tehnologice sud-coreene; la discuții a participat și CEO-ul LG, Ryu Jae-cheol. Nu există, deocamdată, un acord formal. Discuțiile sunt descrise ca fiind exploratorii, fără produse, sume de investiții sau calendare confirmate. De ce contează: miza comercială imediată pare să fie centrele de date Deși componenta de robotică este cea mai vizibilă public, materialul indică faptul că discuțiile despre centre de date și mobilitate ar putea avea o relevanță comercială mai rapidă. În zona centrelor de date, LG și-a poziționat deja oferta ca furnizor de soluții de răcire și management termic (HVAC) pentru centre de date AI, pe fondul creșterii densității de putere a clusterelor de GPU, care face răcirea convențională tot mai dificilă. O eventuală colaborare cu Nvidia ar plasa LG ca furnizor hardware în ecosistemul Nvidia la nivel de infrastructură, completând stratul de calcul (compute) cu cel de răcire, fără a concura direct cu acesta. Robotică: LG are platformă proprie, Nvidia are „stack”-ul de dezvoltare La CES 2026, LG a prezentat CLOiD, un robot pentru acasă cu două brațe articulate (șapte grade de libertate pe braț) și câte cinci degete acționate individual la fiecare mână, parte din viziunea „Zero Labor Home”, în care roboții și electrocasnicele conectate preiau sarcini casnice. Robotul rulează pe platforma proprie LG, „Affectionate Intelligence”, orientată spre conștientizare contextuală, interacțiune naturală și învățare continuă din mediul de acasă. În schimb, Nvidia vine cu Isaac (platforma sa pentru robotică), care include simulare, modele pre-antrenate pentru manipulare, infrastructură de „geamăn digital” (digital twin) bazată pe Omniverse și calcul pe GPU optimizat pentru inferență în timp real. Integrarea ar putea scurta drumul de la prototip la producție, printr-un flux de dezvoltare–implementare deja validat în industrie. Pentru Nvidia, un partener precum LG ar însemna acces la scară de consum: distribuție de masă, o bază instalată globală de electrocasnice conectate prin ecosistemul ThinQ și un plan explicit de a aduce roboți în locuințe — un mediu bogat în date pentru antrenare (sarcini reale, variabilitate mare). Mobilitate: integrare posibilă între „experiența din cabină” și platforma de calcul Pe mobilitate, discuțiile ar putea lega platforma Nvidia DRIVE (folosită pe scară largă pentru calcul AI în vehicule autonome și semi-autonome) de activitatea LG din componente auto. Divizia LG produce sisteme de infotainment, camere, componente pentru vehicule electrice și soluții AI în mașină (inclusiv urmărirea privirii, afișaje adaptive și platforme generative multimodale). O colaborare ar putea integra stratul de experiență AI din cabină al LG cu platforma de calcul DRIVE a Nvidia. Context: „AI-ul fizic” trece de la teste controlate la parteneriate comerciale Materialul plasează discuțiile în tendința mai largă de accelerare a „AI-ului fizic”, adică trecerea de la modele rulate în cloud la sisteme care operează în lumea reală (roboți, vehicule, logistică). Sunt menționate, ca repere, un trial Siemens–Nvidia într-o fabrică din Erlangen și o rundă de finanțare de 110 milioane de dolari (aprox. 506 milioane lei) atrasă de Sereact pentru scalarea AI-ului care face roboții adaptabili. În acest moment, singura certitudine este existența discuțiilor și ariile vizate; dacă și când se va ajunge la un acord, precum și forma concretă (produse, investiții, termene), rămân neconfirmate. [...]

Noile teste arată că GPT-5.5 ajunge din urmă Mythos Preview la capabilități relevante pentru securitate cibernetică , ceea ce pune sub semnul întrebării argumentul comercial al lansărilor „cu acces limitat” vândute ca măsură de siguranță, potrivit Ars Technica . În evaluarea AISI (instituția nu este detaliată în fragmentul furnizat), rezultatele pentru GPT-5.5 sugerează că Mythos Preview probabil nu a fost „un progres specific unui singur model”, ci mai degrabă un efect al îmbunătățirilor generale în autonomie pe termen lung, raționament și programare — adică exact tipul de evoluții care pot ridica simultan și utilitatea, și riscul în zona de „cyber”. De ce contează pentru companii și piața de securitate Dacă performanța „de vârf” în scenarii de securitate cibernetică nu mai este un diferențiator exclusiv al unui model foarte mediatizat, atunci: justificarea pentru prețuri premium și poziționare bazată pe „pericol” devine mai greu de susținut; presiunea se mută pe guvernanță (cine primește acces, în ce condiții) și pe control operațional, nu pe „unicitatea” tehnologică a unui singur produs; organizațiile care evaluează astfel de modele pentru apărare trebuie să trateze riscul ca fiind mai „generalizat” în generațiile noi de modele, nu ca o excepție. „Marketing bazat pe frică” și accesul limitat, în centrul discuției Într-un interviu recent acordat podcastului Core Memory , Sam Altman, CEO OpenAI, a criticat promovarea lansărilor limitate prin ceea ce el numește „marketing bazat pe frică”. El a comparat retorica din jurul unor modele cu un mesaj de tipul „am construit o bombă” urmat de vânzarea unui „adăpost anti-bombă” pentru 100 de milioane de dolari. „Va exista mult mai multă retorică despre modele prea periculoase pentru a fi lansate. Vor exista și modele foarte periculoase care vor trebui lansate în moduri diferite.” Interviul este disponibil aici: Core Memory . Cum își structurează OpenAI accesul la modelele „cyber” OpenAI a introdus în februarie un program-pilot numit „ Trusted Access for Cyber ”, prin care cercetători în securitate și companii își pot verifica identitatea și își pot înregistra interesul pentru a studia modele de frontieră în scopuri defensive: Trusted Access for Cyber și pagina de verificare: chatgpt.com/cyber . Luna trecută, compania a spus că folosește această listă pentru a controla lansarea limitată a GPT-5.4-Cyber, o variantă „ajustată intenționat” pentru capabilități suplimentare în zona cyber și cu mai puține restricții: OpenAI . Iar joi, Altman a afirmat pe rețele sociale că lansarea inițială a GPT-5.5-Cyber va fi, la rândul ei, limitată „în următoarele zile” la „apărători critici” din zona cyber: X . Ce urmează Pe termen scurt, miza se mută pe criteriile de acces și pe modul în care astfel de programe „cu identitate verificată” vor deveni un standard de piață pentru utilizarea defensivă. În același timp, dacă îmbunătățirile care cresc riscul sunt „mai generale”, cum sugerează AISI, presiunea pentru reguli și proceduri de lansare diferențiate (nu doar pentru un singur model „special”) ar putea crește. Limitarea importantă: fragmentul furnizat nu include detalii despre metodologie, seturi de teste sau scoruri, deci comparația rămâne la nivelul concluziei prezentate. [...]

Meta își consolidează strategia de „platformă” în robotica umanoidă prin achiziția startupului Assured Robot Intelligence (ARI) , într-o mișcare care sugerează că grupul vrea să devină furnizorul „stratului de inteligență” pentru roboți, nu neapărat un producător de hardware, potrivit The Next Web . Tranzacția a fost închisă în aceeași zi în care a fost anunțată, iar termenii financiari nu au fost făcuți publici. Cei doi cofondatori ARI — Lerrel Pinto (fost cofondator Fauna Robotics) și Xiaolong Wang (fost cercetător Nvidia și profesor asociat la UC San Diego) — au intrat în Meta Superintelligence Labs. De ce contează: Meta pariază pe „Android-ul” roboților umanoizi Miza nu este doar o achiziție de talent, ci întărirea unei strategii explicite: Meta vrea să reproducă în robotica umanoidă modelul prin care Android și cipurile Qualcomm au devenit fundația industriei smartphone-urilor. În această logică, Meta ar furniza senzori, software și modele de inteligență artificială (IA) pe care să le poată folosi și producători pe care compania nu îi deține și nu îi controlează. Publicația notează că Meta a lansat anul trecut Meta Robotics Studio , l-a recrutat pe fostul CEO Cruise Marc Whitten pentru a conduce efortul și a început să atragă aproximativ 100 de ingineri pentru a dezvolta atât hardware umanoid intern, cât și modelele IA care îl susțin. CTO-ul Andrew Bosworth a comparat pariul pe roboți umanoizi ca amploare cu cel pe realitate augmentată, domeniu în care Meta a cheltuit deja „zeci de miliarde” prin Reality Labs. Ce aduce ARI: control „whole-body” și senzori tactili Contribuția ARI este descrisă ca un set de capabilități pentru „inteligență robotică” menită să ajute roboții să înțeleagă, să anticipeze și să se adapteze comportamentului uman în medii neorganizate. Practic, este vorba despre: modele de control pentru întregul corp (coordonarea membrelor, echilibru, mișcare), pe baza inputului senzorial în timp real; e-Flesh , un senzor tactil care măsoară deformări în microstructuri imprimabile 3D folosind magneți și magnetometre, într-o zonă pe care sursa o descrie drept una dintre problemele încă nerezolvate ale roboticii umanoide: „simțul tactil”; cercetare relevantă pentru optimizarea și comprimarea modelelor IA , astfel încât să ruleze eficient pe resursele limitate de calcul dintr-un robot, fără a depinde de conexiuni permanente la centre de date. Context: piața se aglomerează, iar Meta alege „al doilea eșalon” The Next Web descrie o piață care a trecut rapid „de la speculativ la competitiv” și enumeră mai mulți jucători și ținte de producție, de la Tesla (Optimus) la 1X, Apptronik, Amazon și Unitree. În acest peisaj, analiza împarte competiția în trei categorii: producători integrați vertical (care proiectează și vând robotul complet), furnizori de platformă (stratul de inteligență/sistemul de operare/componente-cheie), furnizori de componente (cipuri, senzori). Meta se poziționează în categoria a doua, iar sursa notează că o strategie similară este urmărită și de Google, prin programul Gemini Robotics al DeepMind și parteneriatul cu Apptronik. Ce urmează: pariul depinde de cum se structurează industria Diferența față de pariurile anterioare pe hardware este că Meta nu încearcă, în această etapă, să producă hardware la scară mare, ci să ofere „creierul” — modelele, senzorii și stiva software — pentru ca alții să construiască „corpul”. Publicația subliniază însă că modelul „Android” funcționează doar dacă piața ajunge să aibă mulți producători care au nevoie de o platformă comună; dacă industria se consolidează în jurul câtorva jucători integrați vertical, cu IA proprietară, spațiul pentru o platformă neutră se îngustează. În acest cadru, achiziția ARI este prezentată ca o investiție pentru ca, atunci când vor apărea „echivalenții Samsung/Xiaomi” ai roboticii umanoide, să aibă deja la îndemână tehnologia Meta ca opțiune implicită. [...]

Google începe să înlocuiască Google Assistant cu Gemini în mașinile cu „Google built-in”, o schimbare care poate redesena rapid piața interfețelor vocale din auto. Potrivit TechCrunch , compania va începe implementarea asistentului Gemini în vehiculele compatibile, mizând pe interacțiuni mai „conversaționale” și pe integrarea mai profundă a serviciilor sale în experiența de condus. Implementarea vine la scurt timp după ce General Motors a anunțat că Gemini va ajunge la aproximativ 4 milioane de vehicule din anul de model 2022 și mai noi, din mărcile Cadillac, Chevrolet, Buick și GMC. Totuși, anunțul Google nu numește producători auto, ceea ce sugerează că extinderea nu se limitează la flota GM. Cum se face implementarea și cine primește actualizarea Lansarea începe în SUA, cu suport inițial pentru limba engleză, iar disponibilitatea ar urma să se extindă „în lunile următoare”. Un element important operațional: Gemini nu este rezervat doar mașinilor noi, ci va ajunge și pe unele vehicule existente, prin actualizări software, dacă sunt compatibile. Mașinile cu „Google built-in” au fost lansate în 2020, iar Google susține că actualizarea la Gemini schimbă modul în care șoferii interacționează cu mașina, făcând dialogul mai natural. Ce poate face Gemini în mașină Din informațiile prezentate, Gemini va putea acoperi atât funcții de infotainment, cât și comenzi legate de vehicul și comunicare, inclusiv: căutări și recomandări pe traseu (de exemplu, opriri pentru prânz), folosind date din Google Maps, cu întrebări de tip „follow-up” (parcare, meniu, preferințe alimentare); comenzi precum pornirea căldurii; direcții și recomandări de muzică; acces la informații despre vehicul; rezumarea mesajelor primite și ajutor pentru răspuns „hands-free” (fără mâini). Separat, Google introduce și „Gemini Live”, o funcție aflată în beta, pentru conversații mai deschise, în timp real. Aceasta poate fi activată din interfață sau prin comanda vocală „Hey Google, let’s talk”. Ce urmează: limbi, regiuni și integrare mai adâncă în ecosistemul Google Șoferii autentificați în contul Google, în vehicule compatibile, vor primi o opțiune de upgrade; după activare, Gemini poate fi accesat prin comenzi vocale, microfonul de pe ecran sau comenzile de pe volan. Google mai spune că vrea să extindă suportul către mai multe limbi și regiuni și că actualizări viitoare ar urma să aprofundeze integrarea cu servicii precum Gmail, Google Calendar și Google Home. În acest punct, compania nu oferă un calendar detaliat pentru aceste extinderi. [...]