Știri
Știri din categoria Inteligență artificială

NVIDIA și partenerii săi au deschis ca standard MRC, un protocol care crește reziliența rețelelor pentru antrenarea AI la scară foarte mare, după ce a fost folosit în producție pe infrastructura Spectrum‑X, potrivit NVIDIA. Miza este una operațională: în clustere cu mii de GPU-uri, întreruperile sau congestia de rețea pot încetini ori opri antrenări lungi și costisitoare, iar MRC este proiectat să reducă aceste blocaje prin rutare pe mai multe căi și recuperare rapidă la pierderi de pachete.
MRC (Multipath Reliable Connection) este descris ca un protocol de transport RDMA (Remote Direct Memory Access – tehnologie care permite transferuri de date cu latență mică, ocolind o parte din procesarea clasică a sistemului de operare). Concret, MRC permite ca o singură conexiune RDMA să distribuie traficul pe mai multe rute din rețea, cu efecte urmărite direct în exploatare:
NVIDIA susține că MRC ajută la menținerea unui nivel ridicat de utilizare a GPU-urilor, tocmai prin faptul că „ține” lățimea de bandă necesară pe durata antrenării și reduce timpii morți generați de problemele de rețea.
În arhitectura descrisă, MRC folosește mecanisme care vizează două tipuri de incidente frecvente la scară mare: congestia și pierderile de date.
Pe congestie, protocolul ar evita dinamic rutele supraîncărcate „în timp real”, pentru a susține lățime de bandă ridicată chiar și când rețeaua este aglomerată. La pierderi de date, NVIDIA indică o retransmisie „rapidă și precisă”, menită să limiteze efectul întreruperilor scurte asupra joburilor de lungă durată.
Un element cheie este „failure bypass”: tehnologia ar detecta o cădere de rută și ar reruta traficul automat, în hardware, „în doar microsecunde” — un detaliu relevant pentru antrenarea distribuită, unde sincronizarea între mii de GPU-uri este sensibilă la întreruperi.
NVIDIA indică drept utilizatori ai Spectrum‑X Ethernet (în acest context) OpenAI, Microsoft și Oracle. În plus, compania afirmă că centrele de date Microsoft Fairwater și Oracle Cloud Infrastructure (OCI) Abilene se bazează pe MRC pentru cerințe de performanță, scalare și eficiență.
Un punct cu impact de industrie este că MRC, după utilizarea în producție cu performanță optimizată pe hardware Spectrum‑X, a fost „lansat ca specificație deschisă” prin Open Compute Project (OCP) — o mișcare care, în mod tipic, facilitează adoptarea mai largă și interoperabilitatea între furnizori.
NVIDIA mai precizează că a colaborat la dezvoltarea MRC cu AMD, Broadcom, Intel, Microsoft și OpenAI.
„Implementarea MRC în generația Blackwell a avut mult succes și a fost posibilă datorită unei colaborări puternice cu NVIDIA”, a declarat Sachin Katti, șeful diviziei de industrial compute la OpenAI. „Abordarea end‑to‑end a MRC ne-a permis să evităm o mare parte din încetinirile și întreruperile tipice legate de rețea și să menținem eficiența antrenărilor de frontieră la scară.”
Pe Spectrum‑X Ethernet, clienții ar avea opțiuni de modele de transport RDMA: atât Adaptive RDMA, cât și MRC, plus alte protocoale personalizate, care rulează nativ pe NVIDIA ConnectX SuperNICs și switch-urile Spectrum‑X și susțin designuri de rețea „multiplanar”.
În această arhitectură, o rețea multiplanară înseamnă mai multe „plane” (fabrice) independente, fiecare oferind rute alternative între GPU-uri. NVIDIA afirmă că funcția Spectrum‑X Multiplane adaugă echilibrare de sarcină accelerată în hardware între plane, pentru reziliență și scalare, menținând latențe predictibile și permițând extinderea la „sute de mii de GPU-uri”.
Pentru piață, mesajul operațional este că, pe măsură ce infrastructura de antrenare AI crește, diferențiatorul nu mai este doar viteza brută, ci capacitatea rețelei de a evita congestia și de a „supraviețui” defectelor fără a opri joburile — iar standardizarea deschisă a MRC urmărește să transforme aceste mecanisme într-o practică mai ușor de adoptat la scară.
Recomandate

NVIDIA spune că a început deja să obțină câștiguri măsurabile de productivitate după ce a pus la dispoziția angajaților aplicația Codex de la OpenAI , alimentată de noul model GPT‑5.5 și rulată pe sisteme NVIDIA GB200 NVL72 , potrivit NVIDIA Blog . Miza, dincolo de „lansare”, este una operațională: compania descrie scurtarea ciclurilor de depanare și accelerarea livrării de funcționalități în proiecte complexe, pe fondul unor costuri și performanțe de inferență (rulare a modelului) pe care le consideră viabile la scară de întreprindere. În material, NVIDIA afirmă că peste 10.000 de angajați din arii precum inginerie, produs, juridic, marketing, finanțe, vânzări, HR, operațiuni și programe pentru dezvoltatori folosesc deja Codex cu GPT‑5.5. Inginerii ar fi avut acces „de câteva săptămâni”, iar compania susține că efectele se văd în timpii de lucru: cicluri de debugging care „se întindeau pe zile” s-ar închide acum „în ore”, iar experimente care necesitau „săptămâni” ar ajunge la progres „peste noapte” în baze de cod complexe, cu mai multe fișiere. De ce contează: productivitate internă, susținută de infrastructură și costuri de inferență NVIDIA leagă aceste rezultate de rularea pe GB200 NVL72, despre care spune că poate livra „de 35 de ori” cost mai mic per milion de tokeni și „de 50 de ori” mai mult output de tokeni pe secundă per megawatt față de generația anterioară. În interpretarea companiei, această „economie” ar face inferența pentru modele de vârf fezabilă la scară enterprise, adică suficient de ieftină și eficientă energetic pentru utilizare pe scară largă în organizații. Compania mai susține că echipele pot livra funcționalități „end-to-end” pornind de la prompturi în limbaj natural, cu fiabilitate mai bună și mai puține cicluri irosite decât la modele anterioare, fără a detalia însă indicatori cantitativi interni (de tip ore economisite, costuri sau rate de defecte). Cum a fost „împachetat” pentru medii corporate: VM-uri, audit și acces limitat Un element central al implementării descrise este controlul asupra datelor și al accesului. Codex ar suporta conexiuni SSH (Secure Shell) la mașini virtuale (VM) aprobate în cloud, astfel încât agenții să lucreze cu date reale ale companiei fără expunere externă, potrivit NVIDIA. Pentru „securitate și auditabilitate”, NVIDIA IT ar fi livrat câte o mașină virtuală în cloud pentru fiecare angajat, ca „sandbox” dedicat. Implementarea ar include: politică de „zero data retention” (fără păstrarea datelor), acces la sisteme de producție în regim „read-only” (doar citire) prin interfețe de linie de comandă și „Skills” (un set de unelte pentru agenți, folosite și în automatizările interne ale companiei). Context: colaborarea NVIDIA–OpenAI și dimensiunea infrastructurii NVIDIA plasează rollout-ul GPT‑5.5/Codex într-un parteneriat cu OpenAI început în 2016, când Jensen Huang ar fi livrat personal primul supercomputer NVIDIA DGX‑1 la sediul OpenAI din San Francisco. Compania mai afirmă că OpenAI s-a angajat să implementeze „peste 10 gigawați” de sisteme NVIDIA pentru infrastructura sa de generație următoare, o extindere care „va pune milioane de GPU-uri NVIDIA” la baza antrenării și inferenței pentru anii următori. În același context, NVIDIA menționează un „milestone” comun: aducerea în funcțiune a „primului cluster GB200 NVL72 cu 100.000 de GPU-uri”, despre care spune că a rulat antrenări la scară mare și a stabilit un nou reper de fiabilitate la nivel de sistem. Într-un e-mail intern citat de companie, CEO-ul Jensen Huang le-ar fi cerut angajaților să folosească Codex: „Să trecem la viteza luminii. Bine ați venit în era AI.” Pentru detalii despre model, NVIDIA trimite la anunțul OpenAI: OpenAI . [...]

Jensen Huang spune că AI declanșează „cea mai mare construcție de infrastructură tehnologică” și împinge economia spre reindustrializare. Într-un discurs la ceremonia de absolvire a Carnegie Mellon University , CEO-ul NVIDIA a descris, potrivit NVIDIA , inteligența artificială drept motorul unei transformări care va schimba „fiecare industrie”, cu efecte directe asupra investițiilor în infrastructură și asupra modului în care se organizează munca. Huang a tras o paralelă între începutul carierei sale în perioada „revoluției PC” și momentul actual, pe care îl numește începutul „revoluției AI”. Mesajul central: schimbarea de platformă tehnologică este mai amplă decât cele anterioare (PC, internet, mobil, cloud) deoarece „inteligența” este „fundamentală” pentru toate domeniile economiei. De ce contează: AI ca val de investiții și reorganizare a muncii În discurs, Huang a susținut că AI alimentează „cea mai mare extindere a infrastructurii tehnologice din istoria omenirii” și o „oportunitate o dată pe generație” de a „reindustrializa America” și de a reconstrui capacitatea țării „de a produce/ a construi”. El a extins impactul dincolo de sectorul tehnologic, indicând că beneficiile și cererea de competențe vor apărea într-o plajă largă de ocupații, inclusiv în meserii și roluri operaționale precum electricieni, instalatori, muncitori în construcții metalice, tehnicieni și „toate tipurile de constructori”. Automatizare vs. valoare adăugată: cum descrie NVIDIA efectul asupra joburilor Huang a argumentat că AI „automatizează sarcini, dar ridică nivelul lucrătorilor”, insistând asupra diferenței dintre „sarcină” și „scopul” unei profesii. Exemplul folosit a fost radiologia: AI poate automatiza citirea imaginilor (sarcina), dar rolul medicului rămâne îngrijirea pacientului (scopul), ceea ce ar muta accentul spre activități cu valoare mai mare. Reguli și responsabilitate: „siguranța” AI, în paralel cu avansul tehnologic O parte importantă a mesajului a vizat riscurile și guvernanța (setul de reguli și mecanisme de control) pentru AI. Huang a spus că „responsabilitatea generației noastre” este să avanseze AI „înțelept” și a cerut ca dezvoltarea capabilităților să meargă împreună cu „siguranța AI”. În același timp, a atribuit un rol explicit decidenților publici, care ar trebui să creeze „balize/limite” („guardrails”) pentru protecția societății, fără a bloca inovația. Recomandarea lui pentru a „răspunde momentului” a fost un set de patru direcții urmărite simultan: avans „în siguranță”; politici „gândite”; acces larg la AI; încurajarea implicării cât mai multor oameni. Context: discurs la Carnegie Mellon și recunoaștere academică Discursul a fost ținut duminică, la ceremonia de absolvire (a 128-a) a Carnegie Mellon University, în Pittsburgh, Pennsylvania. Huang a amintit rolul universității în istoria AI și roboticii și a primit titlul onorific de Doctor în Știință și Tehnologie, una dintre distincțiile majore ale instituției. În final, el a îndemnat absolvenții să se implice activ în modelarea direcției tehnologiei, avertizând că retragerea societății din fața tehnologiei nu oprește progresul, ci reduce capacitatea de a-i influența efectele. [...]

Marile companii tech își reduc personalul ca să elibereze bugete pentru investițiile în AI , într-un context în care costurile cu infrastructura (centre de date, procesoare grafice și alte echipamente) cresc rapid, potrivit Mobilissimo . Ideea centrală: disponibilizările sunt prezentate mai degrabă ca o decizie de finanțare și reechilibrare a cheltuielilor, nu ca efect direct al înlocuirii angajaților cu inteligență artificială. Meta : concedieri și cheltuieli de capital în creștere În cazul Meta, compania ar urma să elimine aproximativ 8.000 de locuri de muncă pe 20 mai 2026, pe fondul accelerării investițiilor în infrastructura necesară dezvoltării AI. Într-o întâlnire internă de la finalul lunii aprilie, Mark Zuckerberg le-ar fi transmis angajaților că presiunea vine din nevoia de a echilibra bugetul, în condițiile „exploziei” cheltuielilor pentru AI. Meta și-a majorat estimările privind cheltuielile de capital pentru 2026 la 125–145 de miliarde de dolari (aprox. 563–653 mld. lei). „Salariile sunt printre puținele costuri ajustabile rapid” Potrivit materialului, dezbaterea a fost amplificată de un schimb de poziții în care cofondatorul Zoho, Sridhar Vembu, comentează un mesaj al inginerului Meta Arnav Gupta despre viitoare concedieri. Vembu susține că firmele tehnologice reduc personalul deoarece salariile sunt una dintre puținele categorii de costuri care pot fi ajustate rapid. Totodată, el pune sub semnul întrebării eficiența economică a investițiilor masive în AI, argumentând că industria nu a demonstrat încă faptul că aceste cheltuieli se traduc în productivitate și venituri proporționale. Amploarea restructurărilor: date pentru T1 2026 Datele citate de The Kobeissi Letter indică o accelerare puternică a concedierilor în sectorul tehnologic: Concedieri în T1 2026: 81.747 Creștere față de T4 2025: 580% Posturi eliminate în martie 2026: 45.800 Nivelul concedierilor: cel mai ridicat din ultimii peste doi ani Nu e doar Meta: Oracle și alți jucători Fenomenul ar depăși cazul Meta. Oracle ar fi eliminat până la 30.000 de locuri de muncă pentru a elibera între 8 și 10 miliarde de dolari anual (aprox. 36–45 mld. lei) destinați extinderii infrastructurii AI, potrivit TD Cowen. În același context sunt menționate restructurări și la Amazon, Microsoft, Coinbase și Block, în paralel cu majorarea investițiilor în inteligență artificială. Arnav Gupta avertizează că disponibilizările ar putea continua până când companiile vor reuși să transforme investițiile în AI în venituri măsurabile și profit, nu doar în infrastructură costisitoare. [...]

Apple își ține cheltuielile de capital departe de „cursa AI” și preferă să-și conserve marjele și randamentele pentru acționari, într-un moment în care rivalii direcționează sume uriașe către infrastructură de inteligență artificială, potrivit G4Media . În timp ce Microsoft, Amazon, Meta și Alphabet își cresc masiv investițiile pentru modele AI și centre de date, Apple rămâne singurul gigant tech care nu a intrat „agresiv” în această competiție, arată Il Post, citat de Mediafax. Conform estimărilor menționate, Alphabet, Amazon, Microsoft și Meta ar urma să investească împreună aproximativ 700 de miliarde de dolari (aprox. 3.150 miliarde lei) în acest an în infrastructură AI și data center-e. Reducerea capex și dependența parțială de parteneri În contrast cu trendul din industrie, Apple și-a redus cu 36% cheltuielile de capital în ultimul an, potrivit aceleiași surse. Compania ar fi ales să nu dezvolte pe scară largă propriile modele lingvistice și nici infrastructura necesară pentru antrenarea lor. În plus, „ Apple Intelligence ”, lansată în 2024, se bazează parțial pe tehnologia OpenAI, iar Apple a anunțat recent și un acord cu Google pentru integrarea modelului Gemini în Siri și alte servicii. Miza economică: hardware și răscumpărări de acțiuni G4Media notează că Apple își bazează în continuare modelul de business în principal pe vânzarea de hardware, în special iPhone și Mac, mizând că utilizatorii vor accesa servicii AI prin dispozitivele sale indiferent cine furnizează tehnologia din spate. Strategia „funcționează, cel puțin deocamdată”, în contextul în care Apple a raportat recent o creștere anuală de 17% a vânzărilor nete, susținută inclusiv de succesul noului MacBook Neo. Tim Cook a declarat că „cererea a fost extrem de mare”, iar G4Media menționează că acesta urmează să fie înlocuit în septembrie de John Ternus . Pe partea de alocare a capitalului, Apple continuă programul de răscumpărare a propriilor acțiuni și a anunțat un nou buyback de 100 de miliarde de dolari (aprox. 450 miliarde lei), o practică folosită de peste un deceniu pentru a crește valoarea acțiunilor și randamentele pentru investitori. Ce riscă și ce ar putea urma Potrivit materialului, o parte dintre analiști văd în această prudență o evitare a riscului unei posibile bule speculative în jurul AI, în condițiile în care investițiile sunt foarte costisitoare, iar GPU-urile (plăci grafice specializate pentru calcule) își pot pierde rapid valoarea, uneori în mai puțin de doi ani. Pe de altă parte, există avertismente că Apple ar putea repeta erori strategice ale unor foști giganți precum Nokia sau Motorola, care nu au anticipat revoluția smartphone-urilor și au fost depășiți. G4Media mai arată că, potrivit unor informații apărute în presa americană, Apple lucrează la dispozitive noi pentru „era AI”, inclusiv ochelari inteligenți și dispozitive purtabile, pe o piață unde competiția se intensifică (OpenAI cu Jony Ive, respectiv Meta cu ochelari smart împreună cu EssilorLuxottica). Sub viitorul CEO John Ternus, compania ar putea totuși să-și ajusteze strategia, în condițiile în care a raportat deja o creștere a cheltuielilor de cercetare-dezvoltare de la 8,5 la 11,4 miliarde de dolari (aprox. 38,3–51,3 miliarde lei) într-un singur an, pe fondul proiectelor legate de inteligența artificială. [...]

OpenAI mută ChatGPT mai aproape de standardele IT din companii și școli , printr-o versiune separată pentru iPhone care permite administrare centralizată și reguli de securitate, potrivit Antena 3 . Noua aplicație, „ ChatGPT for Intune ”, țintește organizațiile care folosesc sisteme de management al dispozitivelor mobile și vor control mai strict asupra aplicațiilor instalate pe telefoane și tablete. Aplicația este disponibilă separat în App Store și este compatibilă cu dispozitive care rulează iOS 17 sau versiuni mai noi. Miza este una operațională: utilizarea instrumentelor de inteligență artificială în medii unde administrarea centralizată a dispozitivelor este o cerință, nu o opțiune. Integrarea cu Microsoft Intune : control IT asupra accesului și datelor Versiunea este construită să funcționeze cu Microsoft Intune, platformă folosită de organizații pentru gestionarea aplicațiilor, a securității și a datelor de pe dispozitivele angajaților. În acest cadru, administratorii IT pot impune reguli privind utilizarea aplicației, inclusiv pe zona de autentificare, acces și gestionarea datelor, cu obiectivul de a reduce riscurile pentru informațiile sensibile. Funcționalitățile rămân, dar în „regim” administrat Deși este adaptată pentru mediul corporate, aplicația păstrează funcțiile versiunii obișnuite de ChatGPT, inclusiv: generare de texte (de exemplu, e-mailuri și rapoarte); analiză de documente sau imagini; creare de conținut pe baza comenzilor scrise; interacțiune vocală; explicații pas cu pas și suport pentru învățare. De ce contează pentru companii și educație Antena 3 notează că lansarea se înscrie într-o tendință mai amplă: integrarea inteligenței artificiale în medii de lucru controlate, cu accent pe securitate și confidențialitate. În paralel, sunt menționate și mișcări similare din industrie, precum integrarea Copilot în Microsoft 365 și dezvoltarea de soluții prin Gemini pentru Workspace, de către Google. Pentru școli și universități, logica este similară: instituțiile care folosesc deja sisteme de administrare a dispozitivelor pot introduce utilizarea AI într-un mod supravegheat, astfel încât profesorii să permită accesul la instrumente, păstrând controlul asupra modului în care sunt folosite. Un semnal de maturizare: ChatGPT intră în infrastructura organizațiilor Dincolo de lansarea în sine, schimbarea importantă este direcția: ChatGPT este împins către integrarea în infrastructura digitală a organizațiilor, unde controlul și securitatea devin criterii la fel de importante ca funcționalitatea. Potrivit sursei, dacă până acum creșterea a fost alimentată în principal de utilizatorii individuali, orientarea viitoare pare tot mai mult către utilizarea în companii și instituții. [...]

Guvernul SUA își extinde controlul asupra AI prin testare înainte de lansare , după ce Google, Microsoft și xAI au acceptat ca modelele lor să fie evaluate de autorități înainte de a ajunge la public, potrivit Mediafax , care citează Euronews. Miza este reducerea riscurilor de securitate națională asociate noilor sisteme de inteligență artificială. Evaluările vor fi coordonate de CAISI , care va analiza riscuri precum securitatea cibernetică, biosecuritatea și posibile utilizări în dezvoltarea armelor chimice. Instituția spune că testarea va include teste tehnice, cercetare comună și elaborarea unor bune practici pentru dezvoltarea modelelor comerciale. „Măsurătorile independente și riguroase sunt esențiale pentru a înțelege impactul AI asupra securității naționale”, a declarat directorul CAISI, Chris Fall. Ce se schimbă pentru companii: verificări înainte de lansare Pentru industria tech, acordul introduce un filtru suplimentar înainte de lansarea publică a unor modele avansate, într-un moment în care autoritățile americane tratează tot mai explicit AI ca pe o tehnologie cu implicații strategice și militare, pe fondul competiției dintre SUA și China. Microsoft a transmis că evaluările guvernamentale ar urma să ajute compania să identifice mai devreme riscurile asociate platformei Copilot, inclusiv posibile atacuri cibernetice bazate pe AI. În paralel, OpenAI a confirmat că a furnizat guvernului american modelul ChatGPT5.5 înainte de lansarea publică, pentru testare de securitate națională. Compania dezvoltă și GPT-5.5-Cyber, un model specializat în apărare cibernetică, destinat unui grup restrâns de utilizatori instituționali. Context politic: o nuanțare a discursului anti-reglementare Decizia este prezentată ca o schimbare de ton în administrația Donald Trump , care a susținut în repetate rânduri că reglementările excesive pot încetini inovația și pot oferi Chinei un avantaj strategic. În martie, Casa Albă a prezentat un nou cadru național privind inteligența artificială, care prevede accelerarea adoptării AI și eliminarea obstacolelor birocratice pentru industrie, dar exclude crearea unei noi agenții federale dedicate exclusiv reglementării AI. Cât s-a testat deja și ce rămâne neclar CAISI afirmă că a realizat până acum aproximativ 40 de evaluări pentru modele AI, inclusiv pentru sisteme de ultimă generație care nu au fost încă lansate public. Autoritățile americane nu au precizat însă ce modele au fost testate și nici ce modificări au fost negociate în noile acorduri cu industria. [...]