Știri
Știri din categoria Inteligență artificială

$193.44
-5.51%
AVGO
$322.17
-7.19%
META
$613.63
-6.61%
MSFT
$395.61
-2.68%
NVDA
$180.27
-3.04%
HG1
$24.40
-6.87%
Giganți din industria tehnologică, printre care AMD, Microsoft, NVIDIA și OpenAI, au anunțat formarea unui consorțiu pentru dezvoltarea unui standard deschis de interconectare optică destinat infrastructurilor AI. Inițiativa poartă numele Optical Compute Interconnect Multi-Source Agreement (OCI MSA) și vizează modul în care vor fi conectate sistemele de calcul din centrele de date care rulează modele de inteligență artificială de mari dimensiuni.

Consorțiul reunește șase membri fondatori: AMD, Broadcom, Meta, Microsoft, NVIDIA și OpenAI. Scopul principal este definirea unei specificații tehnice comune care să permită echipamentelor produse de companii diferite să funcționeze împreună în infrastructurile AI de tip hyperscale.
Creșterea rapidă a dimensiunii clusterelor AI pune presiune pe tehnologiile de interconectare utilizate în prezent în centrele de date. Conexiunile tradiționale pe cupru devin limitate în ceea ce privește lățimea de bandă, consumul energetic și distanța la care pot transmite date.
Prin urmare, consorțiul propune trecerea către interconectări optice, care folosesc fibre și semnale optice pentru a transmite date între procesoare, acceleratoare AI și echipamente de rețea.
Potrivit anunțului, OCI MSA urmărește trei direcții principale:
Prima specificație publicată de consorțiu descrie o interfață optică de aproximativ 200 Gbps, destinată conexiunilor din interiorul centrelor de date. Sistemul utilizează tehnici precum multiplexarea pe lungimi de undă și transmisia bidirecțională pe aceeași fibră, pentru a crește densitatea conexiunilor și eficiența energetică.
Documentul tehnic stabilește și parametri pentru sincronizare, corecția erorilor și funcționarea transceiverelor optice pe distanțe tipice din centrele de date, de până la aproximativ 500 de metri de fibră optică.
Standardele de interconectare sunt considerate critice pentru infrastructura AI deoarece performanța modelelor depinde nu doar de puterea GPU-urilor sau a acceleratoarelor, ci și de viteza cu care acestea pot comunica între ele.
Prin crearea unui standard deschis, companiile implicate încearcă să faciliteze dezvoltarea infrastructurilor AI de mari dimensiuni și să accelereze adoptarea tehnologiilor optice în centrele de date.
Recomandate

Nvidia a investit în Thinking Machines Lab , startupul de inteligență artificială fondat de fosta directoare tehnologică a OpenAI, Mira Murati , într-un parteneriat strategic care prevede utilizarea masivă a cipurilor companiei pentru dezvoltarea unor modele AI de ultimă generație, potrivit informațiilor publicate de The Wall Street Journal . Acordul presupune implementarea a cel puțin un gigawatt de cipuri Nvidia pentru antrenarea și rularea sistemelor de inteligență artificială dezvoltate de Thinking Machines Lab. De asemenea, cele două companii vor colabora pentru a construi infrastructuri dedicate antrenării și implementării modelelor AI la scară foarte mare. Startupul lansat de Mira Murati în februarie 2025 a crescut rapid în industria tehnologică. În iulie 2025, compania a atras 2 miliarde de dolari într-o rundă de finanțare de tip seed , evaluând startupul la aproximativ 12 miliarde de dolari , potrivit datelor publicate de Reuters . Echipa Thinking Machines Lab include mai mulți cercetători importanți din domeniul AI, printre care foști membri ai OpenAI, iar compania lucrează la dezvoltarea unor sisteme multimodale capabile să interacționeze cu utilizatorii prin conversație, imagini și alte forme naturale de comunicare . Investiția face parte din strategia mai amplă a Nvidia de a susține financiar și tehnologic companii care dezvoltă modele de inteligență artificială. Producătorul de cipuri a participat în ultimii ani la finanțări pentru mai multe startupuri majore din domeniu, inclusiv OpenAI, Anthropic, xAI sau Mistral AI. Parteneriatul cu Thinking Machines Lab ar putea folosi noua platformă de hardware Vera Rubin , anunțată de Nvidia pentru 2026, care promite performanțe de inferență mult mai eficiente decât arhitectura actuală Blackwell. [...]

Nvidia pregătește lansarea unui nou cip dedicat inteligenței artificiale , bazat pe tehnologia companiei Groq, anunțul urmând să fie făcut de CEO-ul Jensen Huang la conferința GTC 2026 din San Jose, potrivit Nvidia News . Evenimentul anual GPU Technology Conference (GTC) se desfășoară între 16 și 19 martie 2026 și va reuni peste 30.000 de participanți din peste 190 de țări , fiind unul dintre cele mai importante evenimente globale dedicate tehnologiei AI. În discursul de deschidere, programat luni la ora 11:00 PT , Jensen Huang ar urma să prezinte mai multe inovații majore din portofoliul Nvidia. Un cip nou pentru piața AI Cel mai așteptat anunț este un procesor specializat pentru inferență AI , realizat pe baza tehnologiei startup-ului Groq, companie pe care Nvidia a cumpărat-o în decembrie 2025 pentru aproximativ 20 de miliarde de dolari . Noul sistem ar urma să rezolve una dintre limitările actuale ale infrastructurii Nvidia. GPU-urile companiei sunt extrem de eficiente pentru antrenarea modelelor de inteligență artificială , dar devin mai puțin eficiente în etapa de inferință – procesul prin care modelele AI generează răspunsuri în timp real, precum în cazul asistenților de cod sau al agenților AI. Tehnologia Groq, bazată pe arhitecturi cu memorie SRAM de mare viteză , este optimizată pentru generarea rapidă de „tokeni” – unitățile de bază ale textului produse de modelele AI. Lansarea unei noi platforme Nvidia În paralel, compania este așteptată să prezinte și noua platformă Vera Rubin , succesorul arhitecturii Blackwell utilizate în prezent în centrele de date AI. Noua platformă ar include: GPU Rubin cu aproximativ 336 de miliarde de tranzistori memorie HBM4 de mare viteză CPU Vera bazat pe arhitectură ARM Analiștii estimează că performanța ar putea fi de 3,3 până la 5 ori mai mare decât generația Blackwell în anumite sarcini AI. O strategie mai amplă în ecosistemul AI Pe lângă hardware, Nvidia ar putea prezenta și NemoClaw , o platformă open-source pentru dezvoltarea de agenți AI autonomi. Interesant este că software-ul ar putea funcționa și pe cipurile competitorilor , nu doar pe hardware Nvidia. Compania a discutat deja posibilul proiect cu giganți tehnologici precum: Salesforce Cisco Google Adobe CrowdStrike Totuși, parteneriate oficiale nu au fost confirmate până în prezent. Presiuni geopolitice asupra industriei cipurilor Anunțurile vin într-un moment complicat pentru sectorul semiconductorilor. Exporturile de cipuri AI către China sunt limitate de politica comercială a SUA, care a permis doar livrări condiționate ale procesoarelor H200 , cu plafonarea vânzărilor la jumătate din nivelul pieței interne. În prezent, Nvidia susține că nu mai generează venituri din centre de date din China , pe fondul acestor restricții. CEO-ul Jensen Huang a rezumat miza actuală a industriei AI astfel: „Inteligența artificială nu mai este doar o aplicație sau o descoperire izolată. Ea devine infrastructură esențială pentru fiecare companie și pentru fiecare națiune”. [...]

Sam Altman spune că inteligența artificială ar putea fi vândută „la contor”, precum electricitatea , sugerând un model economic în care utilizatorii plătesc strict pentru cantitatea de „inteligență” consumată. Declarația, făcută la un eveniment major al industriei financiare din SUA, a devenit rapid virală și a relansat dezbaterea despre modul în care va fi controlat și tarifat accesul la tehnologiile AI. Potrivit NDTV Profit , directorul OpenAI a vorbit despre această viziune pe 11 martie 2026, la Infrastructure Summit organizat de BlackRock în Washington. Într-o discuție cu Bayo Ogunlesi, președintele Global Infrastructure Partners, Altman a explicat că inteligența artificială ar putea deveni o infrastructură digitală de bază, accesată la cerere, similar cu apa sau electricitatea. Modelul de funcționare este deja vizibil în industria AI. Companiile care dezvoltă modele mari de limbaj taxează utilizarea în funcție de „tokenuri”, unități care reprezintă textul sau datele procesate de sistem. Acest mecanism permite gestionarea eficientă a resurselor de calcul, mai ales în perioadele de cerere intensă pentru servicii bazate pe inteligență artificială. Altman a subliniat că obiectivul companiei este extinderea masivă a accesului la aceste tehnologii. „Vrem să inundăm lumea cu inteligență. Vrem ca oamenii să o folosească pentru orice”, a spus el, indicând că inteligența artificială ar putea deveni un element central al economiei digitale, de la productivitate personală până la procese industriale complexe. Declarațiile vin într-un context de investiții uriașe în infrastructura AI. Potrivit unei analize publicate de Fortune , companiile din domeniu investesc zeci de miliarde de dolari în centre de date și capacitate de calcul pentru a susține dezvoltarea modelelor avansate. În paralel, OpenAI a atras recent finanțări masive pentru extinderea infrastructurii, inclusiv cu sprijinul unor investitori majori din sectorul tehnologic. Reacțiile din mediul online au fost însă împărțite. Unii utilizatori au comparat ideea cu scenarii distopice din cultura pop, sugerând că „inteligența ca utilitate” ar putea transforma gândirea asistată de AI într-un serviciu plătit permanent. Alții au remarcat că analogia cu electricitatea ar putea implica, pe termen lung, și reglementări stricte din partea statului dacă inteligența artificială devine infrastructură critică. Conceptul nu este nou în discursul lui Altman. În 2025, el declara într-un eveniment economic că industria se apropie de momentul în care va putea oferi „inteligență prea ieftină pentru a fi contorizată”, susținând că prețul procesării AI a scăzut de peste zece ori pe an în ultimii ani, după cum relata Inkl . Totuși, în 2026 discuția capătă o dimensiune diferită, pe fondul costurilor uriașe ale infrastructurii, al consumului de energie și al întrebărilor tot mai frecvente despre cine va controla accesul la această tehnologie. [...]

OpenAI ar urma să integreze generatorul video Sora direct în ChatGPT , extinzând astfel funcțiile platformei cu posibilitatea de a crea videoclipuri cu inteligență artificială, potrivit unui raport citat de Reuters . Informația provine din surse familiarizate cu planurile companiei și indică faptul că instrumentul ar putea fi lansat în curând în interiorul ChatGPT . În prezent, Sora funcționează ca aplicație separată, lansată în 2025, care permite utilizatorilor să genereze videoclipuri AI pornind de la descrieri text. Ce este Sora Sora este un model de inteligență artificială specializat în generarea de videoclipuri pe baza comenzilor text , parte a strategiei OpenAI de dezvoltare a sistemelor multimodale. Prin acest sistem, utilizatorii pot: crea clipuri video generate de AI din descrieri scrise; edita sau genera scene complexe; distribui videoclipurile pe platforme online. Aplicația a fost lansată inițial ca serviciu independent, unde utilizatorii pot crea și publica videoclipuri într-un flux similar rețelelor sociale. Integrarea în ChatGPT Potrivit raportului, OpenAI intenționează să păstreze aplicația Sora separată , însă în același timp să introducă funcția de generare video și în ChatGPT. O astfel de integrare ar transforma ChatGPT într-o platformă mai completă pentru creație digitală, unde utilizatorii ar putea genera: text; imagini; videoclipuri AI. Această mișcare ar intensifica competiția în domeniul AI generativ, unde companii precum Meta și Google dezvoltă propriile tehnologii de creare automată de conținut video. Video generativ – noua frontieră a inteligenței artificiale După succesul modelelor de generare de text și imagini, tehnologia de text-to-video este considerată următorul pas major în evoluția inteligenței artificiale. Specialiștii estimează că astfel de instrumente ar putea avea un impact semnificativ asupra: industriei media; producției video și publicității; conținutului pentru social media. OpenAI nu a confirmat oficial planurile până în acest moment, iar informațiile din raport nu au fost verificate independent. [...]

AMD a extins gama de procesoare Ryzen AI Embedded P100 , destinate aplicațiilor industriale și soluțiilor de inteligență artificială la marginea rețelei (edge AI), anunță compania . Noile procesoare sunt proiectate pentru sisteme care necesită procesare AI în timp real, precum automatizarea industrială, roboții autonomi sau echipamentele de imagistică medicală , și promit o creștere semnificativă a performanței față de generația anterioară. Performanță AI și arhitectură nouă Seria Ryzen AI Embedded P100 integrează mai multe tehnologii pe același cip: 8–12 nuclee CPU bazate pe arhitectura Zen 5 grafică AMD RDNA 3.5 unitate neurală NPU XDNA 2 pentru inferență AI performanță de până la 80 TOPS pentru accelerarea aplicațiilor AI Comparativ cu seria AMD Ryzen Embedded 8000, noile procesoare oferă: până la 2× mai multe nuclee CPU până la 8× mai multă performanță GPU aproximativ 36% creștere a performanței AI la nivel de sistem. Utilizare în industrie, robotică și medicină Procesorul este conceput pentru a rula aplicații AI complexe direct pe dispozitive edge, fără dependență constantă de cloud. Printre scenariile de utilizare menționate de AMD: Automatizare industrială și viziune artificială Sistemele industriale pot integra controlere, camere și interfețe HMI într-un singur computer industrial, capabil să analizeze imagini în timp real și să detecteze anomalii în procesele de producție. Roboți mobili autonomi CPU-ul gestionează navigația și planificarea traseului, în timp ce GPU-ul procesează fluxuri video pentru percepția spațială și modele de tip vision-language-action. Imagistică medicală și analiză clinică Procesoarele pot accelera aplicații precum ecografia 3D, detectarea tumorilor sau analiza imaginilor medicale direct pe echipamentele locale. Ecosistem software și virtualizare AMD oferă suport pentru platforma ROCm , un ecosistem software open-source pentru aplicații AI. Acesta permite dezvoltatorilor să utilizeze framework-uri AI standard și modele optimizate pentru edge fără a rescrie codul. De asemenea, platforma include suport pentru virtualizare cu hypervizorul Xen , compatibil cu Linux, Windows, Ubuntu și sisteme RTOS, facilitând rularea mai multor sarcini critice pe aceeași platformă hardware. Disponibilitate Modelele din serie sunt deja integrate în produse dezvoltate de companii precum Advantech, congatec și Kontron . procesoarele cu 4–6 nuclee intră în producție în trimestrul al doilea din 2026 versiunile cu 8–12 nuclee vor începe producția în iulie 2026 . Extinderea portofoliului face parte din strategia AMD de a dezvolta platforme hardware dedicate aplicațiilor AI industriale și sistemelor edge, unde procesarea locală devine tot mai importantă pentru latență redusă și eficiență energetică. [...]

Modelul AI „Avocado” dezvoltat de Meta ar putea fi amânat , după ce testele interne au arătat că sistemul nu reușește să egaleze performanțele celor mai noi modele create de Google și Anthropic, potrivit Benzinga . Modelul „Avocado” este conceput ca un sistem de inteligență artificială fundamental care ar urma să stea la baza viitoarelor produse AI ale Meta, inclusiv chatboți, instrumente de programare asistată de inteligență artificială și alte aplicații integrate în platformele companiei. În cadrul testelor interne, sistemul a arătat rezultate mai bune decât generațiile anterioare de modele dezvoltate de Meta și chiar a depășit o versiune mai veche a modelului Google Gemini . Cu toate acestea, potrivit unor persoane familiarizate cu proiectul, performanțele sale nu reușesc să ajungă la nivelul celei mai recente versiuni Gemini și nici la cele ale modelelor dezvoltate de compania Anthropic. Din acest motiv, conducerea Meta ar fi decis să își reevalueze calendarul de lansare. Dacă inițial compania plănuia să prezinte modelul în martie 2026, lansarea ar putea fi amânată cel puțin până în luna mai. În paralel, există discuții interne privind posibilitatea ca Meta să licențieze temporar tehnologie bazată pe modelul Gemini al Google pentru a susține anumite produse AI, însă o decizie finală nu a fost anunțată. Întârzierea apare într-un moment în care Meta investește masiv în dezvoltarea inteligenței artificiale, domeniu considerat esențial pentru strategia companiei conduse de Mark Zuckerberg . Pentru anul 2026, Meta estimează cheltuieli de până la 135 de miliarde de dolari pentru infrastructură și dezvoltarea tehnologiilor AI, aproape dublu față de aproximativ 72 de miliarde de dolari investite anul trecut. În paralel cu „Avocado”, compania lucrează și la alte modele aflate în dezvoltare, printre care „Mango”, dedicat generării de imagini și video, și un sistem viitor cu numele de cod „Watermelon”, toate acestea făcând parte din planul Meta de a concura direct cu liderii actuali ai industriei AI. [...]