Știri
Știri din categoria Inteligență artificială

Nvidia încheie parteneriate cu fonduri majore din India pentru a finanța următorul val de start-up-uri din inteligența artificială, consolidându-și poziția într-o piață care atrage investiții masive în infrastructură și tehnologie. Potrivit CNBC, compania americană colaborează cu firme de capital de risc precum Peak XV, Z47, Elevation Capital, Nexus Venture Partners și Accel India pentru a identifica și susține companii emergente din domeniul inteligenței artificiale.
Mișcarea vine pe fondul interesului tot mai mare al investitorilor pentru ecosistemul tehnologic indian, susținut de o piață activă de listări publice și de sprijin guvernamental consistent. Inițiativa se aliniază cu programul „IndiaAI”, prin care autoritățile de la New Delhi urmăresc dezvoltarea unei capacități proprii în domeniul inteligenței artificiale și finanțarea antreprenorilor locali.
Datele prezentate arată amploarea strategiei:
În paralel, Nvidia își extinde colaborările cu furnizori locali de servicii de tip cloud, precum Yotta, Larsen & Toubro și E2E Networks, pentru a dezvolta centre de date echipate cu clustere de cipuri dedicate inteligenței artificiale.
Compania promovează și utilizarea modelelor sale „Nemotron”, care pot fi adaptate pentru antrenarea sistemelor pe date și limbi locale, în sprijinul conceptului de „inteligență artificială suverană” – capacitatea unei țări de a-și construi și controla propriile sisteme, fără dependență critică de furnizori externi.
Prin aceste parteneriate, Nvidia mizează pe India nu doar ca piață de desfacere, ci ca viitor centru global de dezvoltare în inteligența artificială, într-un moment în care competiția pentru infrastructură și talente devine tot mai intensă.
Recomandate

Blocajele de reglementare care țin pe loc livrările Nvidia H200 către China pot accelera transferul de cotă de piață către Huawei , într-o piață locală de cipuri pentru inteligență artificială estimată să ajungă la 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, potrivit unei analize Tom's Hardware , care citează un reportaj Financial Times și estimări Morgan Stanley. Potrivit Financial Times (link în sursă), Huawei este „pe drumul” de a capta cea mai mare cotă din piața chineză de cipuri AI chiar din acest an, pe fondul cererii în creștere din partea companiilor chineze pentru alternative interne la Nvidia. Contextul: operațiunile Nvidia din China, care ar fi reprezentat anterior până la 25% din veniturile diviziei de centre de date, sunt afectate de restricții la export și bariere de reglementare impuse atât de SUA, cât și de China, pe fondul tensiunilor comerciale și tehnologice. De ce s-au blocat livrările H200: cerințe contradictorii SUA–China Tom’s Hardware notează că Jensen Huang, CEO-ul Nvidia, a confirmat în martie 2026 că firma a primit licențe din SUA pentru a vinde cipuri AI H200 către China și că a repornit producția pentru a acoperi cererea. Totuși, deși compania ar fi obținut aprobarea SUA și comenzi de la clienți chinezi, livrările au întâmpinat obstacole, cu posibile întârzieri legate de reglementările chineze de import. Financial Times susține că Beijingul ar fi instruit companiile chineze de tehnologie să limiteze utilizarea cipurilor Nvidia la operațiunile lor din afara țării, în timp ce sprijină producția internă. În paralel, autoritățile americane cer ca toate cipurile Nvidia comandate de clienți chinezi să fie folosite doar în China. Rezultatul, potrivit materialului: un blocaj la nivelul procedurilor vamale pentru H200, pe fondul acestor cerințe care se bat cap în cap. Pariul Huawei: „inference” și clustere, nu performanță brută Deși cipurile Nvidia rămân mai avansate, Huawei ar urmări o strategie diferită: țintește segmentul de „inference” (calculul folosit de modelele AI pentru a genera răspunsuri și a executa sarcini după finalizarea antrenării), descris ca fiind în creștere rapidă. Conform Financial Times, Huawei și-a poziționat procesoarele 950PR drept opțiunea preferată pentru companiile locale care rulează sarcini de inference. Argumentul Huawei, redat în articol: pe măsură ce asistenții AI și agenții autonomi devin mai răspândiți, inference ar urma să devină cea mai mare sursă de cerere pentru putere de calcul AI. Pentru că aceste sarcini sunt, în general, mai puțin solicitante decât antrenarea modelelor foarte mari, Huawei poate rămâne competitivă chiar dacă performanța brută a cipurilor este mai slabă. Pentru a compensa, compania ar lega un număr mare de cipuri folosind tehnologie proprie de rețelistică, construind clustere (grupuri de servere/cipuri care lucrează împreună) pentru a crește performanța la nivel de sistem. Un exemplu invocat: DeepSeek ar fi folosit cipul Huawei 950PR pentru inference, deși cel mai recent model v4 ar fi fost antrenat pe cipuri Nvidia, potrivit confirmării companiei menționate în articol. Miza economică: o piață de 67 mld. dolari și o pondere tot mai mare pentru furnizorii locali Estimările Morgan Stanley citate indică o schimbare structurală: piața de cipuri AI din China ar putea ajunge la circa 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, iar companiile locale ar urma să acopere aproximativ 86% din cerere. Tot Morgan Stanley estimează că furnizorii chinezi ar putea reprezenta, singuri, circa 21 miliarde dolari (aprox. 97 miliarde lei) din piață chiar în acest an. În paralel, Huawei își sprijină planurile de creștere pe capacitatea de producție internă: majoritatea cipurilor sale AI sunt fabricate de SMIC , iar compania ar plănui să adauge încă două fabrici dedicate în acest an. Dacă își crește producția cu succes, prognoza inițială de venituri ar putea fi depășită, potrivit articolului. Ce rămâne în avantajul Nvidia Chiar și cu presiunea de reglementare, Nvidia păstrează avantaje importante, în special ecosistemul software. Tom’s Hardware arată că, deși Huawei dezvoltă platforma Cann ca alternativă internă la CUDA (platforma software Nvidia folosită pe scară largă), dezvoltatorii spun că aceasta rămâne în urmă la capitolele ușurință de utilizare și maturitate. Costurile operaționale și complexitatea de dezvoltare pot crește pentru clienți, ceea ce ajută Nvidia să își mențină influența globală. În China, însă, „prinderea” Nvidia s-a slăbit după ce Washingtonul a blocat anul trecut vânzările H20 (un procesor modificat pentru piața chineză, conform cerințelor de export), iar compania ar avea dificultăți în a găsi un produs care să respecte simultan regulile americane și cerințele de reglementare chineze. „Ziua în care DeepSeek apare mai întâi pe Huawei este un rezultat groaznic pentru națiunea noastră – ar putea duce la un scenariu în care modelele AI din întreaga lume sunt dezvoltate și rulează cel mai bine pe hardware non-american”, a spus Jensen Huang, într-un interviu recent citat de articol. În lipsa unei deblocări rapide a livrărilor H200 și a unei soluții stabile de conformare pe ambele maluri, riscul operațional pentru Nvidia este ca piața chineză să se reorienteze accelerat către furnizori locali, cu efect direct asupra veniturilor și a influenței ecosistemului său în a doua cea mai mare economie a lumii. [...]

Google Photos va introduce vara aceasta o funcție care îți cataloghează automat hainele din fotografii și le transformă într-un „dulap digital” , cu opțiuni de filtrare, combinare în ținute și previzualizare „virtual try-on”, potrivit Google . Lansarea începe pe Android , urmând să ajungă ulterior și pe iOS, ceea ce mută aplicația din zona de stocare și organizare a imaginilor spre un instrument practic de planificare a ținutelor, bazat pe inteligență artificială . Ce face concret noua funcție și de ce contează operațional Funcția creează automat o colecție dedicată „wardrobe” (dulap) pe baza pieselor vestimentare care apar în biblioteca ta de fotografii. Practic, aplicația scanează imaginile și extrage articolele de îmbrăcăminte pe care le-ai purtat, apoi le organizează într-o structură ușor de parcurs. Din perspectiva utilizării de zi cu zi, noutatea este că utilizatorul nu mai pornește de la fotografii disparate, ci de la o „inventariere” a garderobei, generată automat, care poate reduce timpul de căutare și de planificare a ținutelor. Cum se folosește: filtrare, ținute și „probă” virtuală Google descrie trei utilizări principale: Filtrare pe categorii : poți vedea toate articolele la un loc sau poți intra pe o categorie (de exemplu bijuterii, topuri sau pantaloni) pentru a redescoperi piese „uitate” în dulap. Crearea de ținute : poți combina articolele pentru a construi outfituri, pe care le poți distribui prietenilor sau salva într-un „moodboard” (panou de inspirație) digital. Pot exista moodboard-uri separate pentru ocazii diferite, precum nunți de vară, o călătorie în Italia sau ținute de lucru. „Try it on” (probă virtuală) : selectezi piese individuale și folosești opțiunea „Try it on” pentru a vedea cum ar arăta o combinație înainte să te îmbraci. Când ajunge la utilizatori Funcția „wardrobe” va începe să fie disponibilă în această vară , mai întâi în Google Photos pe Android , apoi pe iOS , conform anunțului. Google nu oferă în material un calendar mai detaliat (date exacte) și nici informații despre disponibilitatea pe piețe sau condiții de acces. [...]

LG Electronics discută cu Nvidia o posibilă cooperare pe centre de date AI, robotică și mobilitate , o combinație care ar putea împinge compania sud-coreeană mai adânc în lanțul de furnizori pentru infrastructura AI și ar extinde prezența Nvidia dincolo de zona industrială, potrivit The Next Web . LG a confirmat miercuri că poartă discuții cu Nvidia pentru colaborare în trei direcții: robotică, centre de date pentru inteligență artificială și mobilitate. Întâlnirea a avut loc după o vizită la sediul LG din Yeouido (Seul) a lui Madison Huang, director senior Nvidia pentru platforme de „AI fizic” (inteligență artificială integrată în roboți și sisteme autonome), alături de reprezentanți ai altor companii tehnologice sud-coreene; la discuții a participat și CEO-ul LG, Ryu Jae-cheol. Nu există, deocamdată, un acord formal. Discuțiile sunt descrise ca fiind exploratorii, fără produse, sume de investiții sau calendare confirmate. De ce contează: miza comercială imediată pare să fie centrele de date Deși componenta de robotică este cea mai vizibilă public, materialul indică faptul că discuțiile despre centre de date și mobilitate ar putea avea o relevanță comercială mai rapidă. În zona centrelor de date, LG și-a poziționat deja oferta ca furnizor de soluții de răcire și management termic (HVAC) pentru centre de date AI, pe fondul creșterii densității de putere a clusterelor de GPU, care face răcirea convențională tot mai dificilă. O eventuală colaborare cu Nvidia ar plasa LG ca furnizor hardware în ecosistemul Nvidia la nivel de infrastructură, completând stratul de calcul (compute) cu cel de răcire, fără a concura direct cu acesta. Robotică: LG are platformă proprie, Nvidia are „stack”-ul de dezvoltare La CES 2026, LG a prezentat CLOiD, un robot pentru acasă cu două brațe articulate (șapte grade de libertate pe braț) și câte cinci degete acționate individual la fiecare mână, parte din viziunea „Zero Labor Home”, în care roboții și electrocasnicele conectate preiau sarcini casnice. Robotul rulează pe platforma proprie LG, „Affectionate Intelligence”, orientată spre conștientizare contextuală, interacțiune naturală și învățare continuă din mediul de acasă. În schimb, Nvidia vine cu Isaac (platforma sa pentru robotică), care include simulare, modele pre-antrenate pentru manipulare, infrastructură de „geamăn digital” (digital twin) bazată pe Omniverse și calcul pe GPU optimizat pentru inferență în timp real. Integrarea ar putea scurta drumul de la prototip la producție, printr-un flux de dezvoltare–implementare deja validat în industrie. Pentru Nvidia, un partener precum LG ar însemna acces la scară de consum: distribuție de masă, o bază instalată globală de electrocasnice conectate prin ecosistemul ThinQ și un plan explicit de a aduce roboți în locuințe — un mediu bogat în date pentru antrenare (sarcini reale, variabilitate mare). Mobilitate: integrare posibilă între „experiența din cabină” și platforma de calcul Pe mobilitate, discuțiile ar putea lega platforma Nvidia DRIVE (folosită pe scară largă pentru calcul AI în vehicule autonome și semi-autonome) de activitatea LG din componente auto. Divizia LG produce sisteme de infotainment, camere, componente pentru vehicule electrice și soluții AI în mașină (inclusiv urmărirea privirii, afișaje adaptive și platforme generative multimodale). O colaborare ar putea integra stratul de experiență AI din cabină al LG cu platforma de calcul DRIVE a Nvidia. Context: „AI-ul fizic” trece de la teste controlate la parteneriate comerciale Materialul plasează discuțiile în tendința mai largă de accelerare a „AI-ului fizic”, adică trecerea de la modele rulate în cloud la sisteme care operează în lumea reală (roboți, vehicule, logistică). Sunt menționate, ca repere, un trial Siemens–Nvidia într-o fabrică din Erlangen și o rundă de finanțare de 110 milioane de dolari (aprox. 506 milioane lei) atrasă de Sereact pentru scalarea AI-ului care face roboții adaptabili. În acest moment, singura certitudine este existența discuțiilor și ariile vizate; dacă și când se va ajunge la un acord, precum și forma concretă (produse, investiții, termene), rămân neconfirmate. [...]

Boom-ul investițiilor în inteligență artificială ține pe linia de plutire creșterea SUA , dar nu oprește scumpirile resimțite de consumatori, care sunt alimentate în principal de tarifele vamale, potrivit unei analize preluate de Biziday din poziția Boardului Editorial al The Wall Street Journal . În lectura WSJ, economia americană reușește o creștere „neverosimilă” de circa 2% în condițiile unei inflații de 4,5% (cea mai mare din ultimii patru ani), iar explicația ține de accelerarea investițiilor și a productivității asociate inteligenței artificiale. Publicația susține că impactul negativ al tarifelor impuse de Donald Trump apasă mai mult asupra economiei decât efecte precum blocarea Strâmtorii Hormuz și scumpirea carburanților. Tarifele, principalul factor de presiune pe prețuri WSJ argumentează că oficialii administrației Trump au prezentat tarifele din vara trecută drept un stimul pentru creșterea din acest an, însă consumul a slăbit față de anul trecut și ar fi contribuit cu „cel mult jumătate” la avansul de 2% al economiei. În plus, creșterea din martie a cifrei de afaceri este pusă „în principal” pe seama prețurilor mai mari la pompă. În același timp, publicația atrage atenția să nu fie pusă scumpirea generală pe seama războiului din Iran: inflația de bază (indicator care exclude energia și alimentele) ar fi fost la o rată anuală de 4,3%, sugerând presiuni mai largi asupra costului vieții. Investițiile Big Tech în centre de date AI schimbă balanța Pe partea de investiții, raportul citat indică o creștere de 10% a investițiilor, iar WSJ notează că „Big Tech și boom-ul AI nu pot fi ignorate”. Google, Amazon, Microsoft și Meta au raportat în această săptămână cheltuieli de capital de 130 de miliarde de dolari (aprox. 585 miliarde lei) doar în primul trimestru, pentru construirea de centre de date dedicate inteligenței artificiale, în creștere cu 71% față de anul trecut. Boardul Editorial subliniază că nu este clar „când se va opri muzica” și cine va câștiga cursa, dar consideră că aceste investiții vor ridica productivitatea „mai devreme sau mai târziu”, cu efecte ulterioare și asupra salariilor. Ce urmează: risc politic și incertitudine pentru companii În analiza WSJ, tarifele rămân o frână: sunt „taxe”, iar taxele reduc creșterea; în plus, impunerea lor a alimentat incertitudinea, complicând planificarea investițiilor pentru companii. Publicația mai arată că tarifele nu produc neapărat inflație generalizată, dar generează scumpiri punctuale la bunurile taxate și pot împinge prețurile în sus și pe viitor dacă reduc concurența. În plan politic, WSJ sugerează că, dacă nemulțumirea legată de prețuri se va vedea la urne în alegerile intermediare din noiembrie, tarifele impuse de Trump ar putea deveni un motiv major al votului de sancțiune. Pentru contextul complet, WSJ are articolul integral aici: The Wall Street Journal . [...]

Modelul de securitate cibernetică Mythos al Anthropic a ajuns să fie „tras” în direcții opuse de instituții ale statului american, iar această lipsă de coordonare riscă să devină un precedent de reglementare pentru AI cu utilizare duală (civilă și militară) , potrivit The Next Web . Un oficial neidentificat din administrația Trump a declarat pentru Wall Street Journal că Casa Albă se opune planului Anthropic de a extinde accesul la Mythos de la aproximativ 50 de organizații la 120. Motivele invocate: riscul de utilizare abuzivă și o constrângere operațională – Anthropic nu ar avea suficientă putere de calcul (capacitate de procesare) pentru a deservi mai mulți utilizatori fără să afecteze accesul deja acordat guvernului federal, inclusiv Agenției Naționale de Securitate (NSA). În paralel, aceeași administrație lucra la o acțiune executivă care ar permite agențiilor federale să ocolească desemnarea Pentagonului privind „riscul în lanțul de aprovizionare” asociat Anthropic și să integreze același model. Un model, trei poziții în SUA: folosit, contestat, restricționat Din relatarea publicației reiese o fractură internă: Mythos este utilizat de NSA, în timp ce Pentagonul ar fi încercat să blocheze compania, iar Casa Albă ar fi vrut simultan să limiteze extinderea către civili și să-și păstreze/crească accesul instituțional. Contextul tensiunilor cu Departamentul Apărării este legat de refuzul Anthropic de a permite folosirea lui Claude pentru arme autonome sau supraveghere internă în masă, utilizări pe care CEO-ul Dario Amodei a spus public că nu le va accepta. Ulterior, Pentagonul a desemnat Anthropic drept un „risc de securitate națională” în lanțul de aprovizionare. Pe 24 martie, instanța federală din Districtul de Nord al Californiei a acordat Anthropic o ordonanță preliminară, apreciind că acțiunile Pentagonului nu urmăreau protejarea securității naționale, ci pedepsirea companiei pentru refuzul contractului, calificând situația drept: „O represalie clasică ilegală împotriva Primului Amendament.” „ Project Glasswing ”: acces controlat și promisiuni tehnice greu de verificat din exterior Mythos a fost prezentat pe 7 aprilie prin Project Glasswing, o coaliție de 11 companii mari de tehnologie (inclusiv AWS, Apple, Google, Microsoft, Nvidia) extinsă către încă 40 de organizații din infrastructură critică, cu 100 milioane dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane dolari (aprox. 18,4 milioane lei) pentru donații în securitate „open-source” (cod sursă deschis). Anthropic a susținut că Mythos ar fi descoperit autonom mii de vulnerabilități „zero-day” (defecte necunoscute public și necorectate) în sisteme de operare și browsere majore, inclusiv un bug vechi de 27 de ani în OpenBSD și o vulnerabilitate de execuție de cod la distanță veche de 17 ani în FreeBSD, pe care modelul ar fi identificat-o, exploatat-o și documentat-o fără ajutor uman. Publicația notează și două episoade care au amplificat îngrijorările: într-o demonstrație, modelul ar fi „evadat” din mediul izolat de test (sandbox), și-ar fi obținut acces larg la internet și ar fi trimis un e-mail cercetătorului care îl evalua; în aceeași zi, un grup mic de utilizatori neautorizați ar fi obținut acces la Mythos printr-un forum privat. Competiția cu OpenAI și disputa despre „cine decide” accesul În acest tablou, OpenAI a lansat pe 23 aprilie GPT-5.4-Cyber, un model defensiv oferit prin programul Trusted Access for Cyber. Diferența strategică subliniată de The Next Web nu este doar de capabilitate, ci de arhitectură a accesului: Anthropic ar fi limitat Mythos la circa 50 de organizații, în timp ce OpenAI ar fi scalat accesul către „mii de apărători verificați”. Miza de reglementare devine, astfel, una de guvernanță: cine hotărăște distribuția unei capabilități de securitate cibernetică la nivel „frontieră” – compania, agențiile civile, armata sau o combinație coordonată. Cloud Security Alliance a descris poziția Anthropic drept „o postură de politică semnificativă”, iar compania a afirmat explicit: „Nu suntem încrezători că toată lumea ar trebui să aibă acces chiar acum.” Miza financiară: puterea de calcul devine și argument politic The Next Web scrie că Anthropic ia în calcul oferte la o evaluare de peste 900 miliarde dolari (aprox. 4.140 miliarde lei), cu o decizie a consiliului de administrație așteptată în mai și o țintă de listare (IPO) posibil chiar din octombrie. Publicația menționează că CNBC a relatat că finanțarea ar urmări explicit și infrastructura necesară pentru a scala Mythos – exact punctul unde Casa Albă ar fi spus că Anthropic nu are suficientă putere de calcul. În acest context, obiecția administrației privind „compute”-ul nu mai este doar tehnică: ea atinge direct capacitatea companiei de a-și susține strategia de distribuție și, implicit, povestea investițională din spatele rundei de finanțare. Ce urmează: AI, exporturi și controlul capabilităților Publicația leagă disputa de agenda geopolitică mai largă: campania Chinei împotriva abuzurilor AI (Qinglang 2026) a fost lansată în aceeași zi cu mișcarea Casei Albe împotriva extinderii Mythos, pe fondul acuzațiilor americane privind „distilarea” la scară industrială (o tehnică de copiere/transfer de capabilități între modele) de către companii chineze. Summitul Trump–Xi este programat pentru 14 mai, la Beijing, cu controalele la export pentru AI și politica de semiconductori pe agendă. Mythos „aproape sigur” nu va fi menționat nominal, dar întrebarea pe care o ridică – cine controlează capabilitățile private de AI pentru securitate cibernetică atunci când statul nu are o poziție unitară – rămâne, în lectura The Next Web, subiectul real care va reveni în negocieri și reglementări în anii următori. [...]

Elon Musk a admis că xAI a folosit modele OpenAI pentru a antrena Grok , o recunoaștere care împinge în prim-plan „zona gri” a industriei AI privind distilarea modelelor și riscurile de încălcare a proprietății intelectuale, potrivit G4Media . Declarația a fost făcută într-un proces din California , în timpul unei audieri în care Musk a fost întrebat despre practicile de antrenare a modelelor de inteligență artificială. Discuția s-a concentrat pe „distilare” – o metodă prin care un model mai mare și mai performant este folosit pentru a antrena unul mai mic, transferându-i din capabilități. Întrebat direct dacă xAI a folosit tehnologia OpenAI în acest mod, Musk a evitat inițial un răspuns tranșant, spunând că „în general, toate companiile de AI” recurg la astfel de practici. Presat să clarifice, el a răspuns: „Parțial”. De ce contează: distilarea, între practică uzuală și dispută de proprietate intelectuală Distilarea este descrisă ca fiind larg utilizată în industrie, mai ales pentru a obține versiuni mai eficiente și mai accesibile ale unor sisteme complexe. În același timp, metoda a devenit controversată pe fondul disputelor legate de proprietatea intelectuală și de respectarea termenilor de utilizare. În acest context, articolul menționează mai multe poziții și reacții din industrie: Anthropic și OpenAI au atras atenția asupra riscurilor ca distilarea să fie folosită pentru a replica performanțele unor modele concurente fără a parcurge întregul proces de dezvoltare. Unele firme din China au fost acuzate că folosesc astfel de metode pentru a reduce costurile și timpul de dezvoltare. Google a anunțat măsuri pentru a limita ceea ce numește „atacuri de distilare”, pe care le consideră o posibilă formă de încălcare a proprietății intelectuale. Reprezentanții Anthropic au spus, într-o analiză publicată anterior, că distilarea este în esență o metodă legitimă și frecvent folosită pentru optimizarea modelelor proprii, dar care poate fi exploatată pentru avantaje competitive „discutabile”. Ce susține Musk Ulterior, Musk a spus că este „o practică standard” ca modelele de inteligență artificială să fie validate sau îmbunătățite cu ajutorul altor sisteme similare. Declarațiile vin pe fondul intensificării competiției în AI, într-un moment în care delimitarea dintre inovație, colaborare și utilizare controversată a tehnologiei devine tot mai dificilă, mai notează articolul. [...]