Știri
Știri din categoria Inteligență artificială

Cota Nvidia pe piața chineză de acceleratoare AI a coborât la 0%, iar controlul exporturilor impus de SUA „a produs în mare măsură efecte inverse”, a declarat CEO-ul Jensen Huang într-un interviu acordat Special Competitive Studies Project (SCSP), potrivit iTHome. El a precizat că se referă la vânzările directe ale Nvidia către clienți din China.
Declarația are miză operațională și economică: pierderea accesului la o piață de dimensiunea Chinei nu este, în viziunea lui Huang, o decizie „rezonabilă strategic”, iar politicile ar trebui „ajustate dinamic” pentru a rămâne relevante. În același context, el a susținut că menținerea companiilor americane de cipuri și a altor firme americane pe piața chineză „are mult sens”.
Anterior, firma de analiză Bernstein estimase că Nvidia ar putea vedea o scădere a cotei pe piața chineză de GPU-uri pentru AI de la 66% în 2024 la aproximativ 8% în următorii ani. Potrivit lui Huang, declinul a fost însă „mai sever” decât se anticipa, ajungând la 0% pentru segmentul de vânzări directe către clienți din China.
CEO-ul Nvidia a mai spus că, și în absența GPU-urilor avansate pentru AI dezvoltate în SUA și a „stivei” software aferente (adică ansamblul de instrumente și biblioteci necesare dezvoltării), China rămâne un competitor important în zona modelelor AI de vârf.
În argumentația sa, Huang a indicat câteva avantaje structurale ale Chinei:
În același timp, el a remarcat că dezvoltatorii chinezi folosesc tot mai mult hardware local, însă pe partea de software „șanțul de apărare” al CUDA (ecosistemul Nvidia pentru programarea pe GPU) rămâne, deocamdată, o zonă în care tehnologia americană păstrează un avantaj, iar companiile locale nu au recuperat complet.
Huang a avertizat că „narațiunile despre amenințări” și controalele la export pot încetini, la nivel mai larg, implementarea AI, în timp ce alte regiuni – inclusiv China – ar adopta mai agresiv AI ca instrument economic. În opinia sa, leadershipul pe termen lung nu ar trebui să se bazeze pe limitarea competitorilor globali, ci pe consolidarea dominației ecosistemului american de AI la nivel mondial.
Recomandate

Blocajele de reglementare care țin pe loc livrările Nvidia H200 către China pot accelera transferul de cotă de piață către Huawei , într-o piață locală de cipuri pentru inteligență artificială estimată să ajungă la 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, potrivit unei analize Tom's Hardware , care citează un reportaj Financial Times și estimări Morgan Stanley. Potrivit Financial Times (link în sursă), Huawei este „pe drumul” de a capta cea mai mare cotă din piața chineză de cipuri AI chiar din acest an, pe fondul cererii în creștere din partea companiilor chineze pentru alternative interne la Nvidia. Contextul: operațiunile Nvidia din China, care ar fi reprezentat anterior până la 25% din veniturile diviziei de centre de date, sunt afectate de restricții la export și bariere de reglementare impuse atât de SUA, cât și de China, pe fondul tensiunilor comerciale și tehnologice. De ce s-au blocat livrările H200: cerințe contradictorii SUA–China Tom’s Hardware notează că Jensen Huang, CEO-ul Nvidia, a confirmat în martie 2026 că firma a primit licențe din SUA pentru a vinde cipuri AI H200 către China și că a repornit producția pentru a acoperi cererea. Totuși, deși compania ar fi obținut aprobarea SUA și comenzi de la clienți chinezi, livrările au întâmpinat obstacole, cu posibile întârzieri legate de reglementările chineze de import. Financial Times susține că Beijingul ar fi instruit companiile chineze de tehnologie să limiteze utilizarea cipurilor Nvidia la operațiunile lor din afara țării, în timp ce sprijină producția internă. În paralel, autoritățile americane cer ca toate cipurile Nvidia comandate de clienți chinezi să fie folosite doar în China. Rezultatul, potrivit materialului: un blocaj la nivelul procedurilor vamale pentru H200, pe fondul acestor cerințe care se bat cap în cap. Pariul Huawei: „inference” și clustere, nu performanță brută Deși cipurile Nvidia rămân mai avansate, Huawei ar urmări o strategie diferită: țintește segmentul de „inference” (calculul folosit de modelele AI pentru a genera răspunsuri și a executa sarcini după finalizarea antrenării), descris ca fiind în creștere rapidă. Conform Financial Times, Huawei și-a poziționat procesoarele 950PR drept opțiunea preferată pentru companiile locale care rulează sarcini de inference. Argumentul Huawei, redat în articol: pe măsură ce asistenții AI și agenții autonomi devin mai răspândiți, inference ar urma să devină cea mai mare sursă de cerere pentru putere de calcul AI. Pentru că aceste sarcini sunt, în general, mai puțin solicitante decât antrenarea modelelor foarte mari, Huawei poate rămâne competitivă chiar dacă performanța brută a cipurilor este mai slabă. Pentru a compensa, compania ar lega un număr mare de cipuri folosind tehnologie proprie de rețelistică, construind clustere (grupuri de servere/cipuri care lucrează împreună) pentru a crește performanța la nivel de sistem. Un exemplu invocat: DeepSeek ar fi folosit cipul Huawei 950PR pentru inference, deși cel mai recent model v4 ar fi fost antrenat pe cipuri Nvidia, potrivit confirmării companiei menționate în articol. Miza economică: o piață de 67 mld. dolari și o pondere tot mai mare pentru furnizorii locali Estimările Morgan Stanley citate indică o schimbare structurală: piața de cipuri AI din China ar putea ajunge la circa 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, iar companiile locale ar urma să acopere aproximativ 86% din cerere. Tot Morgan Stanley estimează că furnizorii chinezi ar putea reprezenta, singuri, circa 21 miliarde dolari (aprox. 97 miliarde lei) din piață chiar în acest an. În paralel, Huawei își sprijină planurile de creștere pe capacitatea de producție internă: majoritatea cipurilor sale AI sunt fabricate de SMIC , iar compania ar plănui să adauge încă două fabrici dedicate în acest an. Dacă își crește producția cu succes, prognoza inițială de venituri ar putea fi depășită, potrivit articolului. Ce rămâne în avantajul Nvidia Chiar și cu presiunea de reglementare, Nvidia păstrează avantaje importante, în special ecosistemul software. Tom’s Hardware arată că, deși Huawei dezvoltă platforma Cann ca alternativă internă la CUDA (platforma software Nvidia folosită pe scară largă), dezvoltatorii spun că aceasta rămâne în urmă la capitolele ușurință de utilizare și maturitate. Costurile operaționale și complexitatea de dezvoltare pot crește pentru clienți, ceea ce ajută Nvidia să își mențină influența globală. În China, însă, „prinderea” Nvidia s-a slăbit după ce Washingtonul a blocat anul trecut vânzările H20 (un procesor modificat pentru piața chineză, conform cerințelor de export), iar compania ar avea dificultăți în a găsi un produs care să respecte simultan regulile americane și cerințele de reglementare chineze. „Ziua în care DeepSeek apare mai întâi pe Huawei este un rezultat groaznic pentru națiunea noastră – ar putea duce la un scenariu în care modelele AI din întreaga lume sunt dezvoltate și rulează cel mai bine pe hardware non-american”, a spus Jensen Huang, într-un interviu recent citat de articol. În lipsa unei deblocări rapide a livrărilor H200 și a unei soluții stabile de conformare pe ambele maluri, riscul operațional pentru Nvidia este ca piața chineză să se reorienteze accelerat către furnizori locali, cu efect direct asupra veniturilor și a influenței ecosistemului său în a doua cea mai mare economie a lumii. [...]

O hotărâre a Tribunalului Intermediar al Poporului din Hangzhou limitează concedierile motivate de automatizare , stabilind că firmele nu pot da afară angajați doar ca să îi înlocuiască cu inteligență artificială pentru reducerea costurilor, potrivit G4Media . Decizia este prezentată ca un reper pentru protecția muncii într-un context de adoptare accelerată a tehnologiilor AI. Instanța a menținut concluziile anterioare într-un caz în care o companie de tehnologie a concediat ilegal un angajat cu funcție superioară după ce a introdus sisteme de inteligență artificială care îi preluau atribuțiile. Cazul a fost publicat într-un set de exemple juridice-model înaintea Zilei Internaționale a Muncii, ceea ce îi amplifică relevanța pentru practica judiciară și pentru companii. Ce a decis instanța și de ce contează pentru companii Litigiul a vizat un angajat identificat drept Zhou, angajat în 2022 ca supervizor de asigurare a calității. Rolul lui era să supravegheze rezultatele generate de „ modele lingvistice mari ” (sisteme AI care generează text) și să se asigure că sunt respectate standardele privind datele și conținutul. Pe măsură ce firma a automatizat tot mai mult procesele, lui Zhou i s-a propus un post mai prost plătit, cu responsabilități mult reduse. După ce a refuzat reîncadrarea, a fost concediat și i s-a oferit o compensație, contestată ulterior prin arbitraj. Autoritățile au constatat că justificarea companiei – o restructurare organizațională determinată de adoptarea AI – nu îndeplinea pragul legal necesar pentru concediere în baza legislației muncii din China. Instanțele au concluzionat că înlocuirea unui lucrător cu AI nu este, în sine, o „schimbare majoră a circumstanțelor obiective” (precum relocarea sau fuziunea) și nu poate fi folosită ca temei pentru încetarea contractului. De asemenea, rolul alternativ oferit a fost considerat nerezonabil din cauza reducerii abrupte a salariului. Context: AI se extinde, iar litigiile de muncă se înmulțesc Potrivit materialului, experți juridici apreciază că hotărârea întărește ideea că firmele pot urmări eficiența prin automatizare, dar trebuie să își respecte obligațiile față de angajați. Decizia vine după rezultate similare în arbitraje din alte orașe chineze, unde concedierile determinate de AI au fost considerate ilegale. Cazul apare într-un moment în care sectorul AI din China se extinde rapid, cu mii de firme active și cu o integrare pe scară largă așteptată în toate industriile până la sfârșitul deceniului, pe fondul îngrijorărilor privind utilizarea abuzivă a automatizării, inclusiv situații în care companiile ar reproduce roluri umane prin echivalente digitale bazate pe AI. [...]

Departamentul american al Apărării își extinde rapid accesul la instrumente de inteligență artificială pe rețele militare clasificate , după ce Amazon Web Services (AWS) , Microsoft și NVIDIA au semnat acorduri care permit Pentagonului utilizarea tehnologiilor lor „pentru utilizare operațională legală”, potrivit Engadget . Informația este relatată inițial de Bloomberg , care notează că, alături de cele trei companii, și Reflection AI a încheiat un acord similar. Pentagonul a transmis, într-o declarație citată de Bloomberg, că aceste acorduri „accelerează transformarea” către un model în care armata SUA devine o „forță de luptă AI-first” (orientată în primul rând către folosirea inteligenței artificiale). Ce se schimbă operațional: AI pe rețele clasificate Elementul cu impact direct este faptul că instrumentele de AI ale companiilor vor putea fi folosite pe rețele militare clasificate , ceea ce ridică miza față de utilizări comerciale sau administrative. Formularea „pentru utilizare operațională legală” indică un cadru de utilizare în interiorul regulilor și procedurilor militare, fără ca materialul citat să detalieze ce tipuri de aplicații vor fi implementate efectiv. Lista furnizorilor se lărgește; Anthropic rămâne în afara acordurilor Engadget arată că AWS, Microsoft și NVIDIA se alătură altor companii care au semnat acorduri similare cu Departamentul Apărării, între care xAI, OpenAI și Google. În acest context, Anthropic este prezentată drept singurul furnizor major de AI din SUA care nu are un acord funcțional cu Pentagonul. Materialul descrie și tensiunile dintre administrația Trump și Anthropic: în februarie, secretarul apărării Pete Hegseth ar fi amenințat că va eticheta compania drept „risc pentru lanțul de aprovizionare” dacă nu renunță la măsuri de protecție care împiedică folosirea chatbotului Claude pentru supraveghere în masă a americanilor sau în arme complet autonome. După refuzul companiei, președintele Trump a ordonat agențiilor federale să înceteze utilizarea produselor Anthropic în termen de șase luni, iar disputa a ajuns în instanță. Reacție publică: semnal de risc reputațional pentru furnizori Engadget notează că ritmul de adopție al AI în apărare și viteza cu care marile companii americane „se aliniază” pentru a vinde către administrația Trump ar trebui să fie un motiv de îngrijorare pentru cetățenii SUA. Ca indiciu al sensibilității publice, publicația citează date ale firmei de inteligență de piață Sensor Tower: OpenAI ar fi înregistrat o creștere cu 413% de la an la an a dezinstalărilor aplicației ChatGPT în februarie, după acordul companiei cu Departamentul Apărării. Ce urmează, pe baza informațiilor disponibile, este extinderea acestui tip de parteneriate în zona militară, cu o presiune tot mai mare pe furnizorii care nu acceptă condițiile Pentagonului și cu posibile costuri de imagine pentru cei care intră în astfel de acorduri. [...]

Academia Americană de Film a restrâns eligibilitatea la Oscaruri, excluzând interpretările și scenariile generate de AI , o mutare care poate schimba modul în care studiourile și producătorii își structurează proiectele și își documentează procesul creativ, potrivit TechCrunch . Noile reguli publicate vineri de Academy of Motion Picture Arts and Sciences (organizația din spatele premiilor Oscar) stabilesc că doar interpretările „creditate în genericul legal al filmului și demonstrabil realizate de oameni, cu consimțământul lor” pot fi luate în calcul pentru premii. În plus, scenariile trebuie să fie „scrise de oameni” pentru a rămâne eligibile. Ce se schimbă operațional pentru producții Academia își rezervă dreptul de a cere informații suplimentare despre utilizarea AI într-un film și despre „autoratul uman”. Practic, asta introduce un risc de conformitate pentru producții: nu mai este suficient rezultatul final, ci poate conta și capacitatea de a demonstra cine a creat efectiv interpretarea sau textul și în ce condiții. De ce contează acum Schimbările vin pe fondul accelerării utilizării AI generative în zona video și a apariției unor proiecte care folosesc „actori” generați de AI, inclusiv un film independent aflat în lucru cu o versiune generată de AI a lui Val Kilmer , menționează publicația. În același timp, subiectul AI a fost unul dintre punctele majore de tensiune în grevele actorilor și scenariștilor din 2023. În afara Hollywood-ului, TechCrunch notează că cel puțin un roman a fost retras de editură din cauza unei utilizări aparent neasumate a AI, iar unele organizații de scriitori au început să declare că folosirea AI face lucrările neeligibile pentru premii. [...]

În plin conflict juridic cu Elon Musk, Sam Altman a transmis public că acesta „poate veni” la petrecerea de celebrare GPT-5.5, un gest care mută disputa din sala de judecată în zona de reputație și control al comunicării , potrivit iTHome . Evenimentul este programat pe 5 mai, iar OpenAI ar urma să organizeze o „petrecere de succes” pentru GPT-5.5. Altman a publicat online un formular de înscriere pentru cei interesați, menționând că instrumentul Codex va ajuta compania să selecteze participanții. Contextul invitației a apărut după ce scriitorul Andrew Curran a comentat că Musk ar putea apărea neinvitat „ca vrăjitoarea din Frumoasa din pădurea adormită” și ar „arunca un blestem” asupra petrecerii. Altman a răspuns: „Dacă vrea să vină, poate veni. Lumea are nevoie de mai multă iubire.” De ce contează: presiune pe comunicarea publică în timpul procesului Gestul vine la scurt timp după ce judecătoarea federală americană Yvonne Gonzalez Rogers i-ar fi avertizat pe cei doi executivi să-și „controleze impulsul” de a posta pe rețelele sociale și să nu agraveze situația în afara instanței. În acest cadru, mesajul lui Altman funcționează ca un semnal public de detensionare, dar și ca o mutare cu potențial de impact reputațional într-un litigiu aflat deja în desfășurare. Relația Musk–OpenAI și procesul Musk și Altman au o relație conflictuală de ani de zile. Potrivit informațiilor citate, cei doi au cofondat OpenAI în 2015, iar Musk a părăsit organizația în 2018, invocând divergențe de valori. Ulterior, Musk a criticat OpenAI și a pus sub semnul întrebării trecerea de la modelul non-profit la unul comercial, în timp ce și-a lansat propria companie de inteligență artificială, xAI. În martie 2024, Musk a dat în judecată OpenAI, pe Altman și alți cofondatori, susținând că ar fi fost încălcat acordul inițial de înființare. Cazul a intrat în faza de judecată la finalul lunii aprilie, iar relatarea menționează un climat tensionat în sală, inclusiv un moment de confruntare între Musk și avocații OpenAI înainte de intervenția judecătorului. [...]

xAI pregătește extinderea lui Grok în mașinile cu CarPlay , după ce aplicația Grok pentru iPhone a început să includă un „placeholder” (o interfață nefuncțională, de test) pentru Apple CarPlay, semn că suportul este în lucru, potrivit 9to5Mac . În forma actuală, aplicația Grok din CarPlay nu funcționează efectiv, dar la deschidere afișează mesajul: „Grok Voice mode coming soon to CarPlay” („Modul Grok Voice vine în curând pe CarPlay”). Consecința practică este că xAI urmărește să ducă experiența de chatbot cu comandă vocală în ecosistemul CarPlay, adică în „aproape orice altă mașină de pe șosea”, nu doar în vehiculele Tesla, unde Grok este deja integrat. De ce contează: CarPlay devine o platformă pentru chatboți AI CarPlay a început recent să accepte aplicații de tip chatbot AI, iar Grok ar urma să fie a treia aplicație care adaugă suport, alături de ChatGPT și Perplexity , conform publicației. Pentru utilizatori, asta înseamnă mai multe opțiuni de asistent conversațional în interfața mașinii, cu accent pe interacțiunea vocală. În același context, 9to5Mac notează că Google nu a dat semne că ar aduce Gemini în CarPlay, deși modelele Gemini ar urma să ajute la „noul Siri” din iOS 27, mai târziu în acest an. Publicația mai menționează și așteptarea ca Apple să lanseze o aplicație Siri dedicată, care „probabil” va funcționa și cu CarPlay. Ce se știe despre calendar și disponibilitate Sursa nu oferă o dată de lansare, ci doar indică faptul că modul Grok Voice ar urma să ajungă „în curând” pe CarPlay, pe baza mesajului din aplicație și a prezenței interfeței nefuncționale. Aplicația Grok pentru iOS este disponibilă în App Store, însă suportul CarPlay nu este încă activ. [...]