Știri
Știri din categoria Inteligență artificială

Marile platforme chineze accelerează comenzile de cipuri AI Huawei Ascend 950, pe fondul unei cereri care riscă să depășească oferta în 2026, ceea ce poate crea blocaje operaționale pentru extinderea infrastructurii de inteligență artificială, potrivit Mediafax.
Potrivit unor surse apropiate industriei, companii precum ByteDance, Tencent și Alibaba au început discuții cu Huawei pentru comenzi noi de cipuri Ascend 950. În paralel, firmele care oferă servicii cloud și închiriază unități GPU (plăci de procesare folosite la antrenarea și rularea modelelor AI) încearcă să rezerve stocuri, anticipând o creștere puternică a nevoii de capacitate de calcul.
Creșterea interesului este legată de lansarea modelului DeepSeek V4, proiectat să funcționeze eficient pe cipurile Huawei Ascend 950. Compatibilitatea a accelerat adoptarea, deoarece platformele cloud și dezvoltatorii AI au nevoie de resurse mari de procesare.
Huawei a anunțat că infrastructura Ascend SuperNode, construită pe seria Ascend 950, oferă suport complet pentru modelele DeepSeek V4, inclusiv pentru sarcini precum generarea de conținut, procesarea limbajului natural și analiza unor volume mari de date.
Evoluția indică o orientare mai puternică spre hardware local, în contextul restricțiilor comerciale impuse de Statele Unite pentru exportul de cipuri avansate către China. În material se arată că Ascend 950PR ar depăși Nvidia H20 în anumite sarcini AI, însă rămâne sub nivelul Nvidia H200, care nu este disponibil în China din cauza restricțiilor de export.
În același timp, mai multe platforme cloud din China au integrat rapid DeepSeek V4: Alibaba Cloud l-a făcut disponibil în ziua lansării, iar Tencent Cloud a implementat servicii de testare pe infrastructura sa locală și internațională.
În pofida cererii, Huawei se confruntă cu constrângeri de producție, pe fondul limitărilor privind accesul la echipamente avansate de fabricație, menționate în contextul restricțiilor americane.
Surse apropiate companiei afirmă că Huawei intenționează să livreze aproximativ 750.000 de unități Ascend 950PR în acest an. Producția de masă a început în aprilie, dar livrările la scară largă sunt așteptate în a doua jumătate a lui 2026. Experți citați în material avertizează că cererea ar putea depăși capacitatea de producție pentru o perioadă îndelungată.
Recomandate

Autoritatea chineză de reglementare a internetului a deschis un dosar ByteDance după ce a constatat că mai multe produse ale grupului nu au etichetat corespunzător conținutul generat cu inteligență artificială, într-un moment în care Beijingul își înăsprește controlul asupra utilizării IA generative, potrivit Mobile World Live . Administrația Ciberespaiului din China (CAC) susține că aplicațiile de editare video Jianying și Maoxiang, precum și site-ul Jimeng AI – toate aparținând ByteDance – au încălcat cerințele de identificare a conținutului generat de IA, ceea ce ar însemna nerespectarea normelor de securitate cibernetică în vigoare. Regulatorul a cerut autorităților locale să inițieze verificări și să aplice sancțiuni platformelor vizate, fără să detalieze ce măsuri ar urma să fie luate sau amploarea lor. Ce obligații invocă autoritățile CAC a avertizat platformele că trebuie să „respecte strict limitele legii” și să se conformeze cerințelor de etichetare a conținutului generat de IA. Totodată, instituția a anunțat că va întări supravegherea legală pentru a „proteja interesul public” și pentru a susține o dezvoltare „sănătoasă și ordonată” a inteligenței artificiale. Contextul este dat de regulile introduse anul trecut de CAC la nivel național, care impun ca materialele sintetice (generate de IA) să fie etichetate „în mod vizibil”, pentru a limita utilizările abuzive ale IA generative. Context: presiune mai mare pe zona de IA Intervenția se înscrie într-un climat mai larg de înăsprire a reglementării în China, inclusiv pe dimensiunea investițiilor. Mobile World Live notează că Comisia Națională pentru Dezvoltare și Reformă a blocat achiziția planificată de Meta Platforms a startup-ului chinez de IA Manus pentru 2 miliarde de dolari (aprox. 9,2 miliarde lei), invocând regulile privind investițiile străine, în pofida relocării companiei în Singapore. Separat, Bloomberg a relatat în această săptămână că China analizează restricționarea investițiilor tehnologice legate de SUA în domenii considerate sensibile, inclusiv inteligența artificială. [...]

Negocierile UE pentru amânarea obligațiilor-cheie din AI Act au intrat în impas , după ce statele membre și Parlamentul European nu au reușit să cadă de acord asupra modificărilor din pachetul „AI Omnibus”, iar discuțiile vor fi reluate în mai, potrivit The Next Web . Miza este una de reglementare cu impact direct asupra companiilor: fără un acord rapid, termenul din august 2026 pentru cerințele principale privind sistemele de IA cu risc ridicat rămâne în picioare. După 12 ore de negocieri în cadrul trilogului de marți, un oficial cipriot (Cipru deține în prezent președinția rotativă a Consiliului UE) a declarat că „nu a fost posibil să se ajungă la un acord cu Parlamentul European”. Informația privind reluarea discuțiilor în mai este atribuită de TNW agenției Reuters. Punctul de blocaj: excepții pentru IA „încorporată” în produse reglementate Tema nerezolvată a fost dacă sistemele de IA cu risc ridicat integrate în produse deja acoperite de legislația UE privind siguranța produselor — precum dispozitive medicale, jucării, mașini conectate și utilaje industriale — ar trebui scutite de cerințele suplimentare din AI Act. În negocieri: Parlamentul European, susținut de grupuri din industrie, a împins ideea ca aceste sisteme să rămână doar sub regulile sectoriale existente; Consiliul (statele membre) a arătat „entuziasm limitat” pentru o excepție atât de largă. De ce contează pentru companii: calendarul de conformare riscă să nu se schimbe Pachetul „AI Omnibus” este prezentat ca o măsură de „competitivitate”, cu obiectivul de a reduce povara de reglementare pentru companii și de a ajuta firmele europene să țină pasul cu rivalii din SUA și Asia. Criticii — inclusiv o coaliție amplă de organizații pentru drepturi civile și confidențialitate — susțin însă că este o relaxare a protecțiilor, ambalată ca simplificare. Urgența este dată de termenele din AI Act: obligațiile de bază pentru sistemele de IA cu risc ridicat sunt programate să se aplice de la 2 august 2026 ; scopul Omnibus este să împingă termenul la 2 decembrie 2027 pentru sistemele „stand-alone” (de sine stătătoare) cu risc ridicat și la 2 august 2028 pentru cele încorporate în produse reglementate. Pentru ca amânarea să producă efecte înainte de august 2026, ar fi nevoie, în „câteva săptămâni”, de: acord politic final, vot formal în Parlament, aprobarea Consiliului și publicarea în Jurnalul Oficial al UE. Dacă negocierile se blochează și în mai și nu apare un acord înainte de iunie, termenul inițial din august 2026 rămâne valabil. În acest scenariu, companiile care au mizat pe prelungirea calendarului ar putea ajunge să se confrunte brusc cu obligații de conformare „imediate”, pentru care multe nu sunt suficient pregătite — o situație pe care Bruxelles-ul încearcă să o evite, potrivit materialului. Ce s-a agreat totuși și de ce nu a fost suficient Pachetul include o măsură cu sprijin larg: interzicerea sistemelor de IA care generează imagini intime fără consimțământ, inclusiv materiale de abuz sexual asupra copiilor. Aceasta a fost adăugată după controversa din 2025 legată de capabilitățile de „nudificare” ale chatbotului Grok, iar Parlamentul și Consiliul erau deja aliniate pe acest punct. Faptul că discuțiile au eșuat în ciuda acestui consens arată cât de dificilă rămâne disputa privind excepțiile pentru IA integrată în produse reglementate. Reluarea negocierilor în mai va decide dacă UE poate evita intrarea în vigoare „pe muchie” a celor mai dure cerințe ale AI Act, exact în momentul în care acestea ar trebui să înceapă să se aplice. [...]

Pentagonul își diversifică furnizorii de IA pentru operațiuni clasificate , după ce a ajuns la un acord cu Google pentru extinderea utilizării modelului generativ Gemini în astfel de misiuni, potrivit Mediafax . Mutarea vine în contextul în care Anthropic, al cărui model Claude era până recent singurul autorizat pentru operațiuni clasificate, este înlocuit treptat, într-o schimbare de strategie a Departamentului Apărării al SUA privind dependența de un singur furnizor, notează Le Figaro. De ce contează: mai multă libertate de utilizare față de contractul anterior Potrivit informațiilor citate de mai multe mass-media americane, acordul cu Google permite utilizarea modelelor de inteligență artificială „în limitele legii”, similar aranjamentelor încheiate și cu OpenAI și xAI. În același timp, această formulare ar oferi Pentagonului o marjă de manevră mai mare decât contractul avut cu Anthropic, care excludea explicit supravegherea în masă a populației civile americane și atacurile letale. În acest context, responsabilul cu inteligența artificială din Pentagon, Cameron Stanley, a argumentat public nevoia de diversificare a furnizorilor. „A depinde prea mult de un singur furnizor nu este niciodată un lucru bun.” Context: ruptura de Anthropic și intrarea OpenAI și xAI La sfârșitul lunii februarie, administrația Trump a decis rezilierea tuturor contractelor cu Anthropic, decizie contestată în instanță de companie. Ulterior, administrația a ajuns la un acord cu OpenAI pentru integrarea modelelor sale în operațiuni clasificate, însă procesul ar urma să dureze câteva luni. Separat, potrivit site-ului The Information (citat în material), și xAI, start-up-ul de inteligență artificială creat de Elon Musk, ar fi încheiat un acord cu Pentagonul după despărțirea de Anthropic. Reacție internă la Google: scrisoare semnată de peste 600 de angajați Acordul cu Pentagonul reaprinde tensiunile interne la Google pe tema colaborării cu armata americană. Luni, o scrisoare semnată de peste 600 de angajați a cerut conducerii să renunțe la furnizarea modelelor companiei pentru operațiuni clasificate. Google a mai trecut printr-un episod similar în 2018, când o mișcare internă a determinat compania să se retragă din proiectul Maven , care folosea inteligența artificială pentru analiza imaginilor colectate de drone. [...]

România ar urma să pună în funcțiune în 2026 cel puțin două „fabrici AI”, investiții de peste 70 mil. euro (aprox. 350 mil. lei), mizând pe infrastructură de calcul intensivă în procesoare grafice (GPU) și pe extinderea capacităților de supercomputing, potrivit Agerpres . Cele două facilități sunt localizate în centrul și sudul țării și implică colaborări între sectorul public și cel privat. Proiectele sunt aliniate conceptului european de „AI factories” – infrastructuri care combină supercomputere pentru inteligență artificială, resurse de tip HPC (high-performance computing – calcul de înaltă performanță), acces la date și instrumente AI, plus programe de instruire și suport pentru companii, startup-uri și cercetare. Ce capacitate tehnică este anunțată pentru RO AI Factory În comunicatul citat, supercomputerul RO AI Factory este descris ca un sistem de clasă EuroHPC, optimizat pentru sarcini de inteligență artificială, modelare avansată și antrenarea modelelor de tip „foundation” și „large language models” (LLM – modele lingvistice mari, folosite în aplicații generative). Sistemul complet ar urma să atingă o performanță teoretică de peste 5 exaFLOPS în operațiuni AI, nivel care, potrivit comunicatului, ar plasa infrastructura printre cele mai avansate din Europa Centrală și de Est și ar permite antrenarea și rularea de modele generative și multimodale la scară mare. De ce contează pentru piață: energie, autorizații și „speed-to-market” Mihai Manole, managing partner Tema Energy (organizatorul DataCenter Forum Romania ), a declarat că România intră „pe harta marilor dezvoltări de centre de date pentru AI” și că, dincolo de proiectele cu fonduri europene din zona publică, dezvoltatori din SUA, Marea Britanie și Europa de Vest și de Nord analizează construcția unor facilități de 50–200 MW fiecare. „Suntem, astfel, optimiști că vor fi anunțate în curând noi dezvoltări de centre de date, de puteri și dimensiuni fără precedent pentru România. Evident, speed-to-market va fi un element esențial: în ce măsură puterea este deja disponibilă, autorizațiile pot fi obținute rapid, iar construcția se poate desfășura accelerat – toate acestea vor influența deciziile finale, alături de costurile pe termen lung ale energiei electrice. În acest sens, sunt în discuție contracte de tip PPA (Power Purchase Agreement) pe 10-20 de ani.” Potrivit aceleiași surse, sunt avute în vedere locații în centrul și vestul țării, dar și în apropiere de București sau în Dobrogea, care ar îndeplini criterii legate de amplasare, alimentare electrică, conectivitate și reziliență. Context: prezentarea proiectului la DataCenter Forum Romania RO AI Factory va fi prezentat la ediția 2026 a DataCenter Forum Romania, programată pe 7 mai, inclusiv printr-un keynote susținut de Institutul Național de Cercetare-Dezvoltare în Informatică (ICI București). Agenda include patru keynote-uri, patru interviuri on-stage și cinci paneluri, cu participarea a 36 de speakeri. În lista invitaților principali sunt menționați Rod Evans (vicepreședinte NVIDIA pentru EMEA), Mehdi Paryavi (președinte și CEO al International Data Center Authority) și Jonathan Berney (fondator și managing partner al Accelerated Infrastructure Capital). În comunicat se arată și că Accelerated Infrastructure Capital are un parteneriat cu Cluster Power pentru dezvoltarea, în următorii ani, a unui „AI Zone” de 800 MW în România. [...]

Amazon mută AWS spre aplicații „native AI”, încercând să ocolească modelul clasic SaaS și să intre direct în competiție cu Microsoft, Oracle și Salesforce, potrivit The Next Web . Schimbarea de direcție vine după ce precedentele produse de „software de birou” ale companiei (WorkMail, Chime, WorkDocs) nu au prins tracțiune și au fost închise sau sunt în curs de retragere. AWS a anunțat o suită de aplicații de business bazate pe „agenți” de inteligență artificială (programe care pot executa autonom sarcini în fluxuri de lucru), trecând de la rolul de furnizor de infrastructură cloud la cel de furnizor de software. Mișcarea vizează o piață software-as-a-service (SaaS) evaluată în material la circa 300 miliarde dolari (aprox. 1.380 miliarde lei). Ce lansează AWS și cui se adresează Noile produse sunt construite pe aceeași „arhitectură agentică” și extind portofoliul început cu Amazon Connect Health , lansat în martie: Amazon Connect Decisions : platformă de optimizare a lanțului de aprovizionare, care folosește peste 25 de instrumente interne dezvoltate de Amazon pentru logistică, inclusiv modelele SCOT utilizate la prognoza cererii. Aplicația generează și ajustează prognoze, prioritizează alerte, face analiză a cauzelor și creează foi de calcul pentru planificare de scenarii. Ținta este „planificatorul” din supply chain, nu specialistul în știința datelor. Amazon Connect Talent : interviuri de angajare autonome, prin voce, 24/7, cu evaluarea candidaților pe competențe, nu pe CV. Soluția este orientată către recrutare în volum mare (producție, logistică, retail, ospitalitate) și programează, sună și intervievează fără intervenție umană. Amazon Connect Health : platformă pentru sănătate, disponibilă general din 5 martie, cu cinci agenți AI (verificare identitate pacient, programări, rezumate de istoric medical, note clinice, codare medicală), la 99 dolari per utilizator/lună (aprox. 455 lei) . În paralel, AWS a redenumit produsul său de call center din Amazon Connect în Amazon Customer Connect , semnalând că vede zona de contact center drept bază pentru o strategie mai largă de software enterprise. Publicația notează că acest business a atins în 2025 un „run rate” anualizat de 1 miliard de dolari (aprox. 4,6 miliarde lei) . Pariul: agenții AI „înlocuiesc” aplicațiile, nu doar le completează Miza strategică descrisă în material este că agenții AI ar putea înlocui aplicațiile tradiționale vândute „per utilizator” (modelul SaaS), nu doar să adauge funcții peste ele. Julia White, director de marketing la AWS, susține că lipsa unui „istoric” SaaS este un avantaj, pentru că AWS nu are o „franciză” de protejat și poate adopta mai ușor o abordare „agentic-first”. În această logică, AWS încearcă să concureze „pe terenul Amazon”: instrumente operaționale specializate, vândute către roluri din prima linie (logistică, recrutare, sănătate), în domenii unde compania pretinde că are expertiză internă greu de replicat. De ce contează pentru piață: AWS intră frontal peste giganții aplicațiilor enterprise Materialul subliniază că AWS evitase istoric să intre agresiv în aplicații de business, pentru a nu tensiona relația cu clienți care rulează pe AWS, dar concurează cu Amazon în alte piețe. Încercările anterioare de aplicații „generice” au eșuat: WorkDocs a fost închis în aprilie 2025, Amazon Chime a fost întrerupt în februarie 2026, iar WorkMail își încheie suportul în martie 2027. În același timp, avantajul incumbenților rămâne major în zona „knowledge workers”. Exemplul dat este implementarea Copilot la Accenture, cu 743.000 de angajați și o rată de utilizare lunară activă de 89%, iar Microsoft are 450 de milioane de utilizatori enterprise Microsoft 365, fiecare fiind un potențial client pentru funcții AI suplimentare. Extindere: „Amazon Quick”, un copilot care merge și fără cont AWS AWS a anunțat și Amazon Quick , un copilot AI care funcționează peste Google Workspace, Microsoft 365, Zoom și Salesforce, fără a necesita cont AWS. În interpretarea publicației, acesta este un atac direct la integrarea „cross-application” promovată de Microsoft Copilot. Ce urmează și riscul principal Strategia depinde de ipoteza că agenții AI pot deveni noua „interfață” principală de lucru, reducând dependența de aplicațiile consacrate și de bazele lor instalate. Dacă această ipoteză nu se confirmă, iar companiile preferă să adauge AI în software-ul pe care îl folosesc deja, noile produse „Connect” riscă să repete traiectoria WorkMail/Chime/WorkDocs: lansări ambițioase care se sting în fața ecosistemelor existente. [...]

În procesul cu Sam Altman , Elon Musk își construiește apărarea pe ideea că miza OpenAI este „salvarea umanității” , încercând să influențeze percepția juriului asupra intențiilor sale și, implicit, asupra legitimității pretențiilor din dosar, potrivit The Verge . În depoziția sa, Musk a petrecut mult timp cu propria „poveste de origine”, de la copilăria în Africa de Sud și plecarea la studii în Canada, până la parcursul antreprenorial (Zip2, PayPal și companiile pe care le conduce în prezent). Publicația notează că această abordare pare menită să îl prezinte drept un actor motivat de interesul public, nu de câștig personal. Musk a susținut în fața instanței că proiectele sale au avut ca fir roșu „bunăstarea umanității”: SpaceX ar fi fost creată ca „asigurare de viață pentru viața așa cum o știm”, iar Tesla – pentru a reduce dependența de combustibili fosili, pe care a spus că o consideră dăunătoare pentru mediu și pentru oameni. The Verge menționează și că, în timpul mărturiei, Musk a afirmat în mod discutabil că el a fondat Tesla. AI, între promisiune și risc existențial În aceeași logică, Musk a spus că încă din anii de facultate era îngrijorat de inteligența artificială, pe care a descris-o ca pe o „sabie cu două tăișuri”: ar putea „rezolva toate bolile și face pe toată lumea prosperă” sau „ne-ar putea omorî pe toți”. A prezentat două scenarii extreme – unul utopic, de tip „Star Trek”, și unul distopic, de tip „Terminator” – și a indicat că acesta ar fi fost motivul pentru care a cofondat OpenAI. Atacul la Altman și argumentul „precedentului” pentru organizații caritabile Musk a încercat să creeze un contrast direct cu Altman, pe care l-a portretizat drept opusul său. A mers până la a-l acuza că ar fi „furat” o organizație caritabilă și a susținut că un verdict favorabil pârâților ar putea crea un precedent juridic periculos pentru sectorul filantropic din SUA. „E foarte simplu: nu e în regulă să furi o organizație caritabilă. (...) Dacă verdictul iese astfel încât să fie în regulă să jefuiești o organizație caritabilă, întreaga fundație a donațiilor caritabile în America va fi distrusă.” În același context, The Verge notează că Musk nu le-a spus juraților că majoritatea donațiilor filantropice ale fundației sale au mers către interese strâns legate, sau direct legate, de propriile sale activități. Din informațiile publicate nu reiese ce urmează procedural în proces sau care este calendarul etapelor următoare; materialul se concentrează pe strategia de poziționare a lui Musk în fața juriului și pe implicațiile pe care el le invocă în legătură cu statutul și controlul asupra OpenAI. [...]