Știri
Știri din categoria Inteligență artificială

Jensen Huang susține că restricțiile SUA la export nu pot „sufoca” capacitatea de calcul a Chinei, argumentând că Beijingul are suficiente resurse energetice, infrastructură și competențe industriale pentru a compensa lipsa celor mai avansate cipuri americane, potrivit IT之家. În acest context, CEO-ul Nvidia cere reluarea dialogului și a cooperării de cercetare între SUA și China pentru stabilirea unor reguli comune de utilizare sigură a inteligenței artificiale.
Declarațiile au fost făcute miercuri, într-un interviu acordat podcastului de tehnologie Dwarkesh, pe fondul tensiunilor comerciale și de securitate dintre cele două țări, despre care Huang spune că au redus colaborarea în zone de cercetare considerate critice. El a invocat drept exemplu progresele asociate modelului de securitate cibernetică „Mythos” al Anthropic, pe care le vede ca un semnal că cele două mari economii ar trebui să ajungă la un consens privind utilizările „interzise” ale AI.
„Noi vrem ca America să câștige, dar cred că menținerea dialogului, desfășurarea schimburilor la nivel de cercetare poate fi cea mai sigură abordare. Trebuie să muncim să ajungem la un acord, să fie clar ce utilizări nu pot fi făcute cu AI. Acest lucru este crucial.”
Întrebat dacă măsurile SUA de control al exporturilor chiar limitează China, Huang a susținut că piața chineză nu va fi constrânsă de lipsa capacității de calcul, deoarece China ar avea:
El a mai spus că puterea de calcul necesară pentru antrenarea modelului Anthropic „Mythos” ar fi fost „relativ obișnuită” și „disponibilă pe scară largă” în China. Conform materialului, modelul are capabilități puternice de securitate cibernetică și, în prezent, este disponibil doar pentru unele companii și oficiali guvernamentali.
În ultimul an, Huang ar fi făcut presiuni asupra administrației Trump pentru relaxarea restricțiilor de export impuse din motive de securitate națională, care blochează vânzarea către China a celor mai performante procesoare AI ale Nvidia. Mesajul său public combină două idei: pe de o parte, nevoia de reguli comune privind utilizarea sigură a AI; pe de altă parte, faptul că limitarea accesului la cipuri de top nu ar elimina capacitatea Chinei de a construi infrastructură de calcul la scară mare.
Recomandate

Jensen Huang avertizează că China are „enorm” de multă putere de calcul nefolosită , inclusiv centre de date „complet goale, dar alimentate”, ceea ce ar putea accelera antrenarea unor modele avansate de inteligență artificială cu impact direct asupra securității cibernetice, potrivit TechRadar . CEO-ul Nvidia a făcut declarațiile într-un episod al podcastului Dwarkesh Patel. Miza, în lectura lui Huang, este una operațională și de risc: capacitatea de calcul (compute) disponibilă — adică infrastructura hardware necesară pentru antrenarea modelelor de IA — ar permite Chinei să dezvolte rapid un model comparabil cu Claude Mythos, inițiativă recent anunțată de Anthropic, cu potențiale consecințe „îngrijorătoare” pentru securitatea cibernetică globală. „Centre de date fantomă” și cipuri „abundent disponibile” Huang spune că tipul de infrastructură pe care a fost antrenat Mythos este „abundent disponibil” în China și atrage atenția că „cipuri există în China”. În același context, el susține că există centre de date care „stau complet goale, complet alimentate”, folosind comparația: „Au orașe fantomă, au și centre de date fantomă.” Tot el afirmă că, dacă ar decide, China ar putea „grupa mai multe cipuri” pentru a crește rapid capacitatea efectiv utilizată și adaugă că abilitatea Chinei de a produce cipuri este „una dintre cele mai mari din lume”. De ce contează: legătura cu modelele pentru securitate cibernetică Declarațiile vin pe fondul atenției crescute pentru modele de IA orientate spre securitate. TechRadar notează că Mythos este o componentă-cheie a Project Glasswing, o inițiativă de securitate cibernetică condusă de Anthropic împreună cu lideri din tehnologie, care urmărește identificarea și remedierea vulnerabilităților din software critic. În paralel, publicația amintește că OpenAI a prezentat GPT-5.4-Cyber, descris drept un „rival” al Mythos, destinat profesioniștilor din securitate pentru a detecta atacuri mai avansate. Huang: SUA „trebuie să câștige”, dar dialogul cu China e „mai sigur” Deși spune explicit că „vrem ca Statele Unite să câștige”, Huang argumentează că o abordare exclusiv adversarială poate fi contraproductivă și pledează pentru dialog între cercetători, inclusiv pentru a stabili limite de utilizare: „Este esențial ca cercetătorii noștri în IA și cercetătorii lor în IA să vorbească.” „Cred că a avea un dialog și un dialog de cercetare este probabil cel mai sigur lucru de făcut.” În același timp, el nu neagă statutul de adversar, spunând că „victimizarea” și transformarea Chinei într-un inamic „probabil nu este cel mai bun răspuns”, dar adaugă: „Ei sunt un adversar.” Ce rămâne neclar Materialul nu oferă cifre concrete despre dimensiunea capacității de calcul din China sau despre cât din aceasta este efectiv neutilizată; evaluarea este prezentată ca aprecierea lui Jensen Huang, în cadrul podcastului. [...]

Google mută „Modul AI” mai aproape de navigarea reală pe web , afișând paginile deschise în paralel cu interfața conversațională, o schimbare care poate reduce „săritul” între file și poate crește timpul petrecut în ecosistemul Search/Chrome, potrivit TechCrunch . Noua funcție se aplică în AI Mode (experiența de căutare conversațională a Google) pe Chrome pentru desktop : când utilizatorul dă click pe un link din AI Mode, pagina web se deschide „side-by-side” (alăturat) cu AI Mode. Obiectivul, conform companiei, este să fie mai ușor să explorezi site-uri relevante, să compari detalii și să pui întrebări de follow-up fără să pierzi contextul căutării. Un exemplu dat este cumpărarea unui aparat de cafea: utilizatorul descrie ce caută în AI Mode, primește opțiuni, iar după ce deschide site-ul unui retailer lângă AI Mode poate întreba lucruri punctuale (de tipul „cât de ușor se curăță?”). AI Mode folosește atât context din pagina deschisă, cât și informații „din restul webului” pentru a răspunde. Căutare cu context din filele deja deschise Google introduce și o a doua actualizare: posibilitatea de a căuta în AI Mode folosind context din filele Chrome pe care utilizatorul le are deja deschise. Pe Chrome desktop sau mobil, utilizatorul poate apăsa noul meniu „plus” din caseta de căutare de pe pagina „New Tab” sau din AI Mode și poate selecta file recente pe care să le includă în căutare. Asta permite combinarea mai multor file, imagini sau fișiere ca „material” pentru întrebările adresate în AI Mode. TechCrunch notează exemple precum: cercetarea unor trasee de drumeție, folosind filele deja deschise pentru a cere sugestii similare în altă zonă; pregătirea pentru un examen (de exemplu, statistică), aducând în context file cu notițe, slide-uri și alte materiale pentru a cere exemple care explică un concept. Disponibilitate și extindere Actualizările sunt disponibile acum în SUA, iar Google spune că plănuiește extinderea și în alte regiuni, fără să ofere un calendar. [...]

Google extinde personalizarea Gemini la imagini folosind date din contul utilizatorului , o mutare care ridică miza pe integrarea cu ecosistemul propriu și, în același timp, amplifică presiunea de conformare în piețe cu reglementări stricte. Potrivit The Next Web , compania a adăugat generarea de imagini „Nano Banana” în funcția „Personal Intelligence”, astfel încât Gemini să poată crea imagini informate de context personal din Gmail, Photos, Calendar, Drive și alte aplicații Google. Funcția începe să fie disponibilă în zilele următoare pentru abonații Plus, Pro și Ultra din SUA, iar utilizatorii fără abonament ar urma să primească acces în următoarele săptămâni. Google spune că vrea să extindă disponibilitatea și către Gemini în Chrome pe desktop și către alte piețe, însă Europa este exclusă din lansarea inițială a „Personal Intelligence”. Ce se schimbă operațional: imagini „din viața ta”, nu doar din prompt Până acum, „Personal Intelligence” a fost folosită în principal pentru personalizare în răspunsuri text (de exemplu, întrebări despre planuri de călătorie pe baza confirmărilor din Gmail și a intrărilor din calendar). Prin adăugarea generării de imagini, personalizarea se mută și în zona vizuală: Gemini poate produce imagini care țin cont de preferințe, context și, în unele cazuri, de fotografii personale. Google introduce și un buton „sources” („surse”), care arată din ce informații a derivat Gemini contextul pentru fiecare imagine personalizată, oferind utilizatorilor vizibilitate asupra datelor care au influențat rezultatul. Nano Banana vs. Imagen: două linii diferite de generare de imagini Publicația notează că „Nano Banana” este capabilitatea nativă de generare de imagini din familia Gemini, distinctă de Imagen, linia Google dedicată exclusiv conversiei text-imagine. Diferența de poziționare este că Imagen vizează calitatea și fluxurile profesionale, în timp ce Nano Banana e gândit pentru generare conversațională direct în interfața Gemini, cu intrări din text, imagini sau combinații. Familia Nano Banana are trei versiuni, potrivit sursei: Nano Banana (bazat pe Gemini 2.5 Flash): generare conversațională de bază; Nano Banana 2 (lansat în februarie 2026, pe Gemini 3.1 Flash): combină funcții avansate cu iterații mai rapide; Nano Banana Pro (pe Gemini 3 Pro): include „raționamentul” și cunoștințele despre lumea reală ale modelului în generarea de imagini. De ce Europa rămâne pe dinafară: fricțiune de reglementare și percepție de confidențialitate Riscul evident, subliniat în material, este că accesul unui generator de imagini la fotografii, e-mailuri și alte date personale poate crea probleme pe care controalele „opt-in” (activare voluntară) nu le elimină complet. Google afirmă că nu își antrenează inteligența artificială pe date personale, însă sistemul trebuie să proceseze aceste date pentru a genera rezultate relevante (diferența dintre „antrenare” și „folosire la inferență” este tehnică și poate fi greu de înțeles pentru utilizatori). Excluderea Europei din lansarea inițială sugerează că Google anticipează obstacole în raport cu GDPR și cu viitorul cadru din AI Act, în condițiile în care personalizarea se bazează tocmai pe conectarea la date din cont. Ce nu spune Google: costuri suplimentare și calendar complet Google nu a comunicat modificări de preț sau costuri adiționale pentru generarea de imagini prin „Personal Intelligence” cu Nano Banana. Din informațiile disponibile, funcția pare inclusă în nivelurile existente (de la gratuit la Plus, Pro și Ultra), iar ritmul de acces depinde de tipul de abonament. [...]

Anthropic își apără prețul în fața rivalilor printr-un salt de productivitate la același cost : noul Claude Opus 4.7 ridică semnificativ performanța în codare și în sarcini „agentice” (fluxuri de lucru cu mai mulți pași și folosire de instrumente), fără scumpiri, potrivit The Next Web . Modelul este poziționat ca „cel mai capabil” Claude disponibil pe scară largă și vine într-un moment în care miza comercială pentru Anthropic este ridicată: publicația notează că firma rulează la o rată anualizată de venituri de 30 de miliarde de dolari (aprox. 138 miliarde lei), ar fi primit oferte de investiții la o evaluare de circa 800 de miliarde de dolari (aprox. 3.680 miliarde lei) și ar fi în discuții incipiente pentru o listare (IPO). În acest context, Opus 4.7 trebuie să convingă companiile să construiască pe platforma Claude, nu doar să bifeze scoruri în teste. De ce contează pentru companii: mai multă muncă automatizată, cu mai puține erori de instrumente Câștigul principal este în inginerie software, unde Opus 4.7 urcă pe SWE-bench Pro la 64,3% (de la 53,4% la Opus 4.6) și depășește GPT-5.4 (57,7%) și Gemini 3.1 Pro (54,2%). Pe SWE-bench Verified, scorul ajunge la 87,6% (față de 80,8% la predecesor), în timp ce Gemini 3.1 Pro este la 80,6%. În paralel, CursorBench (un indicator pentru codare autonomă în editorul Cursor) arată 70%, de la 58% la Opus 4.6. The Next Web leagă această evoluție de utilizarea practică: Claude este deja o alegere implicită în Cursor și Claude Code, iar Claude Code ar fi atins în februarie o rată anualizată de venituri de 2,5 miliarde de dolari (aprox. 11,5 miliarde lei). Diferențierea se mută însă dinspre „raționament pur” spre execuție în fluxuri complexe. Pe GPQA Diamond (raționament la nivel de studii avansate), scorurile sunt aproape egale: Opus 4.7 are 94,2%, GPT-5.4 Pro 94,4%, iar Gemini 3.1 Pro 94,3% — diferențe pe care publicația le descrie ca fiind în marja de variație. „Agentic”: coordonare multi-agent și robustețe în fluxuri lungi Anthropic susține că Opus 4.7 aduce o îmbunătățire de 14% față de Opus 4.6 pe fluxuri de lucru complexe, multi-pas, folosind mai puțini „tokeni” (unități de text folosite la calculul costurilor) și generând o treime din erorile de instrumente. Compania mai spune că este primul model Claude care trece „teste de nevoie implicită”, adică situații în care modelul trebuie să deducă singur ce instrumente sau acțiuni sunt necesare. O noutate importantă este coordonarea multi-agent: capacitatea de a orchestra mai multe „fire” de lucru AI în paralel, în loc de procesare strict secvențială. Pentru utilizări de tip enterprise (revizie de cod, analiză de documente, procesare de date în același timp), aceasta se traduce în debit mai mare de lucru. Anthropic afirmă și că modelul își poate menține „focusul” pe fluxuri de lucru de ordinul orelor, dar aceasta rămâne o afirmație de producător care depinde de validarea în utilizare reală. Publicația mai notează accentul pe reziliență: Opus 4.7 ar continua execuția chiar și când apar eșecuri ale instrumentelor, în loc să se oprească — relevant pentru automatizări unde o singură eroare poate bloca un întreg lanț. Viziune și context: rezoluție mai mare pentru documente, fereastră de context neschimbată Pe partea de imagini, Opus 4.7 poate procesa rezoluții de până la 2.576 pixeli pe latura lungă, de peste trei ori față de modelele Claude anterioare. Ținta declarată este analiza de documente în companii (contracte scanate, desene tehnice, situații financiare), unde detaliile fine pot fi ratate la rezoluții mai mici. Fereastra de context rămâne la un milion de tokeni (jumătate din cei două milioane ai Gemini 3.1 Pro), iar pe benchmark-uri de cercetare cu context lung, Opus 4.7 ar fi la egalitate pe primul loc la scorul total 0,715 pe șase module, cu o consistență ridicată. Anthropic mai spune că modelul urmează instrucțiunile mai „literal” decât înainte, ceea ce poate cere ajustarea prompturilor existente: mai puțină ambiguitate și comportament „off-task”, dar și mai puține rezultate „creative” neașteptate. Preț și disponibilitate: performanță mai bună, fără scumpire Opus 4.7 este disponibil pe planurile Claude Pro, Max, Team și Enterprise și prin API la 5 dolari (aprox. 23 lei) per milion de tokeni de intrare și 25 de dolari (aprox. 115 lei) per milion de tokeni de ieșire — același nivel ca Opus 4.6. Există și mecanisme de reducere: „prompt caching” cu economii de până la 90% și Batch API cu discount de 50% la intrare și ieșire. Modelul poate fi accesat și prin Amazon Bedrock, Google Cloud Vertex AI și Microsoft Foundry. The Next Web notează că Gemini 3.1 Pro este mai ieftin (2 dolari și 12 dolari per milion de tokeni pentru intrare/ieșire), însă avantajul Opus 4.7 pe SWE-bench și pe raționament „agentic” ar putea justifica prima de preț pentru companiile care au nevoie de capabilitate maximă. În plus, Anthropic a adăugat măsuri automate de protecție cibernetică pentru a detecta și bloca solicitări interzise sau cu risc ridicat, pe fondul preocupărilor legate de utilizări cu dublu scop (civil și malițios). Publicația leagă această abordare de restricțiile anterioare aplicate modelului Mythos, disponibil doar pentru 11 organizații în cadrul Project Glasswing . În esență, Opus 4.7 nu schimbă paradigma, dar mută raportul cost/performanță în favoarea Anthropic exact în zona care contează economic: codare și automatizare de fluxuri complexe, la același preț pe token. [...]

Anthropic introduce verificarea identității în Claude pentru a limita abuzurile și frauda , o schimbare operațională care poate ridica fricțiuni pentru o parte dintre utilizatori și readuce în discuție cine gestionează datele sensibile din fluxurile de acces la servicii AI, potrivit Engadget . Compania spune că unii utilizatori ar putea vedea un prompt de verificare atunci când accesează „anumite capabilități”, fără să detalieze inițial care sunt acele cazuri de utilizare. Procedura presupune prezentarea unui act de identitate fizic, emis de o autoritate publică și cu fotografie, plus realizarea unui selfie cu camera telefonului sau a computerului, pentru comparație cu documentul. Ce se schimbă, concret, pentru utilizatori Verificarea identității este introdusă treptat și nu ar urma să fie universală. Într-o actualizare publicată pe 16 aprilie 2026, un purtător de cuvânt al Anthropic a precizat pentru Engadget că măsura se aplică „unui număr mic de cazuri” în care compania observă activitate ce indică un comportament potențial fraudulos sau abuziv, care încalcă politica de utilizare. Cine procesează datele și ce promite Anthropic Anthropic afirmă că verificarea este realizată de Persona , care va gestiona actele și selfie-urile. Compania susține că Persona nu va copia și nu va stoca aceste imagini, că utilizarea datelor este limitată contractual și că datele sunt criptate atât în tranzit, cât și „în repaus” (adică atunci când sunt păstrate în sisteme). Anthropic mai spune că nu va folosi datele de identitate pentru antrenarea modelelor și că nu le va partaja cu alte părți. Pentru detalii despre proces, Anthropic a publicat și o pagină de suport despre „ identity verification on Claude ”. Reacția comunității și miza reputațională Măsura a fost primită critic de o parte dintre utilizatori, care pun sub semnul întrebării necesitatea verificării identității pentru accesul la un chatbot AI, mai ales în cazul abonaților plătitori, unde compania are deja date de facturare. O parte din critică vizează și alegerea furnizorului Persona, inclusiv legăturile investiționale menționate în material. Deocamdată, Anthropic nu a publicat lista exactă a „capabilităților” care pot declanșa verificarea, iar Engadget notează că a cerut companiei clarificări și va actualiza informația când primește un răspuns. [...]

Combinația dintre automatizarea accelerată și scumpirea energiei riscă să grăbească pierderea locurilor de muncă , pe măsură ce firmele caută să-și reducă rapid costurile într-o economie deja fragilă, argumentează The Guardian într-un comentariu semnat de Larry Elliott. Autorul pornește de la ideea „distrugerii creative” din capitalism – înlocuirea tehnologiilor vechi cu unele noi, cu costuri sociale adesea dure – dar susține că valul actual, în care mașinile capătă abilități cognitive (pot „gândi” și „învăța”), are un potențial de perturbare economică mai mare decât automatizările din trecut. În mod ideal, guvernele ar avea timp să amortizeze tranziția prin investiții în competențe și strategii industriale, însă contextul actual ar reduce această „fereastră” de adaptare. De ce criza energetică poate accelera automatizarea În analiza publicată, războiul din Orientul Mijlociu este prezentat ca un factor care complică suplimentar tranziția: închiderea strâmtorii Hormuz ar fi dus la creșterea prețurilor la energie și la penurii de materii prime folosite în industrie și agricultură. În acest cadru, o creștere abruptă a costurilor pentru companii, combinată cu disponibilitatea tehnologiilor care economisesc forță de muncă, este descrisă drept un „amestec toxic” ce poate duce la reduceri rapide de personal, la scară mare. Elliott susține că stimulentul de a înlocui oameni cu mașini crește tocmai pentru că perspectiva economică s-a deteriorat față de „acum câteva săptămâni”. El notează că Fondul Monetar Internațional a redus în această săptămână prognozele de creștere și a atras atenția asupra riscurilor unei recesiuni globale; dacă aceste avertismente se confirmă, șomajul ar putea crește, iar companiile ar deveni și mai motivate să taie costuri – în special costuri cu forța de muncă – și mai reticente să reia angajările chiar și după o îmbunătățire a condițiilor de business. „De data asta ar putea fi diferit”: două riscuri pentru piața muncii Autorul trece în revistă argumentul „optimiștilor AI”: pe termen scurt apar probleme, dar pe termen lung economia ar crea, ca și în alte revoluții tehnologice, mai multe locuri de muncă decât distruge, prin creșterea productivității și a creșterii economice. Elliott indică însă două vulnerabilități ale acestei teze: nu există garanția că istoria se repetă, iar impactul AI ar putea fi mai transformator și mai disruptiv decât al unor tehnologii anterioare (exemplifică prin comparația cu motorul cu ardere internă); locurile de muncă eliminate de AI ar putea fi mai bine plătite decât cele nou create, cu riscul ca „mașinile să facă munca inteligentă”, iar oamenii să rămână cu sarcini mai simple și mai prost plătite. Scenariul „buclă” și riscul financiar Textul citează un scenariu atribuit companiei de cercetare Citrini, formulat înainte de izbucnirea războiului cu Iranul: o criză economică și financiară „condusă de AI” în 2028, în care automatizarea ar elimina locuri de muncă bine plătite din zona „white-collar” (birouri), reducând puterea de cumpărare. La nivel de firmă, accelerarea automatizării ar avea sens (mașinile pot funcționa continuu), dar la nivel de economie, scăderea cererii ar lovi veniturile companiilor, ar genera noi tăieri de costuri și un nou val de automatizare și concedieri, până la un posibil șoc bursier. Autorul adaugă că, până acum, o temere pe Wall Street era un declin provocat de faptul că AI nu ar livra promisiunile; scenariul Citrini mută riscul în direcția opusă: o criză tocmai dacă „mașinile inteligente” se dovedesc într-adevăr eficiente. În această logică, țările care au adoptat cel mai rapid AI, precum SUA, ar fi mai vulnerabile. Ce ar trebui să facă guvernele, potrivit autorului Concluzia comentariului este că războiul funcționează ca un semnal de alarmă: factorii de decizie ar avea mai puțin timp decât cred pentru a pregăti economiile și societățile pentru impactul AI. Elliott propune concentrarea pe „trei R”: recalificare (reskilling), reindustrializare și redistribuire, cu avertismentul că, în lipsa unei reacții rapide, beneficiile AI ar putea fi captate de o minoritate, în timp ce majoritatea s-ar confrunta cu consecințele șomajului în masă. [...]