Știri
Știri din categoria Inteligență artificială

Google va folosi procesoare Intel Xeon și IPU-uri personalizate potrivit Tom’s Hardware, care relatează despre un acord multianual anunțat joi de Intel și Google pentru infrastructura de cloud și inteligență artificială a companiei.
În cadrul colaborării, Google va continua să implementeze platforme Intel Xeon pentru următoarea generație de infrastructură AI și cloud. Aceste platforme se vor baza atât pe viitoarele procesoare Xeon ale Intel, cât și pe unități de procesare pentru infrastructură (IPU-uri), cipuri specializate pentru sarcini din centrele de date, proiectate împreună de Intel și Google.
Anunțul vine într-un context în care tot mai multe companii adoptă procesoare personalizate bazate pe arhitectura Arm pentru sarcini de inteligență artificială, în încercarea de a optimiza costurile și performanța în centrele de date.
Directorul general al Intel, Lip-Bu Tan, a declarat că extinderea sistemelor AI „necesită mai mult decât acceleratoare” și că „procesoarele și IPU-urile sunt esențiale” pentru performanță, eficiență și flexibilitate. La rândul său, Amin Vahdat, vicepreședinte senior și director tehnologic pentru infrastructura AI la Google, a spus că procesoarele și accelerarea infrastructurii rămân o componentă de bază a sistemelor AI, de la coordonarea antrenării până la inferență și implementare.
Pentru piață, parteneriatul semnalează că Google mizează în continuare pe o combinație între procesoare generale (CPU) și cipuri specializate pentru infrastructură, în locul unei dependențe exclusive de acceleratoare sau de procesoare dezvoltate intern, iar Intel își consolidează poziția ca furnizor pentru centre de date într-o perioadă de competiție intensă pe segmentul AI.
Recomandate

Anthropic declară că a depășit 30 mld. dolari venit anualizat , și confirmă că își va extinde capacitatea de calcul pentru inteligență artificială printr-o colaborare cu Broadcom și Google, pe fondul creșterii cererii pentru serviciul Claude. Compania afirmă că „revenue run rate” (venit anualizat, un indicator estimat pe baza vânzărilor curente) a trecut de 30 de miliarde de dolari, față de 9 miliarde de dolari la finalul lui 2025. Anthropic susține că, în 2026, cererea pentru Claude a continuat să crească, iar peste 1.000 de clienți corporate ar cheltui, în medie, mai mult de 1 milion de dolari pe an; nivelul ar fi crescut de peste două ori din februarie. Într-o declarație citată de publicație, directorul financiar Krishna Rao a spus că parteneriatul anunțat luna trecută cu Broadcom și Google va ajuta compania să „construiască capacitatea de calcul necesară” pentru a răspunde extinderii bazei de clienți. Noile date sugerează că disputa publică a companiei cu guvernul SUA nu i-a blocat creșterea: după un conflict legat de reguli de siguranță în inteligența artificială, Departamentul Apărării a inclus Anthropic pe o listă de risc pentru lanțul de aprovizionare, iar compania a deschis un proces. Avocații Anthropic au spus recent, într-o audiere la San Francisco, că peste 100 de clienți au contactat compania cu îngrijorări privind continuarea colaborării, în timp ce directorul comercial Paul Smith a declarat într-un interviu de săptămâna trecută că unii clienți apreciază faptul că firma „își apără principiile” în relația cu guvernul. Din documente depuse luni de Broadcom reiese că firma dezvoltă cipuri pe baza Tensor Processing Unit (TPU) de la Google, ca alternativă la tehnologia Nvidia. Broadcom și Google (Alphabet) au un acord pe termen lung pentru furnizarea acestor cipuri și o înțelegere de garantare a livrărilor până în 2031, iar cele trei companii intenționează să aprofundeze cooperarea: din 2027, Anthropic ar urma să primească sprijin de calcul de circa 3,5 gigawați putere totală. Broadcom a precizat că accesul Anthropic la această capacitate extinsă depinde de evoluția comercială a companiei și că părțile discută implementarea cu parteneri operaționali și financiari. Elementele-cheie ale anunțului, așa cum sunt prezentate în material, sunt: Venit anualizat Anthropic de peste 30 mld. dolari, față de 9 mld. dolari la finalul lui 2025 Peste 1.000 de clienți enterprise care ar cheltui peste 1 mil. dolari/an pentru Claude, cu o creștere de peste două ori din februarie Colaborare Anthropic–Broadcom–Google pentru extinderea capacității de calcul, cu țintă de aproximativ 3,5 GW din 2027 Broadcom dezvoltă cipuri pe baza TPU Google și are acorduri de furnizare până în 2031 După publicarea documentelor, acțiunile Broadcom au urcat cu până la 3,6% în tranzacțiile după închidere În același context, publicația consemnează că directorul general al Broadcom, Hock Tan, a discutat anterior despre parteneriat și a spus, într-un apel cu investitorii, că se așteaptă ca vânzările de cipuri pentru inteligență artificială ale companiei să depășească 100 de miliarde de dolari anul viitor, pe fondul competiției cu Nvidia. TPU-urile Google, proiectate inițial pentru accelerarea calculelor din motorul de căutare, sunt folosite acum și la dezvoltarea și rularea software-ului de inteligență artificială, iar Broadcom realizează proiectarea completă a cipurilor pe baza specificațiilor Google, urmând ca producția să fie externalizată către fabrici specializate. [...]

Google a lansat discret pe iOS o aplicație de dictare „offline-first”. Potrivit TechCrunch , noul produs se numește „Google AI Edge Eloquent” și vizează zona aplicațiilor de transcriere cu inteligență artificială, unde concurează cu servicii precum Wispr Flow, SuperWhisper sau Willow. Aplicația este gratuită, iar după descărcarea modelelor de recunoaștere automată a vorbirii (ASR) bazate pe Gemma, utilizatorii pot dicta direct pe telefon. În timpul dictării, aplicația afișează transcrierea în timp real, iar la pauză elimină automat cuvinte de umplutură (de tipul „um” și „ah”) și „lustruiește” textul rezultat. Sub transcriere, utilizatorii au opțiuni de transformare a textului precum „Key points”, „Formal”, „Short” și „Long”, pentru a obține rezumate sau variante cu ton și lungime diferite. De asemenea, poate fi dezactivat modul „cloud” pentru procesare exclusiv locală; când modul cloud este activ, aplicația folosește modele Gemini din cloud pentru curățarea textului. Conform descrierii din App Store, „ Google AI Edge Eloquent ” poate importa, la cerere, anumite cuvinte-cheie, nume și termeni de specialitate din contul Gmail și permite adăugarea de cuvinte personalizate. Aplicația păstrează și istoricul sesiunilor de transcriere, oferă căutare în transcrieri și afișează indicatori precum cuvinte dictate în ultima sesiune, viteza în cuvinte pe minut și numărul total de cuvinte rostite. Deși este disponibilă în acest moment doar pe iOS, descrierea din App Store face trimitere la o versiune Android, inclusiv la posibilitatea setării ca tastatură implicită la nivel de sistem și la un buton plutitor pentru acces rapid la transcriere. TechCrunch notează că a cerut informații suplimentare de la Google și că va actualiza articolul dacă primește un răspuns. În contextul popularizării aplicațiilor de transcriere pe măsură ce modelele „vorbire-text” se îmbunătățesc, lansarea sugerează că Google testează un produs care ar putea influența ulterior funcțiile de dictare din ecosistemul Android. [...]

Un nou instrument intern de inteligență artificială dezvoltat de Google a devenit atât de popular încât compania a fost nevoită să îi limiteze accesul , potrivit WinFuture , după o creștere rapidă a utilizării în rândul angajaților. Sistemul, numit „Agent Smith”, automatizează sarcini de programare și poate fi controlat inclusiv de pe telefon, schimbând modul în care dezvoltatorii își desfășoară activitatea zilnică. Agentul funcționează pe baza platformei interne Antigravity și are capacitatea de a accesa autonom documente și date interne, eliminând etape care anterior necesitau intervenție umană. Integrarea în sistemele de comunicare ale companiei permite utilizatorilor să interacționeze cu el ca și cu un coleg, atribuindu-i sarcini complexe pe care le execută independent, revenind doar atunci când are nevoie de clarificări sau când finalizează cerințele. Ce face concret „Agent Smith” automatizează scrierea de cod și sarcini repetitive rulează procese în fundal fără intervenție constantă poate fi controlat de pe smartphone testează aplicații și identifică erori Popularitatea rapidă a dus însă la probleme de infrastructură. Costurile ridicate de operare ale acestor modele au determinat Google să restricționeze temporar accesul pentru a menține stabilitatea sistemului. În paralel, peste 100 de ingineri lucrează deja la extinderea și îmbunătățirea platformei. Efecte asupra angajaților Pe de o parte, eficiența crescută permite echipelor să se concentreze pe sarcini creative și decizii strategice. Pe de altă parte, apar și efecte secundare: Aspect Impact Productivitate crește semnificativ Timp de execuție scade considerabil Presiune internă în creștere Siguranța locurilor de muncă pusă sub semnul întrebării Creșterea vitezei de lucru vine la pachet cu așteptări mai mari din partea managementului, iar unii angajați se tem că automatizarea ar putea reduce nevoia de personal pe termen lung. Reprezentanții Google au evitat să ofere detalii suplimentare, menționând doar că experimentează constant noi soluții bazate pe agenți inteligenți. În contextul competiției acerbe din domeniul inteligenței artificiale, unde rivali precum OpenAI sau Microsoft accelerează dezvoltarea de astfel de tehnologii, „Agent Smith” ilustrează direcția clară: automatizarea tot mai profundă a muncii de birou, cu beneficii evidente, dar și cu implicații încă neclare pentru piața muncii. [...]

Google a anunțat Gemma 4, o nouă familie de modele AI open-source cu licență Apache 2.0 , potrivit Neowin . Compania spune că modelele sunt construite pe aceeași bază de cercetare ca Gemini 3 (modelele proprietare ale Google), dar, spre deosebire de acestea, Gemma 4 este publicat ca software cu cod sursă deschis și poate fi folosit comercial fără restricții, printr-o licență permisivă. Un element central al generației Gemma 4 este orientarea către „fluxuri de lucru agentice” (agentic workflows), adică scenarii în care un model poate acționa ca un „agent” care execută sarcini și interacționează cu servicii externe. Toate modelele Gemma 4 includ suport nativ pentru apelarea de funcții (function calling), ieșire JSON structurată și instrucțiuni de sistem, ceea ce ar permite dezvoltatorilor să construiască agenți autonomi care rulează local și pot apela API-uri externe. Google își susține poziționarea și cu rezultate din clasamente publice. Conform Google , varianta Gemma 4 „31B Dense” este pe locul 3 între modelele deschise în clasamentul Arena AI, iar modelul „26B” este pe locul 6, compania afirmând că acesta din urmă depășește competitori de până la 20 de ori mai mari ca dimensiune. Tot Google precizează că „greutățile” necuantizate (parametrii modelului, păstrați la precizie mai mare) pentru 26B și 31B încap pe un singur GPU NVIDIA H100 de 80 GB. Pentru dezvoltare locală, articolul notează și existența unui model 26B de tip „Mixture of Experts” (MoE), optimizat pentru latență. În acest tip de arhitectură, nu toți parametrii sunt folosiți la fiecare răspuns; în cazul de față, sunt activați 3,8 miliarde de parametri în timpul inferenței, ceea ce ar crește viteza de generare a tokenilor și ar ajuta la rularea unor asistenți de programare pe plăci grafice de consum. Pe partea de capabilități, Google pune accent și pe multimodalitate: familia Gemma 4 poate procesa nativ imagini și video la rezoluție înaltă, iar modelele „E2B” și „E4B” pentru dispozitive de tip edge (rulare aproape de utilizator, pe hardware local) adaugă intrare audio pentru recunoaștere vocală cu latență foarte mică. În plus, aceste modele vin cu o „fereastră de context” (context window) de 128.000 de tokeni pentru edge și până la 256.000 pentru variantele 26B/31B, adică pot păstra mai multă informație relevantă în aceeași sesiune. Din perspectiva pieței, Google își diferențiază Gemma 4 de iterațiile anterioare, care aveau termeni de utilizare mai restrictivi și erau contestate ca „open-source” în sens strict. Neowin consemnează că, prin licența Apache 2.0 fără limitări comerciale, Google intră mai direct în competiție cu modelele Llama ale Meta, care folosesc, de asemenea, o licențiere de tip Apache. În zona de distribuție și integrare, Gemma 4 este deja compatibil cu platforme precum Hugging Face, Ollama și vLLM și beneficiază de optimizări hardware de la NVIDIA, AMD, Qualcomm și MediaTek. Pentru dezvoltatorii de aplicații mobile, modelele pot fi testate în AICore Developer Preview, Google indicând și compatibilitate viitoare cu Gemini Nano 4. Principalele noutăți menționate pentru Gemma 4: licență Apache 2.0 permisivă, cu utilizare comercială fără restricții; suport nativ pentru function calling, JSON structurat și instrucțiuni de sistem (orientare către agenți AI); modele 26B/31B care, potrivit Google, încap ca „greutăți” necuantizate pe un GPU NVIDIA H100 de 80 GB; variantă 26B MoE optimizată pentru latență, cu 3,8 miliarde de parametri activați la inferență; multimodalitate (imagini/video), plus intrare audio pe modelele edge E2B/E4B; ferestre de context de 128K tokeni (edge) și până la 256K (26B/31B). [...]

Astera Labs a anunțat că s-a alăturat Arm Total Design pentru a accelera soluțiile personalizate de infrastructură AI. Potrivit Astera Labs , această colaborare vizează cerințele tot mai mari ale infrastructurii la scară de rack, prin arhitecturi de chiplet personalizate pentru conectivitate. Astera Labs, cunoscută pentru soluțiile sale de conectivitate bazate pe semiconductori, va combina ecosistemul său Intelligent Connectivity Platform cu Arm Neoverse Compute Subsystems (CSS). Această integrare va permite dezvoltarea de soluții chiplet care să răspundă cerințelor crescânde ale infrastructurii AI personalizate. De asemenea, abordarea modulară propusă va facilita o lansare mai rapidă pe piață, prin componente validate și reutilizabile. Importanța arhitecturilor chiplet Arhitecturile chiplet devin tot mai relevante pe măsură ce sarcinile de lucru AI necesită capacități de procesare specializate. Designurile tradiționale de cipuri monolitice întâmpină limitări de randament și costuri la noduri de proces avansate. Astfel, arhitecturile chiplet permit dezvoltatorilor de platforme AI să combine unități de procesare diverse, inclusiv subsisteme de calcul Arm, alături de componente de memorie, rețea și accelerare. Astera Labs va oferi capabilități multi-protocol prin platforma sa de conectivitate inteligentă, incluzând soluții de conectivitate PCIe, Ethernet, CXL și UALink. Acestea vor permite clienților să construiască infrastructuri AI personalizate, cu conectivitate validată și interoperabilă încă din prima zi. Colaborarea cu Arm și beneficiile sale Colaborarea cu Arm va combina expertiza în subsisteme de calcul cu leadership-ul Astera Labs în conectivitate. Aceasta are ca scop accelerarea timpului de lansare pe piață și suportul pentru platforme bazate pe standarde deschise, care valorifică inovația largă și lanțurile de aprovizionare multi-vendor. „Evoluția către infrastructura AI la scară de rack necesită soluții personalizate dezvoltate în cadrul unor ecosisteme deschise, iar colaborarea noastră cu Arm exemplifică această abordare,” a declarat Sanjay Gajendra, președintele și directorul operațional al Astera Labs. Mohamed Awad, vicepreședinte senior și director general al Arm, a subliniat importanța conectivității în realizarea potențialului complet al sistemelor integrate și în satisfacerea cerințelor de putere și performanță ale AI. Perspective și provocări Prin Arm Total Design, clienții vor avea acces la un ecosistem cuprinzător care combină expertiza în conectivitate a Astera Labs cu subsistemele de calcul ale Arm. Aceasta poziționează companiile pentru a profita de piața în expansiune rapidă a infrastructurii AI personalizate. Cu toate acestea, există riscuri și incertitudini legate de succesul combinării platformei de conectivitate a Astera Labs cu produsele Neoverse CSS ale Arm. Printre acestea se numără provocările tehnologice, condițiile macroeconomice și restricțiile de reglementare, care ar putea afecta rezultatele așteptate ale colaborării. [...]

Festivalul de la Cannes respinge ideea ca AI să „dicteze legea” în cinema , potrivit Digi24 , care relatează declarațiile președintei evenimentului, Iris Knobloch, făcute la deschiderea conferinței de presă pentru anunțarea selecției oficiale a ediției a 79-a. Mesajul a fost transmis la Paris, în contextul în care inteligența artificială generativă (tehnologie care poate produce conținut nou, precum imagini sau video, pe baza unor date de antrenare) este tot mai prezentă în procesele de producție din industrie. Digi24 notează că informațiile sunt relatate de Agerpres. „Inteligenţa artificială a pătruns deja în studiouri, în sălile de montaj, în procesele de creaţie. Nu închidem ochii, dar refuzăm ca ea să dicteze legea în cinematografie”, a spus Iris Knobloch. În declarațiile citate, președinta festivalului a legat discuția despre AI de ideea de autor și de munca echipelor din spatele unui film, susținând că imitația tehnologică nu poate înlocui dimensiunea umană a creației. Tot ea a afirmat că festivalul apără „libertatea de creație” pentru oameni, „însă doar pentru ființele umane”. Articolul amintește două episoade recente care au alimentat tensiunile din industrie: difuzarea pe scară largă, în februarie, a unui videoclip generat de AI cu o scenă de luptă între Tom Cruise și Brad Pitt, care a provocat reacții din partea marilor studiouri de la Hollywood, precum și un demers din Franța, la finalul lunii februarie, când 4.000 de actori, actrițe și cineaști au denunțat „jaful sistematic” realizat cu ajutorul programelor de AI generativă. Pe scurt, poziția exprimată de conducerea Festivalului de la Cannes vizează: respingerea ideii ca instrumentele de inteligență artificială să stabilească regulile în cinematografie; apărarea libertății de creație asociate exclusiv autorilor umani; semnalarea riscurilor legate de drepturile de autor și de folosirea neautorizată a imaginii/interpretării; recunoașterea faptului că AI este deja prezentă în studiouri și în postproducție, fără ca acest lucru să fie ignorat. Cea de-a 79-a ediție a Festivalului de Film de la Cannes este programată între 12 și 23 mai, conform aceleiași surse. [...]