Știri
Știri din categoria Inteligență artificială

Google a anunțat Gemma 4, o nouă familie de modele AI open-source cu licență Apache 2.0, potrivit Neowin. Compania spune că modelele sunt construite pe aceeași bază de cercetare ca Gemini 3 (modelele proprietare ale Google), dar, spre deosebire de acestea, Gemma 4 este publicat ca software cu cod sursă deschis și poate fi folosit comercial fără restricții, printr-o licență permisivă.
Un element central al generației Gemma 4 este orientarea către „fluxuri de lucru agentice” (agentic workflows), adică scenarii în care un model poate acționa ca un „agent” care execută sarcini și interacționează cu servicii externe. Toate modelele Gemma 4 includ suport nativ pentru apelarea de funcții (function calling), ieșire JSON structurată și instrucțiuni de sistem, ceea ce ar permite dezvoltatorilor să construiască agenți autonomi care rulează local și pot apela API-uri externe.

Google își susține poziționarea și cu rezultate din clasamente publice. Conform Google, varianta Gemma 4 „31B Dense” este pe locul 3 între modelele deschise în clasamentul Arena AI, iar modelul „26B” este pe locul 6, compania afirmând că acesta din urmă depășește competitori de până la 20 de ori mai mari ca dimensiune. Tot Google precizează că „greutățile” necuantizate (parametrii modelului, păstrați la precizie mai mare) pentru 26B și 31B încap pe un singur GPU NVIDIA H100 de 80 GB.
Pentru dezvoltare locală, articolul notează și existența unui model 26B de tip „Mixture of Experts” (MoE), optimizat pentru latență. În acest tip de arhitectură, nu toți parametrii sunt folosiți la fiecare răspuns; în cazul de față, sunt activați 3,8 miliarde de parametri în timpul inferenței, ceea ce ar crește viteza de generare a tokenilor și ar ajuta la rularea unor asistenți de programare pe plăci grafice de consum.
Pe partea de capabilități, Google pune accent și pe multimodalitate: familia Gemma 4 poate procesa nativ imagini și video la rezoluție înaltă, iar modelele „E2B” și „E4B” pentru dispozitive de tip edge (rulare aproape de utilizator, pe hardware local) adaugă intrare audio pentru recunoaștere vocală cu latență foarte mică. În plus, aceste modele vin cu o „fereastră de context” (context window) de 128.000 de tokeni pentru edge și până la 256.000 pentru variantele 26B/31B, adică pot păstra mai multă informație relevantă în aceeași sesiune.
Din perspectiva pieței, Google își diferențiază Gemma 4 de iterațiile anterioare, care aveau termeni de utilizare mai restrictivi și erau contestate ca „open-source” în sens strict. Neowin consemnează că, prin licența Apache 2.0 fără limitări comerciale, Google intră mai direct în competiție cu modelele Llama ale Meta, care folosesc, de asemenea, o licențiere de tip Apache.
În zona de distribuție și integrare, Gemma 4 este deja compatibil cu platforme precum Hugging Face, Ollama și vLLM și beneficiază de optimizări hardware de la NVIDIA, AMD, Qualcomm și MediaTek. Pentru dezvoltatorii de aplicații mobile, modelele pot fi testate în AICore Developer Preview, Google indicând și compatibilitate viitoare cu Gemini Nano 4.
Recomandate

Ambasadorul SUA la UE critică sancțiunile împotriva Big Tech și avertizează asupra riscurilor pentru economia AI , potrivit CNBC , unde Andrew Puzder a susținut că reglementarea excesivă ar putea îndepărta Europa de dezvoltarea tehnologiilor bazate pe inteligență artificială. Declarațiile vin într-un moment tensionat, după o serie de amenzi consistente aplicate companiilor americane. Oficialul american afirmă că Uniunea Europeană riscă să își limiteze propriul acces la infrastructura esențială pentru AI: centre de date acces la date hardware specializat dezvoltat în SUA În opinia sa, sancțiunile repetate și schimbările de reglementare descurajează investițiile. „Dacă reglementezi aceste companii până le scoți de pe continent, nu vei face parte din economia AI”, a spus Puzder . Mesajul este unul direct: fără colaborare cu marile companii tehnologice, Europa ar putea rămâne în urma altor regiuni în cursa pentru inteligență artificială. Contextul conflictului dintre UE și companiile tech În ultimul an, Comisia Europeană a intensificat controalele asupra giganților tehnologici: Apple a primit o amendă de 500 milioane euro Meta a fost sancționată cu 200 milioane euro Google a fost amendată cu aproape 3 miliarde euro platforma X a lui Elon Musk a primit o sancțiune de 120 milioane euro Mai recent, autoritățile europene au deschis o investigație și împotriva Snapchat, în baza legislației privind serviciile digitale, pe tema siguranței minorilor. De partea cealaltă, oficialii europeni își apără poziția. Teresa Ribera , responsabilă de concurență, a subliniat anterior că toate companiile care operează în UE trebuie să respecte legislația și valorile europene, indiferent de origine. Ce este în joc Disputa nu ține doar de amenzi, ci de direcția strategică a industriei tehnologice: Europa vrea reguli stricte privind concurența și protecția utilizatorilor SUA susține un cadru mai permisiv pentru inovație și investiții Declarațiile lui Puzder reflectă o tensiune tot mai vizibilă între două modele economice. Europa încearcă să controleze influența Big Tech, în timp ce SUA avertizează că prea multe restricții pot afecta competitivitatea globală. În centrul disputei se află inteligența artificială, unde accesul la infrastructură și date devine decisiv. În perioada următoare, relația dintre UE și marile companii tehnologice ar putea influența nu doar piața digitală, ci și poziția Europei într-un domeniu considerat strategic la nivel global. [...]

Google adaugă în Gemini opțiuni de import al istoricului și funcții noi în ecosistemul său , în ediția „Gemini Drop” publicată pe 27 martie 2026. Actualizările vizează, în principal, continuitatea între aplicații și reducerea fricțiunii la migrarea de la alți furnizori de asistenți cu inteligență artificială. Un element central este posibilitatea de a transfera „amintiri” și istoricul conversațiilor din alte aplicații de chat cu inteligență artificială în Gemini „în câteva clicuri”, astfel încât utilizatorii să nu pornească de la zero. Google prezintă funcția ca pe o metodă de a aduce rapid în Gemini contextul și discuțiile relevante, fără a reface manual informațiile deja oferite în trecut. Compania anunță și extinderea accesului la „Personal Intelligence” (un set de capabilități de asistență personalizată), care devine gratuit pentru toți utilizatorii Gemini din SUA. Prin conectarea la aplicații Google precum Gmail, Photos și YouTube, Gemini poate oferi ajutor personalizat pentru activități precum planificarea de vacanțe sau proiecte, conform descrierii din anunț. Pe zona de divertisment și creație, Google spune că aduce răspunsuri vizuale generate cu Gemini și explicații narate pe Google TV, pentru o experiență mai interactivă. În paralel, modelul Lyria 3 Pro primește posibilitatea de a compune piese mai lungi, de până la 3 minute; Google precizează că abonații pot transforma fotografii sau idei în melodii „de înaltă fidelitate”, inclusiv cu versuri. O altă actualizare vizează Gemini Live, unde Google afirmă că a livrat „cel mai mare upgrade” de până acum: în versiunea 3.1, conversațiile ar curge mai rapid și ar păstra contextul „de două ori mai mult”, pentru dialoguri mai naturale, cu mai puține repetări din partea utilizatorului. Pe scurt, „Gemini Drop” din martie include următoarele noutăți, așa cum sunt prezentate de Google: transferul „amintirilor” și al istoricului de chat din alte aplicații de inteligență artificială către Gemini; „Personal Intelligence” gratuit pentru utilizatorii Gemini din SUA, cu conectare la Gmail, Photos și YouTube; răspunsuri vizuale și explicații narate pe Google TV, bazate pe Gemini; compunerea de piese de până la 3 minute cu Lyria 3 Pro, pentru abonați; îmbunătățiri pentru Gemini Live (versiunea 3.1): viteză mai mare și păstrarea contextului pe o durată dublă. [...]

Google a început să permită importul de conversații și „memorie” în Gemini din alte aplicații de inteligență artificială, potrivit 9to5Google . Funcția apare odată cu lansarea Gemini 3.1 Flash Live și vizează mutarea contextului din servicii precum ChatGPT și Claude în ecosistemul Gemini. Opțiunea poate fi accesată din interfața Gemini, din meniul „Settings & help” (pictograma rotiță) din colțul stânga-jos, unde apare „Import memory to Gemini”. Utilizatorii sunt trimiși la pagina gemini.google.com/import, care oferă două variante: import de conversații și import de „memorie” (un rezumat structurat al informațiilor despre utilizator). Pentru „Import chats”, utilizatorul exportă datele dintr-o altă aplicație și încarcă în Gemini un fișier.zip de până la 5 GB. Google menționează explicit ChatGPT și Claude și spune că pot fi încărcate până la 5 fișiere.zip pe zi. Pașii indicați pentru export sunt: ChatGPT : numele de utilizator (stânga-jos) → Settings → Data controls → „Export data” → Export → Confirm Export Claude : numele de utilizator (stânga-jos) → Settings → Privacy → „Export data” → Export → selectarea intervalului de date → Export Linkul de descărcare pentru export este trimis pe e-mailul asociat contului de pe platforma respectivă, notează publicația. Conversațiile importate apar în panoul lateral obișnuit din Gemini, dar sunt diferențiate printr-o pictogramă de import. Ele pot fi căutate și șterse individual, iar pentru ștergerea în masă utilizatorul trebuie să găsească intrarea de import și să apese „Delete”, ceea ce elimină toate conversațiile aduse prin acel fișier.zip. Dacă același fișier.zip este încărcat din nou, Gemini adaugă conversațiile noi și suprascrie conversațiile importate anterior. Separat, „Import memory” funcționează prin copierea într-o altă aplicație de chat a unui îndemn (prompt) furnizat de Google, care cere un rezumat al conversațiilor anterioare fără pronume la persoana întâi și a doua, pe categorii precum demografie, interese, relații, evenimente/proiecte și instrucțiuni. Rezultatul este apoi lipit în Gemini. Importul nu este disponibil în prezent în Spațiul Economic European, Elveția sau Regatul Unit, mai arată sursa. [...]

Google extinde la nivel global funcția Search Live potrivit Android Headlines , făcând experiența de căutare multimodală disponibilă în peste 200 de țări și teritorii. Actualizarea permite utilizatorilor să interacționeze cu aplicația Google prin voce și cameră în orice regiune în care este activ în prezent „AI Mode” (modul de căutare asistat de inteligență artificială). Baza tehnică a extinderii este modelul Gemini 3.1 Flash Live , o variantă din familia Gemini orientată spre reducerea întârzierilor (latenței) și îmbunătățirea cursivității dialogului vorbit. Conform specificațiilor tehnice menționate de sursă, modelul este nativ multilingv, ceea ce înseamnă că poate procesa și răspunde în mai multe limbi fără a necesita versiuni separate pentru fiecare piață. Search Live funcționează ca un strat de conversație în aplicația Google pentru Android și iOS. După apăsarea pictogramei „Live”, sistemul ascultă întrebările rostite și oferă răspunsuri audio, iar utilizatorii pot continua dialogul pentru a rafina rezultatele sau pot accesa linkurile web afișate pentru verificarea informațiilor și documentare suplimentară. Actualizarea adaugă și opțiunea de a folosi camera dispozitivului pentru context vizual. Utilizatorii pot îndrepta camera către un obiect, iar sistemul analizează datele vizuale pentru a furniza informații relevante, inclusiv identificarea unor componente mecanice sau sugestii de pași pentru depanarea unor probleme casnice. Funcția poate părea familiară pentru cei care folosesc chatbotul Gemini, unde există de mai mult timp o opțiune „Live”. Diferența, potrivit sursei, este că Google aduce acum capabilități „Live” în „AI Mode” din Search, adică în zona de căutare integrată în serviciul clasic Google Search. Lansarea este în curs pentru utilizatorii Free și Pro. [...]

Astera Labs a anunțat că s-a alăturat Arm Total Design pentru a accelera soluțiile personalizate de infrastructură AI. Potrivit Astera Labs , această colaborare vizează cerințele tot mai mari ale infrastructurii la scară de rack, prin arhitecturi de chiplet personalizate pentru conectivitate. Astera Labs, cunoscută pentru soluțiile sale de conectivitate bazate pe semiconductori, va combina ecosistemul său Intelligent Connectivity Platform cu Arm Neoverse Compute Subsystems (CSS). Această integrare va permite dezvoltarea de soluții chiplet care să răspundă cerințelor crescânde ale infrastructurii AI personalizate. De asemenea, abordarea modulară propusă va facilita o lansare mai rapidă pe piață, prin componente validate și reutilizabile. Importanța arhitecturilor chiplet Arhitecturile chiplet devin tot mai relevante pe măsură ce sarcinile de lucru AI necesită capacități de procesare specializate. Designurile tradiționale de cipuri monolitice întâmpină limitări de randament și costuri la noduri de proces avansate. Astfel, arhitecturile chiplet permit dezvoltatorilor de platforme AI să combine unități de procesare diverse, inclusiv subsisteme de calcul Arm, alături de componente de memorie, rețea și accelerare. Astera Labs va oferi capabilități multi-protocol prin platforma sa de conectivitate inteligentă, incluzând soluții de conectivitate PCIe, Ethernet, CXL și UALink. Acestea vor permite clienților să construiască infrastructuri AI personalizate, cu conectivitate validată și interoperabilă încă din prima zi. Colaborarea cu Arm și beneficiile sale Colaborarea cu Arm va combina expertiza în subsisteme de calcul cu leadership-ul Astera Labs în conectivitate. Aceasta are ca scop accelerarea timpului de lansare pe piață și suportul pentru platforme bazate pe standarde deschise, care valorifică inovația largă și lanțurile de aprovizionare multi-vendor. „Evoluția către infrastructura AI la scară de rack necesită soluții personalizate dezvoltate în cadrul unor ecosisteme deschise, iar colaborarea noastră cu Arm exemplifică această abordare,” a declarat Sanjay Gajendra, președintele și directorul operațional al Astera Labs. Mohamed Awad, vicepreședinte senior și director general al Arm, a subliniat importanța conectivității în realizarea potențialului complet al sistemelor integrate și în satisfacerea cerințelor de putere și performanță ale AI. Perspective și provocări Prin Arm Total Design, clienții vor avea acces la un ecosistem cuprinzător care combină expertiza în conectivitate a Astera Labs cu subsistemele de calcul ale Arm. Aceasta poziționează companiile pentru a profita de piața în expansiune rapidă a infrastructurii AI personalizate. Cu toate acestea, există riscuri și incertitudini legate de succesul combinării platformei de conectivitate a Astera Labs cu produsele Neoverse CSS ale Arm. Printre acestea se numără provocările tehnologice, condițiile macroeconomice și restricțiile de reglementare, care ar putea afecta rezultatele așteptate ale colaborării. [...]

AMD a anunțat că evenimentul „Advancing AI 2026” va avea loc pe 22-23 iulie , potrivit Wccftech . Conferința este programată la Moscone Center din San Francisco și va include un discurs principal susținut de directoarea generală a companiei, Dr. Lisa Su, alături de prezentări ale unor executivi AMD și invitați din ecosistem. Evenimentul este prezentat de AMD drept întâlnirea anuală a comunității globale de inteligență artificială, unde dezvoltatori, clienți și parteneri discută infrastructura, arhitectura și instrumentele de dezvoltare pentru implementarea și scalarea sistemelor de AI în mediul de întreprindere și în cloud. Publicația amintește că, la ediția anterioară, AMD a folosit scena „Advancing AI” pentru a prezenta acceleratoarele din seria MI350, platforma software ROCm 7 (ecosistemul AMD pentru dezvoltare și rulare de aplicații AI pe hardware-ul companiei) și un prim indiciu despre rack-ul Helios, care ar urma să includă procesoare EPYC Venice („Zen 6”) și infrastructură Pensando. Pentru 2026, Wccftech anticipează că AMD va pune accent pe tehnologiile de AI pentru segmentul enterprise, inclusiv acceleratoarele Instinct din seria MI450 și procesoarele EPYC Venice („Zen 6”), despre care compania a discutat deja în cadrul unui eveniment pentru analiști financiari. În acest context, publicația sugerează că AMD ar putea folosi conferința nu doar pentru a detalia planurile de produs pentru 2026, ci și pentru a oferi indicii despre generațiile următoare. În plus, articolul leagă calendarul „Advancing AI 2026” de Computex 2026, care are loc cu puțin peste o lună înainte, unde AMD ar putea prezenta noutăți pentru piața de consum, inclusiv un posibil prim indiciu despre viitoarea generație de procesoare Ryzen și actualizări pentru laptopuri. Detaliile oficiale despre eveniment sunt disponibile și pe site-ul AMD, menționează Wccftech. [...]