Știri
Știri din categoria Inteligență artificială

Google a lansat un instrument care simplifică accesul agenților AI la Gmail, Drive și alte aplicații Workspace, într-un semnal clar că gigantul tech accelerează investițiile în ecosistemul de inteligență artificială autonomă. Potrivit The Next Web, noul utilitar se numește gws și oferă o interfață unificată pentru serviciile Google Workspace.
Instrumentul este publicat pe GitHub și funcționează ca un singur CLI (command-line interface) pentru Gmail, Drive, Calendar, Docs, Sheets, Slides și Chat, fiind conceput atât pentru dezvoltatori, cât și pentru agenți AI. Practic, el permite automatizarea sarcinilor între aplicațiile Workspace printr-o singură interfață standardizată.
Înainte de acest instrument, un agent AI care voia să caute un email, să descarce un fișier din Drive și să modifice un eveniment din Calendar trebuia să folosească API-uri separate pentru fiecare serviciu. Fiecare avea propriile reguli de autentificare, limite și formate de răspuns.
Noul CLI rezolvă această problemă:
Instrumentul are și o funcție interesantă: își construiește automat lista de comenzi folosind Google Discovery Service, ceea ce înseamnă că atunci când Google adaugă un nou API, acesta devine imediat disponibil fără actualizări manuale.
Documentația include chiar și un ghid de integrare pentru OpenClaw, un proiect open-source de agenți AI devenit extrem de popular în 2026. Platforma permite crearea de agenți autonomi capabili să execute sarcini complexe folosind blocuri de funcții numite „skills”.
Repository-ul gws include deja peste 100 de astfel de „agent skills”, precum:
Aceste funcții pot fi combinate pentru a crea fluxuri automate complexe.
Instrumentul funcționează și ca server MCP (Model Context Protocol), standardul deschis pentru conectarea agenților AI la instrumente externe. MCP a fost dezvoltat inițial de Anthropic și este adoptat acum de tot mai multe platforme.
Prin această compatibilitate, Workspace poate fi controlat de agenți AI din diverse ecosisteme, inclusiv:
Astfel, Workspace devine o infrastructură accesibilă pentru aproape orice agent AI care poate lucra cu JSON și MCP.
Deși Google precizează că gws este momentan un proiect experimental pentru dezvoltatori, lansarea sa sugerează o strategie clară: transformarea aplicațiilor Workspace în platforme ușor de integrat cu agenți AI autonomi.
Competiția în acest domeniu se intensifică rapid:
În acest context, miza nu mai este doar modelul AI în sine, ci platforma care oferă agenților acces la datele și aplicațiile utilizatorilor.
Recomandate

Google va folosi procesoare Intel Xeon și IPU-uri personalizate potrivit Tom’s Hardware , care relatează despre un acord multianual anunțat joi de Intel și Google pentru infrastructura de cloud și inteligență artificială a companiei. În cadrul colaborării, Google va continua să implementeze platforme Intel Xeon pentru următoarea generație de infrastructură AI și cloud. Aceste platforme se vor baza atât pe viitoarele procesoare Xeon ale Intel, cât și pe unități de procesare pentru infrastructură (IPU-uri), cipuri specializate pentru sarcini din centrele de date, proiectate împreună de Intel și Google. Anunțul vine într-un context în care tot mai multe companii adoptă procesoare personalizate bazate pe arhitectura Arm pentru sarcini de inteligență artificială, în încercarea de a optimiza costurile și performanța în centrele de date. Directorul general al Intel, Lip-Bu Tan , a declarat că extinderea sistemelor AI „necesită mai mult decât acceleratoare” și că „procesoarele și IPU-urile sunt esențiale” pentru performanță, eficiență și flexibilitate. La rândul său, Amin Vahdat, vicepreședinte senior și director tehnologic pentru infrastructura AI la Google, a spus că procesoarele și accelerarea infrastructurii rămân o componentă de bază a sistemelor AI, de la coordonarea antrenării până la inferență și implementare. Pentru piață, parteneriatul semnalează că Google mizează în continuare pe o combinație între procesoare generale (CPU) și cipuri specializate pentru infrastructură, în locul unei dependențe exclusive de acceleratoare sau de procesoare dezvoltate intern, iar Intel își consolidează poziția ca furnizor pentru centre de date într-o perioadă de competiție intensă pe segmentul AI. [...]

Anthropic declară că a depășit 30 mld. dolari venit anualizat , și confirmă că își va extinde capacitatea de calcul pentru inteligență artificială printr-o colaborare cu Broadcom și Google, pe fondul creșterii cererii pentru serviciul Claude. Compania afirmă că „revenue run rate” (venit anualizat, un indicator estimat pe baza vânzărilor curente) a trecut de 30 de miliarde de dolari, față de 9 miliarde de dolari la finalul lui 2025. Anthropic susține că, în 2026, cererea pentru Claude a continuat să crească, iar peste 1.000 de clienți corporate ar cheltui, în medie, mai mult de 1 milion de dolari pe an; nivelul ar fi crescut de peste două ori din februarie. Într-o declarație citată de publicație, directorul financiar Krishna Rao a spus că parteneriatul anunțat luna trecută cu Broadcom și Google va ajuta compania să „construiască capacitatea de calcul necesară” pentru a răspunde extinderii bazei de clienți. Noile date sugerează că disputa publică a companiei cu guvernul SUA nu i-a blocat creșterea: după un conflict legat de reguli de siguranță în inteligența artificială, Departamentul Apărării a inclus Anthropic pe o listă de risc pentru lanțul de aprovizionare, iar compania a deschis un proces. Avocații Anthropic au spus recent, într-o audiere la San Francisco, că peste 100 de clienți au contactat compania cu îngrijorări privind continuarea colaborării, în timp ce directorul comercial Paul Smith a declarat într-un interviu de săptămâna trecută că unii clienți apreciază faptul că firma „își apără principiile” în relația cu guvernul. Din documente depuse luni de Broadcom reiese că firma dezvoltă cipuri pe baza Tensor Processing Unit (TPU) de la Google, ca alternativă la tehnologia Nvidia. Broadcom și Google (Alphabet) au un acord pe termen lung pentru furnizarea acestor cipuri și o înțelegere de garantare a livrărilor până în 2031, iar cele trei companii intenționează să aprofundeze cooperarea: din 2027, Anthropic ar urma să primească sprijin de calcul de circa 3,5 gigawați putere totală. Broadcom a precizat că accesul Anthropic la această capacitate extinsă depinde de evoluția comercială a companiei și că părțile discută implementarea cu parteneri operaționali și financiari. Elementele-cheie ale anunțului, așa cum sunt prezentate în material, sunt: Venit anualizat Anthropic de peste 30 mld. dolari, față de 9 mld. dolari la finalul lui 2025 Peste 1.000 de clienți enterprise care ar cheltui peste 1 mil. dolari/an pentru Claude, cu o creștere de peste două ori din februarie Colaborare Anthropic–Broadcom–Google pentru extinderea capacității de calcul, cu țintă de aproximativ 3,5 GW din 2027 Broadcom dezvoltă cipuri pe baza TPU Google și are acorduri de furnizare până în 2031 După publicarea documentelor, acțiunile Broadcom au urcat cu până la 3,6% în tranzacțiile după închidere În același context, publicația consemnează că directorul general al Broadcom, Hock Tan, a discutat anterior despre parteneriat și a spus, într-un apel cu investitorii, că se așteaptă ca vânzările de cipuri pentru inteligență artificială ale companiei să depășească 100 de miliarde de dolari anul viitor, pe fondul competiției cu Nvidia. TPU-urile Google, proiectate inițial pentru accelerarea calculelor din motorul de căutare, sunt folosite acum și la dezvoltarea și rularea software-ului de inteligență artificială, iar Broadcom realizează proiectarea completă a cipurilor pe baza specificațiilor Google, urmând ca producția să fie externalizată către fabrici specializate. [...]

Google a lansat discret pe iOS o aplicație de dictare „offline-first”. Potrivit TechCrunch , noul produs se numește „Google AI Edge Eloquent” și vizează zona aplicațiilor de transcriere cu inteligență artificială, unde concurează cu servicii precum Wispr Flow, SuperWhisper sau Willow. Aplicația este gratuită, iar după descărcarea modelelor de recunoaștere automată a vorbirii (ASR) bazate pe Gemma, utilizatorii pot dicta direct pe telefon. În timpul dictării, aplicația afișează transcrierea în timp real, iar la pauză elimină automat cuvinte de umplutură (de tipul „um” și „ah”) și „lustruiește” textul rezultat. Sub transcriere, utilizatorii au opțiuni de transformare a textului precum „Key points”, „Formal”, „Short” și „Long”, pentru a obține rezumate sau variante cu ton și lungime diferite. De asemenea, poate fi dezactivat modul „cloud” pentru procesare exclusiv locală; când modul cloud este activ, aplicația folosește modele Gemini din cloud pentru curățarea textului. Conform descrierii din App Store, „ Google AI Edge Eloquent ” poate importa, la cerere, anumite cuvinte-cheie, nume și termeni de specialitate din contul Gmail și permite adăugarea de cuvinte personalizate. Aplicația păstrează și istoricul sesiunilor de transcriere, oferă căutare în transcrieri și afișează indicatori precum cuvinte dictate în ultima sesiune, viteza în cuvinte pe minut și numărul total de cuvinte rostite. Deși este disponibilă în acest moment doar pe iOS, descrierea din App Store face trimitere la o versiune Android, inclusiv la posibilitatea setării ca tastatură implicită la nivel de sistem și la un buton plutitor pentru acces rapid la transcriere. TechCrunch notează că a cerut informații suplimentare de la Google și că va actualiza articolul dacă primește un răspuns. În contextul popularizării aplicațiilor de transcriere pe măsură ce modelele „vorbire-text” se îmbunătățesc, lansarea sugerează că Google testează un produs care ar putea influența ulterior funcțiile de dictare din ecosistemul Android. [...]

Anthropic interzice folosirea abonamentelor Claude în aplicații terțe, afectând OpenClaw potrivit The Register , compania a blocat complet utilizarea tokenurilor din abonamentele Claude în afara propriilor aplicații, după o perioadă de restricții introduse discret încă din ianuarie 2026. Măsura vizează în special instrumente populare precum OpenClaw, care permiteau rularea de agenți AI folosind abonamente lunare, dar generau trafic și costuri mult peste ceea ce Anthropic considera sustenabil. Practic, utilizatori care plăteau aproximativ 200 de dolari pe lună ajungeau să consume resurse echivalente cu mii de dolari, ceea ce a determinat compania să impună reguli mai stricte și să direcționeze utilizatorii către modelul oficial de plată per utilizare. Începând cu 9 ianuarie 2026, utilizatorii au observat erori de acces atunci când încercau să folosească tokenuri Claude în afara mediului oficial, iar pe 19 februarie interdicția a fost inclusă explicit în termenii de utilizare. Anthropic susține că aplicațiile terțe creează „modele de trafic neobișnuite” și reduc vizibilitatea asupra modului în care sunt folosite serviciile, ceea ce complică gestionarea infrastructurii și a costurilor. Impactul principal asupra utilizatorilor OpenClaw: accesul prin abonament la Claude a fost eliminat complet costurile pot crește de până la cinci ori prin API necesitatea migrării către alți furnizori sau soluții În paralel, contextul competitiv s-a schimbat semnificativ. Creatorul OpenClaw, Peter Steinberger, s-a alăturat OpenAI, unde va contribui la dezvoltarea agenților personali, iar proiectul va continua ca inițiativă open-source susținută de această companie, conform Bloomberg . Mutarea subliniază o diferență de strategie: în timp ce Anthropic limitează accesul extern, OpenAI pare să încurajeze integrarea acestor instrumente. În același timp, Anthropic dezvoltă propriile alternative. Produse precum Claude Cowork și extinderile pentru Claude Code încearcă să ofere funcționalități similare într-un mediu controlat, inclusiv integrarea cu aplicații de mesagerie și automatizări pentru utilizatori non-tehnici. Compania a introdus și limitări temporare ale utilizării în orele de vârf, invocând constrângeri de capacitate, conform InfoWorld . În final, decizia marchează o ruptură clară între platformele AI: unele aleg controlul strict și monetizarea directă, în timp ce altele mizează pe ecosisteme deschise. Pentru utilizatori, consecința imediată este simplă, dar costisitoare: mai puțină flexibilitate și facturi mai mari. [...]

Un nou instrument intern de inteligență artificială dezvoltat de Google a devenit atât de popular încât compania a fost nevoită să îi limiteze accesul , potrivit WinFuture , după o creștere rapidă a utilizării în rândul angajaților. Sistemul, numit „Agent Smith”, automatizează sarcini de programare și poate fi controlat inclusiv de pe telefon, schimbând modul în care dezvoltatorii își desfășoară activitatea zilnică. Agentul funcționează pe baza platformei interne Antigravity și are capacitatea de a accesa autonom documente și date interne, eliminând etape care anterior necesitau intervenție umană. Integrarea în sistemele de comunicare ale companiei permite utilizatorilor să interacționeze cu el ca și cu un coleg, atribuindu-i sarcini complexe pe care le execută independent, revenind doar atunci când are nevoie de clarificări sau când finalizează cerințele. Ce face concret „Agent Smith” automatizează scrierea de cod și sarcini repetitive rulează procese în fundal fără intervenție constantă poate fi controlat de pe smartphone testează aplicații și identifică erori Popularitatea rapidă a dus însă la probleme de infrastructură. Costurile ridicate de operare ale acestor modele au determinat Google să restricționeze temporar accesul pentru a menține stabilitatea sistemului. În paralel, peste 100 de ingineri lucrează deja la extinderea și îmbunătățirea platformei. Efecte asupra angajaților Pe de o parte, eficiența crescută permite echipelor să se concentreze pe sarcini creative și decizii strategice. Pe de altă parte, apar și efecte secundare: Aspect Impact Productivitate crește semnificativ Timp de execuție scade considerabil Presiune internă în creștere Siguranța locurilor de muncă pusă sub semnul întrebării Creșterea vitezei de lucru vine la pachet cu așteptări mai mari din partea managementului, iar unii angajați se tem că automatizarea ar putea reduce nevoia de personal pe termen lung. Reprezentanții Google au evitat să ofere detalii suplimentare, menționând doar că experimentează constant noi soluții bazate pe agenți inteligenți. În contextul competiției acerbe din domeniul inteligenței artificiale, unde rivali precum OpenAI sau Microsoft accelerează dezvoltarea de astfel de tehnologii, „Agent Smith” ilustrează direcția clară: automatizarea tot mai profundă a muncii de birou, cu beneficii evidente, dar și cu implicații încă neclare pentru piața muncii. [...]

Google a anunțat Gemma 4, o nouă familie de modele AI open-source cu licență Apache 2.0 , potrivit Neowin . Compania spune că modelele sunt construite pe aceeași bază de cercetare ca Gemini 3 (modelele proprietare ale Google), dar, spre deosebire de acestea, Gemma 4 este publicat ca software cu cod sursă deschis și poate fi folosit comercial fără restricții, printr-o licență permisivă. Un element central al generației Gemma 4 este orientarea către „fluxuri de lucru agentice” (agentic workflows), adică scenarii în care un model poate acționa ca un „agent” care execută sarcini și interacționează cu servicii externe. Toate modelele Gemma 4 includ suport nativ pentru apelarea de funcții (function calling), ieșire JSON structurată și instrucțiuni de sistem, ceea ce ar permite dezvoltatorilor să construiască agenți autonomi care rulează local și pot apela API-uri externe. Google își susține poziționarea și cu rezultate din clasamente publice. Conform Google , varianta Gemma 4 „31B Dense” este pe locul 3 între modelele deschise în clasamentul Arena AI, iar modelul „26B” este pe locul 6, compania afirmând că acesta din urmă depășește competitori de până la 20 de ori mai mari ca dimensiune. Tot Google precizează că „greutățile” necuantizate (parametrii modelului, păstrați la precizie mai mare) pentru 26B și 31B încap pe un singur GPU NVIDIA H100 de 80 GB. Pentru dezvoltare locală, articolul notează și existența unui model 26B de tip „Mixture of Experts” (MoE), optimizat pentru latență. În acest tip de arhitectură, nu toți parametrii sunt folosiți la fiecare răspuns; în cazul de față, sunt activați 3,8 miliarde de parametri în timpul inferenței, ceea ce ar crește viteza de generare a tokenilor și ar ajuta la rularea unor asistenți de programare pe plăci grafice de consum. Pe partea de capabilități, Google pune accent și pe multimodalitate: familia Gemma 4 poate procesa nativ imagini și video la rezoluție înaltă, iar modelele „E2B” și „E4B” pentru dispozitive de tip edge (rulare aproape de utilizator, pe hardware local) adaugă intrare audio pentru recunoaștere vocală cu latență foarte mică. În plus, aceste modele vin cu o „fereastră de context” (context window) de 128.000 de tokeni pentru edge și până la 256.000 pentru variantele 26B/31B, adică pot păstra mai multă informație relevantă în aceeași sesiune. Din perspectiva pieței, Google își diferențiază Gemma 4 de iterațiile anterioare, care aveau termeni de utilizare mai restrictivi și erau contestate ca „open-source” în sens strict. Neowin consemnează că, prin licența Apache 2.0 fără limitări comerciale, Google intră mai direct în competiție cu modelele Llama ale Meta, care folosesc, de asemenea, o licențiere de tip Apache. În zona de distribuție și integrare, Gemma 4 este deja compatibil cu platforme precum Hugging Face, Ollama și vLLM și beneficiază de optimizări hardware de la NVIDIA, AMD, Qualcomm și MediaTek. Pentru dezvoltatorii de aplicații mobile, modelele pot fi testate în AICore Developer Preview, Google indicând și compatibilitate viitoare cu Gemini Nano 4. Principalele noutăți menționate pentru Gemma 4: licență Apache 2.0 permisivă, cu utilizare comercială fără restricții; suport nativ pentru function calling, JSON structurat și instrucțiuni de sistem (orientare către agenți AI); modele 26B/31B care, potrivit Google, încap ca „greutăți” necuantizate pe un GPU NVIDIA H100 de 80 GB; variantă 26B MoE optimizată pentru latență, cu 3,8 miliarde de parametri activați la inferență; multimodalitate (imagini/video), plus intrare audio pe modelele edge E2B/E4B; ferestre de context de 128K tokeni (edge) și până la 256K (26B/31B). [...]