Știri
Știri din categoria Inteligență artificială

Google își consolidează oferta pentru „agenți” AI în companii printr-o platformă unificată care combină dezvoltarea, guvernanța și optimizarea, potrivit Google Blog. Miza este una operațională: echipele tehnice ar urma să poată construi și scala agenți autonomi într-un singur „punct de lucru”, cu integrare în infrastructura Google Cloud și în capabilitățile sale de date și securitate.
Platforma, prezentată ca un „one-stop-shop” pentru agenți, a fost anunțată la Google Cloud Next ’26 și aduce laolaltă serviciile de construire și ajustare (tuning) a modelelor din Vertex AI cu funcții noi pentru integrarea agenților, securitate și DevOps (practici și instrumente pentru dezvoltare și operare software). Google susține că Agent Platform este gândită să se adapteze nevoilor specifice ale fiecărei echipe.
Conform descrierii, Gemini Enterprise Agent Platform oferă acces la mai multe modele din portofoliul Google, inclusiv:
În același timp, platforma suportă și modele ale Anthropic: Claude Opus, Sonnet și Haiku. Google nu detaliază în material condițiile comerciale sau diferențele de disponibilitate între modele.
Google mai spune că Agent Platform se integrează cu aplicația Gemini Enterprise, descrisă drept „ușa de intrare” pentru AI pentru fiecare angajat. În practică, mesajul indică o arhitectură în care dezvoltarea și guvernanța agenților rămân la echipele tehnice, iar accesul la capabilități AI pentru utilizatorii din companie este centralizat prin aplicația enterprise.
Materialul nu oferă exemple de implementări, termene de disponibilitate pe piețe sau indicatori de performanță, astfel că impactul concret pentru clienți (costuri, productivitate, reducerea timpului de livrare) nu poate fi cuantificat din informațiile publicate.
Recomandate

Google își mută agentul de „cercetare” spre fluxuri de lucru enterprise, permițând conectarea la date proprietare și generarea nativă de grafice odată cu lansarea Deep Research și Deep Research Max , construite pe modelul Gemini 3.1 Pro , potrivit IT之家 . Noile versiuni marchează o schimbare de poziționare: de la un instrument orientat în principal spre rezumate și căutare, la o componentă de bază pentru procese de lucru în companii, cu accent pe acces la surse de date specializate și pe livrarea rezultatelor în formate vizuale „gata de folosit”. Două moduri de utilizare: interactiv vs. „în fundal” Conform descrierii citate de publicație dintr-o postare Google din 21 aprilie, Deep Research este gândit pentru scenarii interactive, unde contează echilibrul între viteză și eficiență. Deep Research Max vizează fluxuri de lucru asincrone, rulate în fundal, precum generarea de rapoarte detaliate de tip due diligence (analiză aprofundată înaintea unei decizii de investiție sau achiziție), unde obiectivul este „cea mai mare acoperire” și calitatea maximă a sintezei. Pentru varianta Max, Google indică utilizarea unei „capacități extinse de calcul în timpul testării” (test-time compute), pentru raționare iterativă, căutare și rafinare. Conectare la surse de date proprietare prin MCP Elementul cu impact operațional direct este extinderea surselor de date pe care agentul le poate folosi. Ambele versiuni, bazate pe Gemini 3.1 Pro, pot: căuta pe web; accesa orice server MCP la distanță (MCP este un mecanism de conectare la servicii/surse externe, menționat în material ca modalitate de integrare sigură); folosi fișiere încărcate de utilizator; conecta spații de stocare de fișiere deja legate. Prin MCP, utilizatorii pot conecta agentul, „în siguranță”, la fluxuri profesionale de date — de exemplu date financiare sau de piață — astfel încât acesta să poată naviga baze de date specializate, nu doar să funcționeze ca un motor de căutare pe internet. Ieșiri vizuale și control mai bun al procesului Pe partea de rezultate, agentul poate genera nativ grafice și infografice de calitate, pentru vizualizarea dinamică a datelor complexe, potrivit informațiilor preluate de IT之家. La nivel de control și transparență, sunt menționate funcții precum planificare colaborativă, un set extins de instrumente, o bază de cercetare multimodală și ieșire în timp real (streaming). Utilizatorii pot revizui, ghida și optimiza planul de cercetare înainte de execuție și pot combina instrumente precum Google Search, servere MCP la distanță și execuție de cod. [...]

Google își mobilizează conducerea și resursele interne pentru a recupera decalajul față de Anthropic la „agenți” de programare , potrivit TechRadar , care relatează despre un memo intern atribuit cofondatorului Sergey Brin și despre formarea unui „strike team” dedicat îmbunătățirii capabilităților Gemini în „agentic execution” (execuție autonomă de sarcini, în special scriere și finalizare de cod). Miza este una operațională: dacă Gemini rămâne în urmă la agenți care pot produce „cod final”, Google riscă să piardă viteză în dezvoltarea internă de software și, pe termen mai lung, în cursa pentru automatizarea muncii de cercetare în AI. „Strike team” pentru agenți de cod: presiune pe Gemini Conform unui reportaj The Information, citat de TechRadar, Google ar fi creat o echipă specială („strike team”) pentru a contracara progresul Anthropic și al agentului său Claude Code . În memo-ul menționat, Brin le-ar fi transmis inginerilor și cercetătorilor AI că Google trebuie să reducă rapid diferența: „Pentru a câștiga sprintul final, trebuie să reducem urgent decalajul în execuția agentică și să transformăm modelele noastre în dezvoltatori principali” ai codului final. Aceeași relatare susține că Sergey Brin și Koray Kavukcuoglu, director tehnologic la Google DeepMind, ar fi implicați direct în acest efort, semnalând importanța proiectului la nivelul conducerii. De ce e posibil să nu ajungă la public Direcția pare să fie, în primul rând, îmbunătățirea capacității Gemini de a lucra cu codul intern al Google. Asta ar crește performanța instrumentelor folosite de inginerii și cercetătorii companiei, însă ar reduce șansele ca rezultatul să fie lansat rapid ca produs public: dacă un agent este antrenat pe cod proprietar, publicarea lui devine dificilă. TechRadar notează totuși că instrumentele interne îmbunătățite „ar putea teoretic” să ajute ulterior la construirea unor modele mai bune care să poată fi lansate public. Context: „AI takeoff” și automatizarea cercetării Dincolo de competiția directă cu Anthropic, The Information (citat de TechRadar) indică un obiectiv mai ambițios: „AI takeoff”, adică sisteme AI capabile să se îmbunătățească. În această logică, un agent avansat de programare, combinat cu AI care rezolvă probleme de matematică și rulează experimente, ar putea automatiza la scară mare munca cercetătorilor și inginerilor AI. În acest moment, rămâne neclar dacă rezultatele „strike team”-ului vor fi vizibile în produse pentru utilizatorii externi sau vor rămâne, cel puțin inițial, un avantaj strict intern. [...]

Google își separă noile TPU-uri pentru antrenare și inferență, o schimbare care poate reduce consumul de energie în centrele de date, dar fără garanții că economiile se vor vedea în prețurile plătite de clienți , potrivit Android Authority . La Cloud Next 2026, compania a anunțat a opta generație de Tensor Processing Units (TPU) pentru centrele sale de date, împărțită în două familii: TPU 8t pentru antrenarea modelelor de inteligență artificială și TPU 8i pentru inferență (rularea efectivă a modelelor, adică generarea de răspunsuri și predicții pe baza a ceea ce au învățat). Miza operațională este folosirea de hardware diferit pentru sarcini cu cerințe diferite, în locul unei abordări „un singur cip pentru toate”. De ce contează separarea: energie, răcire și costuri de operare Google susține că această separare răspunde diferențelor de consum și putere de calcul dintre antrenare și inferență. În practică, compania spune că abordarea poate reduce consumul de energie al centrelor de date, ceea ce ar însemna atât costuri operaționale mai mici, cât și un impact de mediu redus. Publicația notează și un efect colateral invocat în text: dacă inferența devine mai eficientă energetic, utilizarea unor servicii precum Gemini ar putea necesita mai puțină apă pentru răcirea centrelor de date (mențiune formulată ca speranță, nu ca angajament ferm). Context tehnic, pe scurt: de ce antrenarea „cere” alt hardware decât inferența Android Authority explică diferența prin natura celor două procese: Antrenarea rețelelor neuronale este intensă: folosește memorie cu lățime mare de bandă și clustere mari de procesoare, deoarece presupune actualizarea a miliarde de parametri în fiecare secundă. Include „propagarea inversă a erorilor” (backpropagation), adică bucle repetate de feedback prin care modelul este optimizat pe setul de antrenament. Inferența este, în general, mai puțin solicitantă și poate rula pe hardware mai puțin capabil, cu consum mai mic de memorie. Concluzia operațională a sursei: folosirea aceluiași hardware pentru ambele tipuri de sarcini poate duce la costuri mai mari, ceea ce ridică „costul efectiv” al inferenței. Întrebarea rămasă: cine păstrează beneficiul economic Deși Google pune accent pe beneficiile de mediu ale TPU-urilor dedicate inferenței, Android Authority spune că nu a văzut promisiuni explicite privind reducerea costurilor pentru clienți. Rămâne de văzut dacă economiile din eficiență vor fi transferate către consumatori sau vor rămâne la companie și partenerii săi. În același context, sursa amintește că Google a mai avut TPU v5e (unde „e” ar veni de la eficiență) pentru operațiuni la scară mai mică, iar TPU 8i ar părea o adaptare pentru scară mare. În paralel, Amazon urmărește o direcție similară cu AWS Inferentia. [...]

Administrația Trump transmite un semnal de detensionare în disputa cu Anthropic , ceea ce poate redeschide accesul companiei la contracte de apărare și la piața federală de AI , potrivit Adevărul , care citează relatările Reuters. Declarațiile vin după ce, la începutul anului, instituțiile federale au fost obligate să înceteze colaborarea cu Anthropic, iar Departamentul Apărării (Pentagonul) a inclus compania pe lista entităților considerate risc pentru lanțul de aprovizionare, notează Reuters, citată de News.ro. În acest context, Donald Trump a spus că Anthropic „își revine” și a lăsat deschisă posibilitatea unei colaborări viitoare cu Pentagonul. De ce contează: un potențial „dezgheț” cu efect direct asupra contractelor guvernamentale Într-un interviu pentru CNBC, Trump a afirmat că reprezentanții companiei „au avut discuții foarte bune” la Washington și că firma „își revine”, adăugând că un acord cu Pentagonul nu este exclus. Pentru o companie de inteligență artificială, o schimbare de ton la nivelul administrației poate însemna, practic, reluarea accesului la proiecte sensibile și bugete mari, în special pe zona de securitate cibernetică. Anthropic a transmis că discuțiile cu administrația s-au concentrat pe: securitate cibernetică, leadership tehnologic, siguranța instrumentelor de inteligență artificială. Context: interdicție, proces și întâlniri la Casa Albă Anthropic a contestat în instanță decizia de includere pe lista de risc, iar directorul general Dario Amodei s-a întâlnit recent cu oficiali de la Casa Albă pentru a detensiona relația. Casa Albă a descris discuțiile drept „productive și constructive”. Tensiunile au apărut după ce Anthropic a cerut garanții că tehnologia sa nu va fi folosită pentru supravegherea cetățenilor americani sau pentru operarea de arme autonome. Potrivit sursei, interdicția Pentagonului blochează utilizarea instrumentelor AI ale companiei în Departamentul Apărării, cu excepții limitate pentru situații de securitate națională. Separat, la începutul acestei luni, o curte federală de apel din Washington a refuzat să suspende temporar includerea Anthropic pe lista de risc, un rezultat favorabil administrației în litigiul aflat în derulare. Ce urmează: semnal politic, dar cu limitări juridice Deși mesajul lui Trump este cel mai explicit de până acum privind o posibilă apropiere, situația rămâne condiționată de cadrul administrativ și de procesul în curs. În paralel, compania a prezentat Mythos , un model AI avansat capabil să identifice vulnerabilități cibernetice; versiunea de test nu va fi disponibilă publicului, iar Anthropic a lansat Project Glasswing, un program de testare privată pentru instituții și companii mari. [...]

Google a adus în România Pomelli, un instrument de marketing cu inteligență artificială pentru afaceri mici , care poate genera rapid materiale de „brand” – de la imagini cu produse până la campanii pentru rețele sociale – reducând munca necesară pentru producția de conținut, potrivit Știrile ProTV . Pomelli este disponibil „începând din aceste zile” și în alte piețe europene (Uniunea Europeană, Norvegia, Elveția și Marea Britanie). Instrumentul funcționează, deocamdată, în limba engleză, inclusiv la nivelul interfeței, însă utilizatorii pot edita și adapta conținutul pentru română. Ce schimbă pentru micile afaceri: producția de conținut devine un proces automatizat Platforma este prezentată ca un ajutor pentru firmele mici care nu au echipe dedicate de marketing sau bugete consistente pentru creație, dar au nevoie de materiale coerente de comunicare. Pomelli automatizează procesul în trei pași: Analiză : scanează site-ul companiei pentru a identifica detalii despre afacere, precum comunicarea de brand, mesajele, fonturile și culorile; Generare de propuneri : sugerează idei de conținut personalizat și campanii, iar utilizatorul poate explora opțiunile și prin comenzi conversaționale; Creație : generează imagini și clipuri video „de înaltă calitate” pentru social media, site sau reclame, care pot fi editate și descărcate direct. Limitări și disponibilitate În forma actuală, Pomelli generează text doar în engleză , ceea ce înseamnă că firmele care comunică preponderent în română vor avea un pas suplimentar de lucru: traducerea și adaptarea mesajelor. Instrumentul are și o versiune mobilă , optimizată pentru utilizarea de pe telefon, ceea ce îl face mai ușor de folosit în activitatea de zi cu zi a antreprenorilor și a echipelor mici. Pomelli a fost creat ca experiment de Google Labs , în parteneriat cu Google DeepMind , mai notează materialul. [...]

Băncile europene ar putea primi în zilele următoare acces la modelul IA „Mythos”, dar implementarea vine cu riscuri de securitate cibernetică și cu presiune din partea autorităților de reglementare pentru controale mai stricte, potrivit Agerpres , care citează informații Reuters. Extinderea accesului la „Mythos”, modelul de inteligență artificială al start-up-ului american Anthropic , ar urma să vizeze bănci din Europa și Marea Britanie, într-un moment în care instituțiile financiare încearcă să țină pasul cu rivalii din SUA, care au primit deja acces inițial la tehnologie. Ce se știe despre calendar și condițiile de acces Surse apropiate dosarului au indicat că accesul pentru băncile europene ar putea fi acordat „în câteva zile”, însă o altă estimare menționează că implementarea ar putea dura „zile sau săptămâni”. Procesul include verificări pentru a se asigura că modelul este implementat în siguranță, potrivit uneia dintre surse. Bloomberg a relatat anterior că Anthropic va oferi în curând acces la „Mythos” pentru instituții financiare din Marea Britanie. De ce contează: avertismente pe zona de securitate și atenție sporită a regulatorilor Experți în securitate cibernetică avertizează că „Mythos” ridică provocări importante pentru industria bancară și pentru sistemele tehnologice existente, context în care au apărut avertismente din partea organismelor de reglementare și a decidenților prezenți la reuniunea de primăvară a Fondului Monetar Internațional. Pe fondul acestor preocupări, autoritățile de reglementare se grăbesc să evalueze riscurile de securitate cibernetică asociate noului model de inteligență artificială, în timp ce băncile încearcă să recupereze decalajul față de instituțiile care au intrat mai devreme în testare. Cine are deja acces și cum s-a făcut selecția Anthropic a oferit inițial acces la „Mythos” partenerilor din inițiativa „Project Glasswing” și altor aproximativ 40 de organizații care dezvoltă sau întrețin infrastructură software critică. Dintre bănci, JPMorgan Chase (parte din inițiativa Glasswing) este singura instituție despre care Anthropic a spus public că are acces la „Mythos”. În același timp, Bank of America a fost în Glasswing încă de la început și a testat intern tehnologia, potrivit unei surse citate. Presiune pentru „teren de joc” egal în industrie Joachim Nagel, președintele Bundesbank (Banca Centrală a Germaniei), a cerut ca toate instituțiile să aibă acces la „Mythos” pentru a asigura condiții concurențiale echitabile și pentru a evita utilizarea abuzivă a modelului. [...]