Știri
Știri din categoria Inteligență artificială

Google face disponibil „în producție” Gemini Embedding 2, un model de „embedding” (reprezentări numerice folosite la căutare și potrivire semantică) care poate lucra nativ cu mai multe tipuri de date, potrivit Google Blog. Miza pentru companii și dezvoltatori este operațională: trecerea de la prototipuri la sisteme stabile, optimizate, care pot căuta și „raționa” peste text, imagini, video și audio fără lanțuri tehnice fragmentate.
Disponibilitatea generală (general availability) înseamnă, în termeni practici, că Google consideră produsul suficient de matur pentru utilizare la scară largă, cu stabilitatea și optimizările necesare pentru implementări în medii de producție. Accesul se face prin Gemini API și prin Vertex AI, platforma Google pentru dezvoltarea și rularea aplicațiilor de inteligență artificială.
În perioada de previzualizare, utilizatorii au construit prototipuri precum motoare avansate de descoperire pentru comerț electronic și instrumente mai eficiente de analiză video, notează compania. Exemplele sunt relevante pentru că indică tipul de aplicații unde „embedding”-urile multimodale pot reduce complexitatea: în loc de fluxuri separate pentru text, imagine sau video, un singur sistem poate indexa și interoga mai multe formate.
Google argumentează că această abordare răspunde unei nevoi tot mai frecvente în organizații: sisteme care pot face căutare și inferență peste date eterogene (text, imagine, video, audio), unde anterior era nevoie de „pipeline”-uri (lanțuri de procesare) complexe și fragmentate.
Odată cu trecerea la disponibilitate generală, Google poziționează Gemini Embedding 2 ca tehnologie pregătită pentru producție, cu accent pe:
Compania mai precizează că modelul este parte dintr-o categorie de tehnologii care alimentează multe produse Google și că își propune să transfere aceste rezultate de cercetare către comunitatea de dezvoltatori.
Materialul nu oferă detalii despre prețuri, niveluri de performanță sau limite tehnice, astfel că impactul financiar direct (costuri per apel, condiții comerciale) nu poate fi evaluat din această sursă. Din informațiile publicate, concluzia principală este că Google împinge explicit Gemini Embedding 2 din zona de test în zona de implementare operațională, prin canale enterprise (Vertex AI) și prin API-ul Gemini.
Recomandate

Google aduce în România Pomelli , un instrument cu inteligență artificială care poate reduce costurile și timpul de producție pentru materiale de marketing ale firmelor mici , prin generarea rapidă de imagini, clipuri video și propuneri de campanii, potrivit Paginademedia . Pomelli este un experiment dezvoltat de Google Labs în parteneriat cu Google DeepMind și este disponibil „din aceste zile” în România, dar și în Uniunea Europeană, Norvegia, Elveția și Marea Britanie. Instrumentul funcționează, deocamdată, în limba engleză. Cum funcționează Pomelli, în practică Platforma folosește AI pentru a „înțelege” o afacere și a genera conținut personalizat în trei pași: Analiză : scanează site-ul companiei pentru a identifica elemente precum comunicarea de brand, mesaje, fonturi și culori. Generare de propuneri : sugerează idei de conținut și campanii pe baza identității identificate; utilizatorul poate rafina rezultatele prin comenzi conversaționale. Creație : produce conținut pentru social media, site sau reclame (imagini și video), care poate fi editat sau descărcat direct, inclusiv pentru fotografii de produs ori „sesiuni foto” pentru produse și servicii. Limitări și ce înseamnă pentru utilizatorii din România În forma actuală, Pomelli generează imagini și clipuri video cu text în engleză, iar interacțiunea cu utilizatorul este tot în engleză. Platforma permite însă editarea textelor, astfel încât acestea pot fi modificate și adaptate în limba română. Instrumentul are și o versiune de mobil, conform aceleiași surse. [...]

Google mută masiv munca de programare către IA, iar inginerii ajung să supervizeze codul : în prezent, 75% din codul scris pentru propriile produse este generat de inteligența artificială, potrivit Profit . Schimbarea contează operațional pentru o companie care dezvoltă la scară globală, pentru că redefinește rolul echipelor tehnice și ritmul de livrare al produselor. În acest model, inginerii software care nu mai scriu efectiv cod au rolul de a superviza codul produs de IA, pe măsură ce tehnologia „devine din ce în ce mai bună la programare”, notează publicația. Un exemplu invocat de CEO-ul Google, Sundar Pichai , indică impactul asupra vitezei de execuție: o migrare de cod „deosebit de complexă”, realizată cu „agenți” (instrumente software bazate pe IA care execută sarcini) și ingineri lucrând împreună, ar fi fost finalizată de șase ori mai repede decât era posibil cu un an în urmă, când procesul se baza doar pe ingineri. „Recent, o migrare de cod deosebit de complexă, realizată de agenți și ingineri care au lucrat împreună, a fost finalizată de șase ori mai repede decât era posibil acum un an doar cu ingineri”, spune Sundar Pichai. Ce se schimbă în practică Din informațiile prezentate, tranziția are două efecte directe în organizație: o parte semnificativă din scrierea codului este transferată către IA (75% din total, conform Google); rolul inginerilor se mută spre control, verificare și coordonare a codului generat automat, nu doar spre implementare manuală. Articolul nu oferă detalii despre ce produse sau ce tipuri de proiecte sunt incluse în acest procent și nici despre modul în care Google măsoară „codul scris” de IA, astfel că amploarea exactă pe echipe și arii rămâne neprecizată în materialul citat. [...]

Google își consolidează oferta pentru „agenți” AI în companii printr-o platformă unificată care combină dezvoltarea, guvernanța și optimizarea , potrivit Google Blog . Miza este una operațională: echipele tehnice ar urma să poată construi și scala agenți autonomi într-un singur „punct de lucru”, cu integrare în infrastructura Google Cloud și în capabilitățile sale de date și securitate. Platforma, prezentată ca un „one-stop-shop” pentru agenți, a fost anunțată la Google Cloud Next ’26 și aduce laolaltă serviciile de construire și ajustare (tuning) a modelelor din Vertex AI cu funcții noi pentru integrarea agenților, securitate și DevOps (practici și instrumente pentru dezvoltare și operare software). Google susține că Agent Platform este gândită să se adapteze nevoilor specifice ale fiecărei echipe. Ce include platforma și ce modele poate folosi Conform descrierii, Gemini Enterprise Agent Platform oferă acces la mai multe modele din portofoliul Google, inclusiv: Gemini 3.1 Pro; Gemini 3.1 Flash Image (Nano Banana 2); Lyria 3. În același timp, platforma suportă și modele ale Anthropic: Claude Opus, Sonnet și Haiku. Google nu detaliază în material condițiile comerciale sau diferențele de disponibilitate între modele. Integrarea cu Gemini Enterprise și implicația pentru utilizarea internă Google mai spune că Agent Platform se integrează cu aplicația Gemini Enterprise, descrisă drept „ușa de intrare” pentru AI pentru fiecare angajat. În practică, mesajul indică o arhitectură în care dezvoltarea și guvernanța agenților rămân la echipele tehnice, iar accesul la capabilități AI pentru utilizatorii din companie este centralizat prin aplicația enterprise. Materialul nu oferă exemple de implementări, termene de disponibilitate pe piețe sau indicatori de performanță, astfel că impactul concret pentru clienți (costuri, productivitate, reducerea timpului de livrare) nu poate fi cuantificat din informațiile publicate. [...]

Google își separă noile TPU-uri pentru antrenare și inferență, o schimbare care poate reduce consumul de energie în centrele de date, dar fără garanții că economiile se vor vedea în prețurile plătite de clienți , potrivit Android Authority . La Cloud Next 2026, compania a anunțat a opta generație de Tensor Processing Units (TPU) pentru centrele sale de date, împărțită în două familii: TPU 8t pentru antrenarea modelelor de inteligență artificială și TPU 8i pentru inferență (rularea efectivă a modelelor, adică generarea de răspunsuri și predicții pe baza a ceea ce au învățat). Miza operațională este folosirea de hardware diferit pentru sarcini cu cerințe diferite, în locul unei abordări „un singur cip pentru toate”. De ce contează separarea: energie, răcire și costuri de operare Google susține că această separare răspunde diferențelor de consum și putere de calcul dintre antrenare și inferență. În practică, compania spune că abordarea poate reduce consumul de energie al centrelor de date, ceea ce ar însemna atât costuri operaționale mai mici, cât și un impact de mediu redus. Publicația notează și un efect colateral invocat în text: dacă inferența devine mai eficientă energetic, utilizarea unor servicii precum Gemini ar putea necesita mai puțină apă pentru răcirea centrelor de date (mențiune formulată ca speranță, nu ca angajament ferm). Context tehnic, pe scurt: de ce antrenarea „cere” alt hardware decât inferența Android Authority explică diferența prin natura celor două procese: Antrenarea rețelelor neuronale este intensă: folosește memorie cu lățime mare de bandă și clustere mari de procesoare, deoarece presupune actualizarea a miliarde de parametri în fiecare secundă. Include „propagarea inversă a erorilor” (backpropagation), adică bucle repetate de feedback prin care modelul este optimizat pe setul de antrenament. Inferența este, în general, mai puțin solicitantă și poate rula pe hardware mai puțin capabil, cu consum mai mic de memorie. Concluzia operațională a sursei: folosirea aceluiași hardware pentru ambele tipuri de sarcini poate duce la costuri mai mari, ceea ce ridică „costul efectiv” al inferenței. Întrebarea rămasă: cine păstrează beneficiul economic Deși Google pune accent pe beneficiile de mediu ale TPU-urilor dedicate inferenței, Android Authority spune că nu a văzut promisiuni explicite privind reducerea costurilor pentru clienți. Rămâne de văzut dacă economiile din eficiență vor fi transferate către consumatori sau vor rămâne la companie și partenerii săi. În același context, sursa amintește că Google a mai avut TPU v5e (unde „e” ar veni de la eficiență) pentru operațiuni la scară mai mică, iar TPU 8i ar părea o adaptare pentru scară mare. În paralel, Amazon urmărește o direcție similară cu AWS Inferentia. [...]

Google își mută agentul de „cercetare” spre fluxuri de lucru enterprise, permițând conectarea la date proprietare și generarea nativă de grafice odată cu lansarea Deep Research și Deep Research Max , construite pe modelul Gemini 3.1 Pro , potrivit IT之家 . Noile versiuni marchează o schimbare de poziționare: de la un instrument orientat în principal spre rezumate și căutare, la o componentă de bază pentru procese de lucru în companii, cu accent pe acces la surse de date specializate și pe livrarea rezultatelor în formate vizuale „gata de folosit”. Două moduri de utilizare: interactiv vs. „în fundal” Conform descrierii citate de publicație dintr-o postare Google din 21 aprilie, Deep Research este gândit pentru scenarii interactive, unde contează echilibrul între viteză și eficiență. Deep Research Max vizează fluxuri de lucru asincrone, rulate în fundal, precum generarea de rapoarte detaliate de tip due diligence (analiză aprofundată înaintea unei decizii de investiție sau achiziție), unde obiectivul este „cea mai mare acoperire” și calitatea maximă a sintezei. Pentru varianta Max, Google indică utilizarea unei „capacități extinse de calcul în timpul testării” (test-time compute), pentru raționare iterativă, căutare și rafinare. Conectare la surse de date proprietare prin MCP Elementul cu impact operațional direct este extinderea surselor de date pe care agentul le poate folosi. Ambele versiuni, bazate pe Gemini 3.1 Pro, pot: căuta pe web; accesa orice server MCP la distanță (MCP este un mecanism de conectare la servicii/surse externe, menționat în material ca modalitate de integrare sigură); folosi fișiere încărcate de utilizator; conecta spații de stocare de fișiere deja legate. Prin MCP, utilizatorii pot conecta agentul, „în siguranță”, la fluxuri profesionale de date — de exemplu date financiare sau de piață — astfel încât acesta să poată naviga baze de date specializate, nu doar să funcționeze ca un motor de căutare pe internet. Ieșiri vizuale și control mai bun al procesului Pe partea de rezultate, agentul poate genera nativ grafice și infografice de calitate, pentru vizualizarea dinamică a datelor complexe, potrivit informațiilor preluate de IT之家. La nivel de control și transparență, sunt menționate funcții precum planificare colaborativă, un set extins de instrumente, o bază de cercetare multimodală și ieșire în timp real (streaming). Utilizatorii pot revizui, ghida și optimiza planul de cercetare înainte de execuție și pot combina instrumente precum Google Search, servere MCP la distanță și execuție de cod. [...]

Autoritățile americane cresc presiunea pentru reguli mai stricte la AI , după ce cercetători au demonstrat în fața Congresului cât de ușor pot fi „deblocate” modele de inteligență artificială pentru a furniza instrucțiuni utile în scenarii violente, de la construirea unei bombe la planificarea unui atac terorist, potrivit G4Media . Demonstrația a avut loc la Washington, într-un briefing cu ușile închise organizat de Centrul pentru Inovare în Combaterea Terorismului și Comisia pentru Securitate Internă a Camerei Reprezentanților . Membrii Congresului au putut testa direct modele „jailbroken” (sisteme din care au fost eliminate mecanismele de siguranță), potrivit Politico, citat în material. Informația despre briefing este transmisă de MEDIAFAX, conform aceleiași surse. Ce au testat congresmenii: modele cu protecții vs. modele „fără frâne” Autoritățile americane pentru securitate internă au prezentat diferența dintre modelele obișnuite, care refuză solicitările periculoase, și cele „abliterate”, la care mecanismul de refuz este dezactivat. Într-un test, cercetătorii au cerut ambelor tipuri de modele să elaboreze un plan de atac asupra evenimentului „America 250” din Washington, programat în această vară și dedicat împlinirii a 250 de ani de la independența SUA. Modelul cu protecții a refuzat cererea, invocând imposibilitatea de a oferi informații despre activități ilegale, în timp ce varianta fără restricții a generat instrucțiuni detaliate, pas cu pas, pentru comiterea unui atac. Congresmanul republican Gabe Evans, citat de Politico, a descris miza acestor teste: „Ceea ce am văzut acolo este ce se întâmplă când scoți aceste bariere și întrebi: «Cum fac o bombă nucleară?»” El a adăugat că modelele fără protecții „oferă răspunsuri la toate aceste lucruri”. Viteză și granularitate: „în mai puțin de trei secunde” Președintele comisiei, Andrew Garbarino, a relatat că a întrebat un model AI cum ar putea fi răpit un membru al Congresului. „A generat un răspuns în mai puțin de trei secunde, cu metode, locuri și momente potrivite”, a afirmat acesta. Cum sunt ocolite filtrele și de ce contează pentru reglementare Deși majoritatea modelelor sunt lansate cu mecanisme de siguranță, cercetătorii și hackerii au descoperit că acestea pot fi ocolite relativ ușor. Printre metodele menționate se numără formularea solicitărilor în limbaj tehnic sau academic, astfel încât sistemele să nu le identifice ca fiind periculoase. Autoritățile avertizează că astfel de instrumente sunt deja folosite în scopuri ostile, de la campanii de dezinformare până la tentative de atacuri cibernetice automatizate. În acest context, presiunea asupra companiilor care dezvoltă AI crește, pentru întărirea măsurilor de siguranță și limitarea accesului la conținut periculos. La nivel federal, procesul de reglementare avansează lent în Congres, însă mai multe state americane au început să adopte propriile reguli, încercând să impună standarde mai stricte pentru utilizarea și controlul acestor tehnologii. Congresmanul republican August Pfluger a rezumat îngrijorarea legată de limitele sistemelor: „Este foarte înfricoșător pentru că AI-ul ar trebui să aibă limite clare”. [...]