Știri
Știri din categoria Inteligență artificială

Parteneriatul Apple–Google intră în faza operațională: Siri va rula pe Gemini, iar mutarea poate schimba rapid capabilitățile „Apple Intelligence” încă din acest an, cu implicații directe asupra infrastructurii cloud folosite de Apple, potrivit GSMArena.
Confirmarea vine de la Google, făcută pe scenă la conferința Cloud Next 2026 din Las Vegas. Thomas Kurian, șeful Google Cloud, a spus că Google colaborează cu Apple „ca furnizor cloud preferat” pentru a dezvolta „următoarea generație de Apple Foundation Models” bazate pe tehnologia Gemini, iar aceste modele „vor alimenta viitoare funcții Apple Intelligence, inclusiv un Siri mai personalizat, care va veni mai târziu în acest an”.
Informația completează confirmarea anterioară a Apple, care anunțase încă din ianuarie că modelele Gemini vor sta la baza următoarei evoluții Apple Intelligence. Potrivit publicației, Apple ar urma să prezinte noutățile în iunie, la Worldwide Developers Conference (WWDC), iar lansarea către utilizatori este așteptată în toamnă, odată cu iOS 27 și iPadOS 27.
Rămâne neclar dacă modelele Gemini folosite de Apple vor rula pe serverele Google sau prin Apple Private Cloud Compute (infrastructura proprie Apple pentru procesare în cloud cu accent pe confidențialitate). Această decizie are consecințe practice pentru:
Siri „revizuit” era inițial așteptat anul trecut, apoi a fost amânat pentru această primăvară, însă Apple ar fi întâmpinat probleme de acuratețe. Clarificările privind implementarea și detaliile tehnice sunt așteptate la începutul lui iunie, odată cu WWDC.
Recomandate

Apple pregătește o schimbare operațională majoră pentru Siri, trecând de la comenzi punctuale la conversații continue și integrare între aplicații , potrivit TechRadar . Miza este ca asistentul să poată păstra contextul și să execute sarcini în mai mulți pași, într-un mod mai apropiat de experiența oferită de ChatGPT și alte instrumente de inteligență artificială conversațională. Apple ar urma să prezinte noua versiune la Worldwide Developers Conference (WWDC), care se deschide pe 8 iunie, iar schimbările sunt asociate cu iOS 27 , conform materialului. Ce se schimbă în utilizarea Siri Cea mai vizibilă modificare ar fi modul de interacțiune: în loc de solicitări izolate („setează un timer”, „care e vremea”), Siri ar urma să permită dialoguri cu întrebări de continuare și solicitări combinate în aceeași sesiune. Practic, asistentul ar „ține minte” firul conversației, astfel încât utilizatorul să nu fie nevoit să reia cererea de la zero de fiecare dată. TechRadar notează că această direcție aliniază Siri la așteptările formate deja de utilizatori în interacțiunea cu chatboți precum ChatGPT. Integrare între aplicații și folosirea „contextului personal” Dincolo de interfață, schimbarea cu impact practic este extinderea funcționării „peste” aplicații și servicii. Siri ar urma să poată folosi context personal și informația de pe ecran pentru a duce la capăt sarcini în mai mulți pași, inclusiv prin referințe la mesaje, e-mailuri și alte date. Un exemplu de utilizare descris în articol: Siri ar putea analiza o conversație, extrage un detaliu relevant și apoi acționa pe baza lui, fără instrucțiuni separate pentru fiecare etapă. Interfață nouă și experiență de tip „chat” Publicația mai scrie că Apple ar muta Siri din modul tradițional de afișare pe tot ecranul către o prezență mai integrată, inclusiv în Dynamic Island pe iPhone-urile mai noi, unde asistentul s-ar extinde la activare. În paralel, ar exista indicii despre o aplicație dedicată Siri, cu istoric de conversații și o prezentare familiară utilizatorilor de chatboți, deși transformarea principală ar fi „sub capotă”, în capabilitățile de procesare și integrare. Ce tehnologie ar putea sta în spate TechRadar menționează că Apple ar miza pe capabilități de tip „model lingvistic mare” (LLM – sisteme antrenate pe volume mari de text pentru a genera și înțelege limbaj), cu suport din partea modelelor Gemini ale Google . În acest scenariu, întrebări care înainte necesitau căutare pe web sau un chatbot separat ar putea fi rezolvate direct de Siri. De ce contează pentru piață și utilizatori Schimbarea vine pe fondul percepției că Apple a rămas în urmă în zona de inteligență artificială conversațională, în timp ce competitori au avansat cu sisteme generative. Articolul subliniază și o diferență de strategie: Apple ar integra aceste capabilități direct în Siri, nu ca parte a brandului Apple Intelligence. Rămâne de văzut cât de completă va fi implementarea la momentul prezentării și ce funcții vor fi disponibile efectiv odată cu iOS 27, întrucât informațiile descrise se bazează pe detalii „scăpate” și pe relatări din piață, nu pe specificații confirmate oficial. [...]

Google își separă noile TPU-uri pentru antrenare și inferență, o schimbare care poate reduce consumul de energie în centrele de date, dar fără garanții că economiile se vor vedea în prețurile plătite de clienți , potrivit Android Authority . La Cloud Next 2026, compania a anunțat a opta generație de Tensor Processing Units (TPU) pentru centrele sale de date, împărțită în două familii: TPU 8t pentru antrenarea modelelor de inteligență artificială și TPU 8i pentru inferență (rularea efectivă a modelelor, adică generarea de răspunsuri și predicții pe baza a ceea ce au învățat). Miza operațională este folosirea de hardware diferit pentru sarcini cu cerințe diferite, în locul unei abordări „un singur cip pentru toate”. De ce contează separarea: energie, răcire și costuri de operare Google susține că această separare răspunde diferențelor de consum și putere de calcul dintre antrenare și inferență. În practică, compania spune că abordarea poate reduce consumul de energie al centrelor de date, ceea ce ar însemna atât costuri operaționale mai mici, cât și un impact de mediu redus. Publicația notează și un efect colateral invocat în text: dacă inferența devine mai eficientă energetic, utilizarea unor servicii precum Gemini ar putea necesita mai puțină apă pentru răcirea centrelor de date (mențiune formulată ca speranță, nu ca angajament ferm). Context tehnic, pe scurt: de ce antrenarea „cere” alt hardware decât inferența Android Authority explică diferența prin natura celor două procese: Antrenarea rețelelor neuronale este intensă: folosește memorie cu lățime mare de bandă și clustere mari de procesoare, deoarece presupune actualizarea a miliarde de parametri în fiecare secundă. Include „propagarea inversă a erorilor” (backpropagation), adică bucle repetate de feedback prin care modelul este optimizat pe setul de antrenament. Inferența este, în general, mai puțin solicitantă și poate rula pe hardware mai puțin capabil, cu consum mai mic de memorie. Concluzia operațională a sursei: folosirea aceluiași hardware pentru ambele tipuri de sarcini poate duce la costuri mai mari, ceea ce ridică „costul efectiv” al inferenței. Întrebarea rămasă: cine păstrează beneficiul economic Deși Google pune accent pe beneficiile de mediu ale TPU-urilor dedicate inferenței, Android Authority spune că nu a văzut promisiuni explicite privind reducerea costurilor pentru clienți. Rămâne de văzut dacă economiile din eficiență vor fi transferate către consumatori sau vor rămâne la companie și partenerii săi. În același context, sursa amintește că Google a mai avut TPU v5e (unde „e” ar veni de la eficiență) pentru operațiuni la scară mai mică, iar TPU 8i ar părea o adaptare pentru scară mare. În paralel, Amazon urmărește o direcție similară cu AWS Inferentia. [...]

Google își extinde oferta de infrastructură AI către un model „hibrid” (TPU propriu + GPU NVIDIA), prin AI Hypercomputer , o arhitectură de centru de date care combină TPU-uri de generația a 8-a, procesoare Axion și viitoarele acceleratoare NVIDIA Rubin, potrivit Wccftech . Miza operațională este flexibilitatea: clienții pot rula antrenare și inferență (execuția modelului în producție) pe hardware diferit, în același „pachet” de infrastructură, ceea ce poate reduce costul total de operare și timpul de implementare pentru proiecte AI la scară mare. Ce este AI Hypercomputer și de ce contează pentru clienți AI Hypercomputer este prezentat ca un ansamblu integrat de hardware (calcul, stocare, rețea) și software deschis (framework-uri și motoare de inferență), construit pentru „AI agentic” – sisteme care pot executa sarcini în lanț, cu un grad mai mare de autonomie, și care cer atât capacitate mare de antrenare, cât și latență redusă în producție. Din perspectiva utilizatorilor de cloud, elementul practic este că Google încearcă să ofere o infrastructură „cap-coadă” pentru AI, în care: TPU-urile proprii acoperă antrenarea și inferența pe platforma Google; GPU-urile NVIDIA rămân o opțiune majoră pentru clienții care preferă ecosistemul NVIDIA; rețeaua și stocarea sunt optimizate pentru a susține clustere foarte mari. TPU 8t și TPU 8i: două cipuri, două sarcini Google își împarte TPU-urile de generația a 8-a în două variante: TPU 8t (antrenare) : este descris ca un cip orientat spre antrenarea modelelor mari, cu o capacitate totală de calcul FP4 de 121 exaflopși per „pod” , menționată ca fiind de 2,84 ori peste Ironwood. Un „superpod” TPU 8t poate scala la 9.600 de cipuri și 2 PB (petabytes) de memorie partajată cu lățime mare de bandă. TPU 8i (inferință) : orientat spre rularea modelelor în producție, cu 288 GB HBM (memorie cu lățime mare de bandă) și 384 MB SRAM pe cip , adică o creștere de 3 ori față de generația anterioară. Pentru calcul, este indicată o capacitate FP8 de 331,8 exaflopși per pod , menționată ca fiind de 6,74 ori peste Ironwood. Publicația notează și îmbunătățiri „performanță per dolar” față de Ironwood („TPUv7”): 2,7 ori pentru TPU 8t în antrenare la scară mare și +80% pentru TPU 8i în inferență cu latență redusă (ținte MoE – „Mixture of Experts”, o arhitectură de model). Ambele ar livra și de două ori mai bună „performanță per watt”, relevantă pentru costul total de operare (TCO). Rețea, stocare și răcire: infrastructura din jurul cipurilor Pentru scalare, Google introduce Virgo Network , o rețea optimizată pentru AI, menită să conecteze atât sisteme NVIDIA Vera Rubin NVL72, cât și superpoduri TPU 8t în clustere foarte mari. Pe partea de stocare, sunt menționate: Managed Lustre cu 10 TB/s către A5X sau TPU 8t prin RDMA; Rapid Storage, cu un salt de la 6 TB/s la 15 TB/s . La nivel fizic, TPU-urile sunt proiectate să funcționeze cu răcire cu lichid de generația a 4-a , pentru densități de calcul care nu ar fi sustenabile cu răcire pe aer. Unde intră NVIDIA Rubin și Axion în ecuație Google afirmă că va fi „printre primii” furnizori care oferă NVIDIA Vera Rubin NVL72 , alături de instanțe bazate pe Blackwell și Hopper deja disponibile. În paralel, compania își împinge propriile procesoare Axion (Arm), inclusiv instanțele N4A, despre care sursa spune că ar livra 100% mai bun raport preț–performanță decât alternative x86 comparabile. Cine ar urma să folosească platforma Wccftech enumeră câțiva clienți pentru AI Hypercomputer, între care US DOE (Departamentul Energiei al SUA) , Boston Dynamics , Citadel Securities , Thinking Machine Labs și Axia Energy . Materialul nu oferă detalii despre dimensiunea contractelor sau calendarul implementărilor. [...]

Google aduce în România Pomelli , un instrument cu inteligență artificială care poate reduce costurile și timpul de producție pentru materiale de marketing ale firmelor mici , prin generarea rapidă de imagini, clipuri video și propuneri de campanii, potrivit Paginademedia . Pomelli este un experiment dezvoltat de Google Labs în parteneriat cu Google DeepMind și este disponibil „din aceste zile” în România, dar și în Uniunea Europeană, Norvegia, Elveția și Marea Britanie. Instrumentul funcționează, deocamdată, în limba engleză. Cum funcționează Pomelli, în practică Platforma folosește AI pentru a „înțelege” o afacere și a genera conținut personalizat în trei pași: Analiză : scanează site-ul companiei pentru a identifica elemente precum comunicarea de brand, mesaje, fonturi și culori. Generare de propuneri : sugerează idei de conținut și campanii pe baza identității identificate; utilizatorul poate rafina rezultatele prin comenzi conversaționale. Creație : produce conținut pentru social media, site sau reclame (imagini și video), care poate fi editat sau descărcat direct, inclusiv pentru fotografii de produs ori „sesiuni foto” pentru produse și servicii. Limitări și ce înseamnă pentru utilizatorii din România În forma actuală, Pomelli generează imagini și clipuri video cu text în engleză, iar interacțiunea cu utilizatorul este tot în engleză. Platforma permite însă editarea textelor, astfel încât acestea pot fi modificate și adaptate în limba română. Instrumentul are și o versiune de mobil, conform aceleiași surse. [...]

Google mută masiv munca de programare către IA, iar inginerii ajung să supervizeze codul : în prezent, 75% din codul scris pentru propriile produse este generat de inteligența artificială, potrivit Profit . Schimbarea contează operațional pentru o companie care dezvoltă la scară globală, pentru că redefinește rolul echipelor tehnice și ritmul de livrare al produselor. În acest model, inginerii software care nu mai scriu efectiv cod au rolul de a superviza codul produs de IA, pe măsură ce tehnologia „devine din ce în ce mai bună la programare”, notează publicația. Un exemplu invocat de CEO-ul Google, Sundar Pichai , indică impactul asupra vitezei de execuție: o migrare de cod „deosebit de complexă”, realizată cu „agenți” (instrumente software bazate pe IA care execută sarcini) și ingineri lucrând împreună, ar fi fost finalizată de șase ori mai repede decât era posibil cu un an în urmă, când procesul se baza doar pe ingineri. „Recent, o migrare de cod deosebit de complexă, realizată de agenți și ingineri care au lucrat împreună, a fost finalizată de șase ori mai repede decât era posibil acum un an doar cu ingineri”, spune Sundar Pichai. Ce se schimbă în practică Din informațiile prezentate, tranziția are două efecte directe în organizație: o parte semnificativă din scrierea codului este transferată către IA (75% din total, conform Google); rolul inginerilor se mută spre control, verificare și coordonare a codului generat automat, nu doar spre implementare manuală. Articolul nu oferă detalii despre ce produse sau ce tipuri de proiecte sunt incluse în acest procent și nici despre modul în care Google măsoară „codul scris” de IA, astfel că amploarea exactă pe echipe și arii rămâne neprecizată în materialul citat. [...]

Google face disponibil „în producție” Gemini Embedding 2 , un model de „embedding” (reprezentări numerice folosite la căutare și potrivire semantică) care poate lucra nativ cu mai multe tipuri de date, potrivit Google Blog . Miza pentru companii și dezvoltatori este operațională: trecerea de la prototipuri la sisteme stabile, optimizate, care pot căuta și „raționa” peste text, imagini, video și audio fără lanțuri tehnice fragmentate. Disponibilitatea generală (general availability) înseamnă, în termeni practici, că Google consideră produsul suficient de matur pentru utilizare la scară largă, cu stabilitatea și optimizările necesare pentru implementări în medii de producție. Accesul se face prin Gemini API și prin Vertex AI, platforma Google pentru dezvoltarea și rularea aplicațiilor de inteligență artificială. Ce problemă încearcă să rezolve În perioada de previzualizare, utilizatorii au construit prototipuri precum motoare avansate de descoperire pentru comerț electronic și instrumente mai eficiente de analiză video, notează compania. Exemplele sunt relevante pentru că indică tipul de aplicații unde „embedding”-urile multimodale pot reduce complexitatea: în loc de fluxuri separate pentru text, imagine sau video, un singur sistem poate indexa și interoga mai multe formate. Google argumentează că această abordare răspunde unei nevoi tot mai frecvente în organizații: sisteme care pot face căutare și inferență peste date eterogene (text, imagine, video, audio), unde anterior era nevoie de „pipeline”-uri (lanțuri de procesare) complexe și fragmentate. Ce se schimbă pentru dezvoltatori și companii Odată cu trecerea la disponibilitate generală, Google poziționează Gemini Embedding 2 ca tehnologie pregătită pentru producție, cu accent pe: stabilitate pentru rulare în aplicații comerciale; optimizări pentru implementări la scară; integrare prin canale standard pentru clienți: Gemini API și Vertex AI. Compania mai precizează că modelul este parte dintr-o categorie de tehnologii care alimentează multe produse Google și că își propune să transfere aceste rezultate de cercetare către comunitatea de dezvoltatori. Ce urmează Materialul nu oferă detalii despre prețuri, niveluri de performanță sau limite tehnice, astfel că impactul financiar direct (costuri per apel, condiții comerciale) nu poate fi evaluat din această sursă. Din informațiile publicate, concluzia principală este că Google împinge explicit Gemini Embedding 2 din zona de test în zona de implementare operațională, prin canale enterprise (Vertex AI) și prin API-ul Gemini. [...]