Știri
Știri din categoria Tehnologie

Google a deschis testarea pentru Android 17 QPR1 Beta 1, iar pentru utilizatorii de Pixel miza imediată este riscul de pierdere a datelor la ieșirea din programul beta, dacă nu urmează pașii corecți, potrivit WinFuture.
Actualizarea marchează începutul ciclului pentru primul „Quarterly Platform Release” (QPR) din Android 17 — un pachet trimestrial care pregătește sistemul pentru „Feature Drop”-ul (val de funcții și îmbunătățiri) programat în septembrie. Beta 1 este disponibilă pentru seriile Pixel 6 până la Pixel 10, precum și pentru Pixel Tablet și modelele pliabile din gamă.
Accentul nu este pe funcții noi majore, ci pe corecții punctuale, conform notelor de lansare publicate de Google. În această primă versiune beta sunt vizate, între altele:
Publicația atrage atenția că instalarea QPR1 Beta 1 îi vizează în special pe utilizatorii care acceptă un traseu de actualizări mai rigid și o posibilă instabilitate. Pentru cei care sunt deja în Android 17 beta și vor să revină la versiunea stabilă fără să-și piardă datele, momentul este sensibil: trebuie să se retragă oficial din programul beta, iar actualizarea QPR1 nu trebuie instalată.
După retragere, telefonul va afișa un update de „downgrade” (revenire la o versiune anterioară). Instalarea acestuia resetează dispozitivul la setările din fabrică, deci șterge datele locale. Recomandarea este ca acel update să fie ignorat; dacă utilizatorul așteaptă lansarea finală a Android 17 pe canalul stabil, solicitarea de downgrade dispare, iar trecerea se face fără pierdere de date.
Recomandate

Google își mută accentul investițiilor de calcul pentru învățare automată către cloud , estimând că în 2026 „puțin peste jumătate” din investiția totală de compute pentru machine learning va merge către Google Cloud, pe fondul creșterii rapide a utilizării modelelor sale prin API și al cererii pentru „mii” de agenți AI în companii, potrivit Google Cloud . În mesajul publicat la Cloud Next 2026, CEO-ul Google și Alphabet, Sundar Pichai, spune că modelele „first-party” ale companiei procesează acum peste 16 miliarde de tokeni pe minut prin utilizare directă via API de către clienți, față de 10 miliarde în trimestrul anterior. Tokenii sunt unități de text folosite de modelele de inteligență artificială pentru a „citi” și „genera” conținut, iar volumul indică presiune în creștere pe infrastructura de calcul. De ce contează: capacitatea de calcul devine un diferențiator comercial Mesajul central este că Google încearcă să transforme cererea pentru agenți AI (programe care pot executa sarcini în mod autonom, pe baza unor obiective) într-un avantaj competitiv pentru Google Cloud, atât prin platforme de management, cât și prin infrastructură dedicată. Pichai descrie o schimbare de la întrebarea „putem construi un agent?” la „cum administrăm mii dintre ei?”, ceea ce mută discuția din zona de prototipuri în zona de operare la scară, cu cerințe de guvernanță (reguli și control), securitate și optimizare a costurilor. Platformă pentru „misiunea de control” a agenților Google spune că a introdus Gemini Enterprise Agent Platform , pe care o prezintă drept o platformă „full-stack” (adică acoperă mai multe straturi tehnice, de la integrare la operare) pentru a construi, scala, guverna și optimiza agenți. Compania leagă această direcție de performanța produsului Gemini Enterprise: în T1, numărul de utilizatori activi lunari plătitori ar fi crescut cu 40% față de trimestrul anterior. Securitate: soluții „agentice” și integrare cu Wiz Pe zona de securitate cibernetică, Google anunță o serie de soluții „agentice” pentru detecția amenințărilor, ca parte a unei platforme de securitate alimentate de AI care combină Threat Intelligence și Security Operations ale Google cu platforma de securitate cloud și AI a Wiz. Tot aici, compania menționează lansarea Wiz AI Application Protection Platform (AI-APP) , descrisă ca oferind protecție autonomă „de la cod la cloud și runtime” (adică inclusiv în faza de rulare a aplicațiilor), în medii multi-cloud, hibride și AI. Infrastructură: TPU-uri generația a 8-a, separate pentru antrenare și inferență Google introduce a opta generație de TPU (Tensor Processing Unit) , cipuri specializate pentru sarcini de inteligență artificială, cu o abordare în două variante: TPU 8t , optimizat pentru antrenare: poate scala până la 9.600 TPU și 2 petabytes de memorie partajată într-un singur „superpod”; ar oferi de trei ori puterea de procesare față de Ironwood și până la 2 ori mai multă performanță pe watt. TPU 8i , optimizat pentru inferență (rularea modelelor deja antrenate): conectează 1.152 TPU într-un singur pod, cu scopul de a reduce latența; are de trei ori mai mult SRAM „on-chip” și este poziționat pentru a rula „milioane de agenți” concomitent, „cost-eficient”. Google precizează că va oferi aceste TPU-uri clienților cloud, alături de o ofertă de instanțe cu GPU NVIDIA. „Customer zero”: utilizare internă ca argument de eficiență În același text, Pichai susține că Google folosește intern propriile tehnologii ca „customer zero” (primul client), inclusiv în dezvoltare software și operațiuni: 75% din codul nou la Google ar fi „generat de AI și aprobat de ingineri”, față de 50% în toamna trecută; un proiect de migrare de cod realizat de agenți și ingineri ar fi fost finalizat de șase ori mai repede decât era posibil cu un an în urmă doar cu ingineri; în securitate, agenții din centrul de operațiuni ar triaja automat zeci de mii de rapoarte neorganizate lunar, reducând timpul de atenuare a amenințărilor cu peste 90%; în operațiuni de marketing, utilizarea modelelor ar fi dus la un timp de execuție cu 70% mai rapid și o creștere a conversiilor cu 20% pentru lansarea Gemini în Chrome. Google indică faptul că va reveni cu noutăți la Google I/O, programat pe 19 mai. [...]

Google își accelerează infrastructura pentru „agenți” AI, iar utilizarea în rândul clienților Cloud crește rapid , potrivit Google Blog , care rezumă principalele noutăți prezentate la conferința Google Cloud Next ’26 . Compania spune că aproape 75% dintre clienții Google Cloud folosesc deja produsele sale de inteligență artificială, iar volumul de procesare prin API (interfață de programare) a urcat la peste 16 miliarde de „tokeni” pe minut, de la 10 miliarde în trimestrul anterior. Miza economică și operațională este că Google încearcă să transforme cererea pentru AI „agentic” (sisteme care pot executa sarcini în mod autonom, pe baza unui obiectiv) într-un consum mai mare de infrastructură și servicii cloud, într-un moment în care competiția între furnizori se duce tot mai mult pe capacitate de calcul, cost și guvernanță (control și reguli de utilizare) pentru aplicațiile AI. Ce indică datele de utilizare comunicate de Google În materialul de sinteză, Google oferă câteva repere despre amploarea utilizării: aproape 75% dintre clienții Google Cloud folosesc produse AI ale companiei; 330 de clienți Google Cloud au procesat fiecare „peste un trilion de tokeni” în ultimele 12 luni; modelele Google procesează „peste 16 miliarde de tokeni pe minut” prin utilizare directă via API de către clienți, față de „10 miliarde” în trimestrul anterior. „Tokenii” sunt unități de text (sau fragmente de text) folosite la procesarea limbajului de către modele AI; creșterea volumelor sugerează atât extinderea utilizării, cât și intensificarea încărcării pe infrastructură. Direcția anunțată: platformă pentru agenți și o nouă generație de TPU Google poziționează „transformarea către o întreprindere agentică” drept o evoluție inevitabilă pentru organizații și spune că la Cloud Next ’26 a prezentat „foaia de parcurs” pentru tranziție, cu două repere centrale: Gemini Enterprise Agent Platform , descrisă ca o platformă pentru a construi, scala, guverna și optimiza agenți autonomi; a opta generație de Tensor Processing Units (TPU) , cu „două cipuri specializate” și o abordare „dual-chip” pentru antrenare și inferență (rularea modelului pentru a produce răspunsuri). Materialul nu include detalii de preț, termene de disponibilitate sau specificații tehnice complete în pagina de sinteză, ci trimite către articole separate din colecție. Ce urmează și la ce să se uite companiile Din perspectiva utilizatorilor enterprise, mesajul principal este că Google împinge simultan pe două fronturi: instrumente „deasupra” (platforme pentru agenți, integrare cu datele și procesele) și capacitate „dedesubt” (cipuri și infrastructură de centre de date). Pentru companii, întrebările practice rămân legate de costul total al utilizării (consum de tokeni și calcul), controlul asupra agenților și integrarea cu datele interne — aspecte pe care Google le leagă de noua platformă și de infrastructura dedicată. [...]

Google mizează pe accelerarea „agenților” AI și separă hardware-ul pe două direcții: inferență rapidă și antrenare la scară mare , prin lansarea a două cipuri TPU dedicate, potrivit Google Cloud . TPU-urile (Tensor Processing Units) sunt procesoare specializate pentru sarcini de inteligență artificială. În contextul „erei agentice”, Google descrie agenții AI ca sisteme care pot „raționa, planifica și executa” fluxuri de lucru în mai mulți pași, în numele utilizatorului, ceea ce ridică cerințele de performanță și infrastructură. Ce aduce fiecare cip: TPU 8i pentru viteză, TPU 8t pentru antrenare Google prezintă două cipuri cu roluri distincte: TPU 8i este proiectat „în mod specific” pentru ca agenții AI să finalizeze foarte repede sarcini, cu obiectivul declarat de a susține o experiență bună pentru utilizator (adică răspunsuri rapide în utilizare). TPU 8t este „optimizat pentru antrenare” și este poziționat ca soluție pentru rularea „celor mai complexe modele” pe „un singur” bazin masiv de memorie (o arhitectură care urmărește să reducă fragmentarea și complexitatea antrenării distribuite). De ce contează: infrastructura devine diferențiator operațional pentru AI „agentic” Mesajul central este că aceste cipuri sunt parte dintr-o infrastructură „full-stack” construită pentru AI, care include rețelistică, centre de date și operațiuni eficiente energetic. Google susține că, împreună, acestea formează „motorul” care ar permite aducerea AI-ului agentic „către mase”, cu accent pe capacitatea de a livra sisteme „foarte receptive” (adică cu latență redusă și răspuns rapid). Google nu oferă în acest material cifre de performanță, prețuri sau termene de disponibilitate comercială, astfel că impactul concret în costuri și adopție rămâne de evaluat pe măsură ce apar detalii tehnice și oferte în platforma cloud. [...]

Google mizează pe reducerea costului de rulare a AI în producție : potrivit Google Cloud , a opta generație de cipuri TPU vine în două variante specializate – TPU 8t pentru antrenare (training) și TPU 8i pentru inferență (rulare rapidă a modelelor) – cu promisiunea unor câștiguri de eficiență care pot schimba economia proiectelor de inteligență artificială la scară mare. Anunțul a fost făcut la Google Cloud Next și vizează infrastructura necesară „erei agentice”, în care modele și agenți AI trebuie să execute fluxuri cu mai mulți pași și să învețe din propriile acțiuni în bucle continue, ceea ce crește presiunea pe latență, memorie și consum energetic. Compania spune că cele două cipuri vor fi disponibile „mai târziu în acest an”, iar organizațiile pot cere informații în avans pentru a se pregăti de disponibilitatea generală. De ce contează: eficiența devine constrângerea principală în centrele de date Google susține că, în centrele de date, limita nu mai este doar disponibilitatea cipurilor, ci și energia electrică. În acest context, TPU 8t și TPU 8i sunt proiectate să crească performanța pe watt (raportul dintre puterea de calcul și consumul de energie), compania indicând „până la de două ori” performanță pe watt față de generația anterioară, Ironwood. Separat, pentru inferență – adică partea care generează costuri recurente când modelele sunt folosite de clienți – Google afirmă că TPU 8i aduce „80%” performanță mai bună per dolar comparativ cu generația precedentă, ceea ce ar permite companiilor „aproape dublarea volumului de clienți la același cost”. TPU 8t: accelerarea antrenării și scalare la nivel de „superpod” Pentru TPU 8t, Google pune accent pe scurtarea ciclului de dezvoltare a modelelor „de la luni la săptămâni” și pe creșterea capacității de antrenare la scară foarte mare. Printre elementele menționate: „aproape 3x” performanță de calcul per pod față de generația anterioară; un „superpod” care scalează la 9.600 de cipuri și două petabytes de memorie partajată cu lățime mare de bandă; 121 ExaFlops putere de calcul (conform descrierii din material); integrarea unui acces la stocare „de 10x mai rapid” și TPUDirect pentru a aduce datele direct în TPU. Google mai spune că TPU 8t țintește peste 97% „goodput” (timp de calcul util), prin funcții de fiabilitate și mentenanță (RAS), inclusiv telemetrie în timp real, rerutare automată în jurul legăturilor defecte și comutare optică a circuitelor (OCS) pentru reconfigurare fără intervenție umană. TPU 8i: inferență cu latență redusă și „agenți” care colaborează Pentru TPU 8i, mesajul central este reducerea latenței în scenarii cu mulți agenți AI care lucrează împreună („swarming”), unde întârzierile mici se amplifică la scară. Google enumeră patru direcții tehnice, cu impact direct în cost și timp de răspuns: memorie de mare viteză: 288 GB memorie cu lățime mare de bandă și 384 MB SRAM pe cip (de „3x” față de generația anterioară), pentru a ține setul activ de lucru „pe cip”; trecerea la procesoare gazdă Axion (CPU Arm dezvoltate de Google) și dublarea numărului de gazde CPU fizice per server, cu arhitectură NUMA (organizare a memoriei pe noduri) pentru izolare; pentru modele de tip MoE (Mixture of Experts), dublarea lățimii de bandă a interconectării (ICI) la 19,2 Tb/s și o arhitectură Boardfly care reduce „diametrul” rețelei cu peste 50%; un motor pe cip pentru accelerarea operațiunilor colective (CAE), care reduce latența pe cip „cu până la 5x”. Implicații operaționale: compatibilitate cu framework-uri uzuale și acces „bare metal” Google afirmă că ambele platforme rulează pe gazde CPU Axion și suportă nativ JAX, MaxText, PyTorch, SGLang și vLLM, plus acces „bare metal” (acces direct la hardware, fără costul suplimentar al virtualizării). Compania menționează și contribuții open-source, inclusiv implementări de referință MaxText și Tunix pentru suport de învățare prin recompensă (reinforcement learning). În material este menționat și un exemplu de utilizator, Citadel Securities , ca organizație care a ales TPU-uri pentru sarcini AI, fără a fi detaliate însă proiectele sau dimensiunea implementării. Ce urmează Google indică disponibilitate „mai târziu în acest an” pentru TPU 8t și TPU 8i și spune că se pot solicita informații în avans. Din perspectiva companiilor, miza practică este dacă îmbunătățirile de performanță per dolar și per watt se traduc în costuri mai mici de inferență și în cicluri mai rapide de antrenare, într-un moment în care rularea AI la scară este limitată tot mai des de energie și de eficiența infrastructurii, nu doar de puterea brută de calcul. [...]

Samsung își leagă promovarea Galaxy S26 Ultra de lansarea în cinematografe a „ The Devil Wears Prada 2 ”, mizând pe expunere globală și pe demonstrații „în teren” ale funcției Circle to Search cu Google , potrivit Samsung News . Campania pornește cu conținut personalizat în care apare actrița Helen J. Shen (în rolul „Jin”), iar telefonul este prezentat ca instrument pentru rezolvarea rapidă a unei cereri de ultim moment folosind „Circle to Search” (căutare prin încercuire, integrată cu Google). Cum arată activarea: „Runway Cam #withGalaxy” la premiera mondială Piesa centrală a colaborării este o activare la premiera mondială a filmului, unde Galaxy S26 Ultra a fost folosit pentru a surprinde ținutele de pe covorul roșu. Samsung descrie momentul ca prima „Runway Cam #withGalaxy”, cu imagini „cu aspect cinematografic”, pregătite pentru publicare pe rețelele sociale. În cadrul sesiunii foto realizate cu S26 Ultra au apărut, între alții, Helen J. Shen, Simone Ashley, Justin Theroux, Lucy Liu, Heidi Klum, Paige DeSorbo, Hannah Berner și Winnie Harlow. A participat și influencerul Haley Kalil (@hayleebaylee), utilizatoare a modelului S26 Ultra, care a publicat conținut despre utilizarea funcțiilor telefonului, inclusiv Circle to Search cu Google, pentru pregătirea pentru premieră. „Sunt o mare fană a filmului The Devil Wears Prada și, ca membră Team Galaxy, îmi place la nebunie Galaxy S26 Ultra”, a spus Haley. „Să văd aceste lumi ciocnindu-se aici, pe covorul roșu, și să împărtășesc cu fanii toate funcțiile mele preferate ale seriei Galaxy S26 a fost pur și simplu cea mai bună experiență.” De ce contează pentru Samsung: demonstrație de produs la scară mare, în context cultural Dincolo de asocierea cu un titlu cu vizibilitate globală, colaborarea este construită ca o demonstrație practică a unei funcții-cheie (Circle to Search) în scenarii „cu miză mare”, în universul filmului. Keena Grigsby, director de marketing și vicepreședinte Mobile eXperience la Samsung Electronics America, spune că Samsung vrea să continue colaborarea cu Google pentru a arăta „puterea funcției Circle to Search” și că este „deosebit de entuziasmată” să facă acest lucru „la o scară atât de largă și pe un ecran mare”, odată cu premiera mondială. „Pentru Samsung Galaxy, colaborările sunt mai profunde decât simple asocieri. Pentru noi, este vorba despre colaborare intenționată, celebrarea inovației și colaborarea cu oameni și branduri care reflectă și se aliniază cu baza noastră diversă de clienți”, a declarat Keena Grigsby. Din partea studioului, Lylle Breier, vicepreședinte executiv pentru parteneriate, promoții și evenimente la The Walt Disney Studios, afirmă că obiectivul a fost extinderea poveștii „dincolo de ecran” în „momentele culturale” care definesc moda, iar colaborarea cu Samsung ar conecta publicul la lumea Runway prin conținut orientat spre rețele sociale. Ce urmează Samsung precizează că filmul „The Devil Wears Prada 2” intră în cinematografe din 29 aprilie, iar campania include o serie de spoturi creative realizate împreună cu Google, plasate în universul filmului, pentru a evidenția utilizarea Circle to Search pe Galaxy S26 Ultra. Pentru detalii despre dispozitiv, compania indică paginile dedicate Galaxy S26 Ultra de pe site-ul Samsung. [...]

Huawei pregătește o nouă „armă” foto pentru vârful de gamă Mate 90 RS , care ar putea primi o soluție de cameră de 200 MP și chiar un sistem cu două lentile periscop (zoom optic), potrivit Huawei Central . Miza este una operațională: Huawei încearcă să împingă mai departe diferențierea prin fotografie pe segmentul premium, într-o piață în care tot mai multe branduri urmăresc configurații cu senzori de 200 MP. Modelul Pura 90 Pro Max este menționat ca primul telefon Huawei care a folosit un senzor de 200 MP, iar seria Mate 90 ar urma să continue această direcție. Informațiile sunt prezentate ca „zvonuri”/„scurgeri” (leaks), nu ca detalii confirmate oficial. Ce se discută despre camera Mate 90 RS Conform materialului, un „tipster” (surse neoficiale care publică informații înainte de lansare) de pe Weibo, SmartPikachu, indică faptul că variantele de top ale seriei Mate 90 – Pro Max și RS Ultimate – ar putea primi un nou senzor periscop de 200 MP. În plus, Huawei ar putea completa configurația cu o cameră de zoom de 50 MP, cu scopul de a îmbunătăți fotografia macro (cadre de aproape), pe lângă funcțiile de zoom. Publicația amintește și configurația de pe Pura 90 Pro Max: un senzor telefoto „mare” de 200 MP, cu filtru RYYB (o arhitectură de pixeli folosită pentru sensibilitate mai bună la lumină), stabilizare optică (OIS) și capabilități de „telefoto macro”. Ecran și furnizori: ce mai apare în scurgeri Aceeași sursă indică și o posibilă schimbare la nivel de afișaj: Pro Max și RS Ultimate ar putea folosi ecrane OLED plate cu „dublu strat” (double-layer OLED). În paralel, sunt menționate zvonuri despre utilizarea unor panouri OLED „tandem” personalizate pentru viitoarele flagship-uri Huawei, posibil chiar pe telefoanele Mate din 2026. La nivel de lanț de aprovizionare, Huawei „ar putea” apela la SmartSens pentru senzori, fără a fi oferite detalii ferme despre modele sau volume. Ce rămâne neclar Materialul menționează și o întrebare din partea utilizatorilor despre o baterie de 7.000 mAh, la care tipsterul ar fi răspuns că este „încă în lucru” – fără confirmare că o astfel de capacitate va ajunge efectiv pe dispozitivele finale. În acest stadiu, informațiile trebuie tratate ca indicii despre direcția de dezvoltare, nu ca specificații finale: nu există o confirmare oficială Huawei privind camera de 200 MP pe Mate 90 RS, sistemul cu două periscoape sau detaliile de ecran. [...]