Știri
Știri din categoria Inteligență artificială

Alphabet își leagă creșterea din T1 2026 de monetizarea și eficientizarea AI, cu un avans de 19% la Search & Other Advertising și o accelerare puternică în Cloud, unde veniturile au urcat cu 63% și au depășit pentru prima dată 20 mld. dolari (aprox. 92 mld. lei), potrivit Google.
Mesajul CEO-ului Sundar Pichai, publicat ca transcript editat al intervenției din apelul cu investitorii, pune accent pe faptul că investițiile în inteligență artificială și abordarea „full-stack” (de la infrastructură la modele și aplicații) „conduc performanța” în toate liniile majore de business. Din perspectivă economică, două elemente ies în față: ritmul de creștere al Cloud și încercarea de a ține sub control costurile și latența (timpul de răspuns) pe măsură ce AI este integrată în produse cu audiență masivă, precum Search.
Google indică o cerere ridicată pentru produse și infrastructură AI în Cloud. În T1 2026, veniturile Cloud au crescut cu 63% și au depășit 20 mld. dolari (aprox. 92 mld. lei), iar „backlog”-ul (valoarea contractelor semnate, dar încă neîncasate) „aproape s-a dublat” față de trimestrul anterior, la peste 460 mld. dolari (aprox. 2.116 mld. lei).
Compania mai susține că soluțiile sale de AI pentru companii au devenit „principalul motor de creștere” pentru Cloud „pentru prima dată”, iar veniturile din produse construite pe modelele sale generative au crescut „aproape 800%” față de anul anterior. La nivel comercial, Google menționează:
Pe produs, Google arată că Gemini Enterprise a crescut cu 40% trimestru la trimestru ca utilizatori activi lunari plătitori, iar vânzările prin parteneri au urcat de 9 ori față de anul anterior (atât ca „seats” vândute, cât și ca număr de parteneri care adoptă intern produsul).
În Search, compania spune că interogările sunt la un maxim istoric și că AI Overviews și AI Mode contribuie la creștere și la revenirea utilizatorilor. În același timp, Google insistă pe eficiență: afirmă că a redus latența Search cu peste 35% în ultimii cinci ani, iar după trecerea AI Overviews și AI Mode la Gemini 3 a redus costul răspunsurilor AI „de bază” cu peste 30%, prin îmbunătățiri de hardware și inginerie.
Aceste detalii sunt relevante pentru modelul economic al Search: integrarea AI în pagina de rezultate tinde să crească consumul de calcul, iar controlul costurilor devine o condiție pentru a susține marje și investiții.
Google își leagă strategia de AI de infrastructură proprie (TPU-uri – procesoare specializate pentru AI) și de opțiuni multiple de calcul, inclusiv GPU-uri NVIDIA. Compania spune că va fi „printre primii” furnizori care vor oferi NVIDIA Vera Rubin NVL72, pe lângă instanțe bazate pe Blackwell și Hopper.
La Cloud Next, Google a prezentat TPU-urile de generația a opta, cu două variante: TPU 8t (pentru antrenare) și TPU 8i (pentru inferență – rularea modelului pentru a genera răspunsuri). Potrivit companiei, TPU 8t are de trei ori puterea de procesare față de Ironwood și de două ori performanța, iar TPU 8i oferă cu 80% mai bună performanță per dolar decât generația anterioară.
La nivel de utilizare, Google afirmă că modelele sale „first-party” procesează peste 16 miliarde de tokeni pe minut prin utilizare directă a API-urilor de către clienți (față de 10 miliarde în trimestrul anterior). În ultimele 12 luni, 330 de clienți Google Cloud ar fi procesat fiecare peste 1 trilion de tokeni, iar 35 au depășit pragul de 10 trilioane.
Pe zona de consum, Google spune că a avut „cel mai puternic trimestru” pentru planurile sale de AI pentru consumatori, în principal datorită adopției aplicației Gemini. Numărul total de abonamente plătite a ajuns la 350 de milioane, cu YouTube și Google One ca principali contributori.
Separat, compania notează că YouTube Music și Premium au avut în T1 cea mai mare creștere trimestrială a numărului de abonați (excluzând perioadele de probă), atât la nivel global, cât și în SUA, de la lansarea YouTube Premium în iunie 2018.
Google indică drept repere apropiate evenimentele I/O, Brandcast și Google Marketing Live, unde ar urma să ofere mai multe detalii despre evoluțiile din Search și AI. În paralel, mesajul către investitori rămâne unul consecvent: creșterea vine din extinderea AI în produse și din monetizarea acesteia în Cloud, cu accent pe infrastructură și pe reducerea costurilor de operare pe măsură ce utilizarea se intensifică.
Recomandate

OpenAI își schimbă strategia de infrastructură și se îndepărtează de ideea de a deține centre de date „ Stargate ”, preferând să închirieze pe termen lung capacitate de calcul , o mutare care reduce nevoia de investiții directe, dar tensionează relațiile cu partenerii și ridică semne de întrebare privind predictibilitatea companiei, potrivit Tom's Hardware . În forma inițială, Stargate a fost prezentat la începutul lui 2025 ca un joint venture cu Oracle și SoftBank, cu o țintă de investiții de 500 de miliarde de dolari (aprox. 2.250 miliarde lei) în centre de date pentru inteligență artificială în SUA. După „mai mult de un an” de dificultăți și neînțelegeri, OpenAI ar fi renunțat, în practică, la ideea de a deține infrastructură alături de parteneri și ar fi trecut la acorduri mai flexibile, bazate pe furnizori terți și închiriere de capacitate, conform Financial Times. De ce contează: mai puțin capital blocat, dar mai mult risc de execuție și încredere Schimbarea are o logică financiară pentru o companie care „arde numerar” și care ar fi ratat în ultimele luni ținte interne de venituri, notează materialul. În același timp, repoziționarea a produs „haos” în rândul partenerilor și a pus sub semnul întrebării fiabilitatea OpenAI, în condițiile în care raportul citat susține că startup-ul a „abandonat în practică” joint venture-ul, în favoarea unor acorduri bilaterale mari (inclusiv cu Oracle). O persoană implicată în proiect ar fi spus că OpenAI a „tras pe linie moartă centrele de date proprii”, iar compania ar fi admis că Stargate este doar un „termen umbrelă” pentru strategia sa de capacitate de calcul. Efecte colaterale: proiecte puse pe pauză și parteneri nemulțumiți Incertitudinile ar fi afectat și proiecte din afara SUA. Guvernul britanic a semnat un acord cu OpenAI și alți parteneri pentru construirea unui centru de date în Marea Britanie, însă OpenAI l-a pus „pe hold” la începutul acestei luni, invocând „reglementări restrictive” și „costuri ridicate ale energiei”. Ministrul britanic pentru IA, Kanishka Narayan, a declarat pentru Financial Times că singurul lucru care s-a schimbat față de momentul angajamentelor ar fi fost „mediul de finanțare pentru OpenAI”. În paralel, unele părți implicate ar fi rămas cu sentimentul că au fost „dezamăgite și induse în eroare”, pe fondul deciziei Microsoft de a interveni în unele proiecte pe care OpenAI le-ar fi abandonat. O sursă citată de publicație a punctat că „banii nu sunt nelimitați”, iar o alta a spus că ar prefera Microsoft ca „chiriaș”, pentru că „este mai solvabil”. În lipsa unor detalii suplimentare în material despre calendarul noilor acorduri sau despre ce proiecte vor continua efectiv sub „umbrela” Stargate, rămâne de urmărit cum va arăta, concret, mixul de furnizori și contracte prin care OpenAI își va asigura capacitatea de calcul în perioada următoare. [...]

LG Electronics discută cu Nvidia o posibilă cooperare pe centre de date AI, robotică și mobilitate , o combinație care ar putea împinge compania sud-coreeană mai adânc în lanțul de furnizori pentru infrastructura AI și ar extinde prezența Nvidia dincolo de zona industrială, potrivit The Next Web . LG a confirmat miercuri că poartă discuții cu Nvidia pentru colaborare în trei direcții: robotică, centre de date pentru inteligență artificială și mobilitate. Întâlnirea a avut loc după o vizită la sediul LG din Yeouido (Seul) a lui Madison Huang, director senior Nvidia pentru platforme de „AI fizic” (inteligență artificială integrată în roboți și sisteme autonome), alături de reprezentanți ai altor companii tehnologice sud-coreene; la discuții a participat și CEO-ul LG, Ryu Jae-cheol. Nu există, deocamdată, un acord formal. Discuțiile sunt descrise ca fiind exploratorii, fără produse, sume de investiții sau calendare confirmate. De ce contează: miza comercială imediată pare să fie centrele de date Deși componenta de robotică este cea mai vizibilă public, materialul indică faptul că discuțiile despre centre de date și mobilitate ar putea avea o relevanță comercială mai rapidă. În zona centrelor de date, LG și-a poziționat deja oferta ca furnizor de soluții de răcire și management termic (HVAC) pentru centre de date AI, pe fondul creșterii densității de putere a clusterelor de GPU, care face răcirea convențională tot mai dificilă. O eventuală colaborare cu Nvidia ar plasa LG ca furnizor hardware în ecosistemul Nvidia la nivel de infrastructură, completând stratul de calcul (compute) cu cel de răcire, fără a concura direct cu acesta. Robotică: LG are platformă proprie, Nvidia are „stack”-ul de dezvoltare La CES 2026, LG a prezentat CLOiD, un robot pentru acasă cu două brațe articulate (șapte grade de libertate pe braț) și câte cinci degete acționate individual la fiecare mână, parte din viziunea „Zero Labor Home”, în care roboții și electrocasnicele conectate preiau sarcini casnice. Robotul rulează pe platforma proprie LG, „Affectionate Intelligence”, orientată spre conștientizare contextuală, interacțiune naturală și învățare continuă din mediul de acasă. În schimb, Nvidia vine cu Isaac (platforma sa pentru robotică), care include simulare, modele pre-antrenate pentru manipulare, infrastructură de „geamăn digital” (digital twin) bazată pe Omniverse și calcul pe GPU optimizat pentru inferență în timp real. Integrarea ar putea scurta drumul de la prototip la producție, printr-un flux de dezvoltare–implementare deja validat în industrie. Pentru Nvidia, un partener precum LG ar însemna acces la scară de consum: distribuție de masă, o bază instalată globală de electrocasnice conectate prin ecosistemul ThinQ și un plan explicit de a aduce roboți în locuințe — un mediu bogat în date pentru antrenare (sarcini reale, variabilitate mare). Mobilitate: integrare posibilă între „experiența din cabină” și platforma de calcul Pe mobilitate, discuțiile ar putea lega platforma Nvidia DRIVE (folosită pe scară largă pentru calcul AI în vehicule autonome și semi-autonome) de activitatea LG din componente auto. Divizia LG produce sisteme de infotainment, camere, componente pentru vehicule electrice și soluții AI în mașină (inclusiv urmărirea privirii, afișaje adaptive și platforme generative multimodale). O colaborare ar putea integra stratul de experiență AI din cabină al LG cu platforma de calcul DRIVE a Nvidia. Context: „AI-ul fizic” trece de la teste controlate la parteneriate comerciale Materialul plasează discuțiile în tendința mai largă de accelerare a „AI-ului fizic”, adică trecerea de la modele rulate în cloud la sisteme care operează în lumea reală (roboți, vehicule, logistică). Sunt menționate, ca repere, un trial Siemens–Nvidia într-o fabrică din Erlangen și o rundă de finanțare de 110 milioane de dolari (aprox. 506 milioane lei) atrasă de Sereact pentru scalarea AI-ului care face roboții adaptabili. În acest moment, singura certitudine este existența discuțiilor și ariile vizate; dacă și când se va ajunge la un acord, precum și forma concretă (produse, investiții, termene), rămân neconfirmate. [...]

Google extinde exportul de fișiere în Gemini , reducând pașii de lucru între aplicații , printr-o actualizare care permite generarea și descărcarea directă a documentelor din bara de prompt, potrivit Engadget . Funcționalitatea se folosește simplu: utilizatorul descrie ce vrea (de exemplu „creează un buget”), iar apoi apasă butonul de export pentru a descărca rezultatul în formatul dorit. Google spune că schimbarea urmărește să elimine „copierea, lipirea și reformatarea”, astfel încât munca să poată fi mutată mai ușor în alte aplicații. Ce formate sunt suportate Lista de formate menționată include atât fișiere uzuale, cât și formate folosite în mediul profesional și academic: PDF, TXT, RTF, CSV Google Docs, Google Slides, Google Sheets Microsoft Word și foi de calcul Excel Markdown și LaTeX LaTeX este un sistem de tehnoredactare folosit pe scară largă pentru articole și reviste științifice. Engadget notează că suportul pentru LaTeX este relevant în contextul în care OpenAI a lansat recent Prism, o aplicație dedicată formatării jurnalelor în LaTeX. Din imaginile distribuite de Google odată cu anunțul, reiese că Gemini poate genera și diagrame în LaTeX, ceea ce ar putea fi util mai ales pentru studenții din domeniile STEM (știință, tehnologie, inginerie, matematică). Cine primește actualizarea și cum se poziționează față de rivali Google începe să distribuie actualizarea la nivel global către toți utilizatorii Gemini, inclusiv cei cu conturi Workspace individuale. Engadget amintește că nu este o premieră în industrie: chatbotul Claude al Anthropic poate edita și genera fișiere (inclusiv foi de calcul Excel) încă din septembrie anul trecut. [...]

OpenAI își extinde distribuția în cloud dincolo de Microsoft , după ce modelele sale vor fi disponibile pentru prima dată în Amazon Bedrock , mișcare care poate schimba opțiunile de achiziție și integrare pentru companiile care folosesc servicii AWS, potrivit TechRadar . Parteneriatul vine la o zi după ce OpenAI a anunțat că Microsoft nu mai este partenerul său exclusiv de cloud, deși rămâne „partener prioritar”. În noul aranjament, clienții Amazon Bedrock vor putea accesa modele GPT și alte modele asociate, iar agentul Codex va putea fi integrat în medii AWS. Ce se schimbă pentru clienții AWS: OpenAI intră direct în Bedrock Integrarea pune modelele OpenAI „lângă” alte opțiuni deja disponibile în Bedrock, inclusiv de la Anthropic, Meta, Mistral, Cohere și Amazon, plus „alți furnizori de top”, conform informațiilor din material. TechRadar notează că pachetul include și „cel mai bun model de frontieră” al OpenAI, GPT‑5.5. Odată cu disponibilitatea în Bedrock, companiile păstrează accesul la funcții tipice de utilizare enterprise din AWS, precum: controale de acces IAM (gestionarea identităților și permisiunilor), rețelistică privată, criptare, „guardrails” (mecanisme de limitare și control al comportamentului modelelor), jurnalizare prin AWS CloudTrail. Codex, disponibil în ecosistemul AWS, dar deocamdată în „limited preview” Amazon evidențiază integrarea Codex și menționează că produsul are patru milioane de utilizatori săptămânali. Potrivit articolului, Codex este disponibil prin Codex CLI, aplicația desktop Codex și extensia pentru Visual Studio Code. Atât Codex în Bedrock, cât și disponibilitatea modelelor OpenAI și a Amazon Bedrock Managed Agents alimentați de OpenAI sunt, deocamdată, în regim de „limited preview” (acces limitat), ceea ce indică o lansare etapizată, nu o disponibilitate generală imediată. Context: un acord pe termen lung și investiții majore în infrastructură Dezvoltarea vine la câteva săptămâni după ce Amazon a anunțat un „parteneriat strategic multianual” cu OpenAI, care ar include o investiție de 50 miliarde dolari (aprox. 230 miliarde lei) în companie, conform TechRadar. În cadrul acelui acord, OpenAI ar urma să consume 2 GW de capacitate Trainium (cipuri/acceleratoare AWS pentru antrenarea modelelor) prin infrastructura AWS, iar cele două companii ar urma să dezvolte împreună modele personalizate pentru aplicațiile orientate către clienți ale Amazon. TechRadar mai menționează că acordul pe opt ani ar fi o extindere a unei înțelegeri anterioare, „în valoare combinată” de 138 miliarde dolari (aprox. 635 miliarde lei). AWS descrie acest pas drept „începutul unei colaborări mai profunde”, iar eliminarea exclusivității cu Microsoft poate deschide calea pentru extinderi similare și cu alți furnizori de cloud. [...]

Un agent AI a șters baza de date a unui startup în 9 secunde , potrivit Business Insider , după ce a executat o comandă distructivă fără confirmare, declanșând un blocaj major pentru clienți. Incidentul a fost relatat de Jer Crane, fondatorul PocketOS , o platformă software pentru firme de închirieri auto, care susține că agentul Cursor AI , bazat pe modelul Claude Opus 4.6, a eliminat atât baza de date de producție, cât și copiile de siguranță în doar nouă secunde, folosind un token API cu drepturi extinse găsit într-un fișier fără legătură directă. Problema a apărut în timpul unei sarcini de rutină în mediul de testare, când agentul a întâlnit o eroare de autentificare și a decis autonom să „rezolve” situația prin ștergerea unui volum de date din infrastructura Railway. Platforma a executat comanda fără o etapă de confirmare, iar copiile de rezervă, stocate pe același volum, au fost șterse simultan. Consecințele au fost imediate: trei luni de rezervări, plăți și date ale clienților au dispărut; firmele de închirieri auto nu mai aveau evidența comenzilor; clienții s-au prezentat pentru ridicarea mașinilor fără rezervări valide. Crane a fost nevoit să reconstruiască manual datele folosind surse alternative precum plăți Stripe, calendare și emailuri de confirmare. Ulterior, când i s-a cerut explicația, agentul AI ar fi generat un mesaj în care recunoștea că „a ghicit în loc să verifice” și că a executat o acțiune distructivă fără permisiune. Recuperarea completă a fost posibilă abia după intervenția directorului Railway, Jake Cooper, care a restaurat datele din copii interne de urgență, neincluse în oferta standard. Între timp, compania a modificat sistemul pentru a introduce întârzieri și confirmări obligatorii la ștergeri. Cazul scoate în evidență riscurile utilizării agenților AI în infrastructuri critice. Fondatorul PocketOS cere schimbări clare la nivel de industrie, inclusiv limitarea permisiunilor tokenurilor, separarea copiilor de siguranță și introducerea unor mecanisme stricte de control pentru acțiuni ireversibile. [...]

Google accelerează vizibil comenzile vocale în Home, dar câștigul de viteză e, deocamdată, limitat la trei limbi , potrivit WinFuture . Un update major pentru Google Home reduce întârzierea dintre comandă și execuție cu până la o secundă și jumătate la controlul unor dispozitive precum lămpi și prize, ceea ce poate schimba concret experiența de utilizare în locuințele conectate. Câștigul de performanță se vede și la setarea de timere și alarme, care ar urma să se facă „aproape fără timp de așteptare”. Limitarea importantă: îmbunătățirile de viteză sunt disponibile în prezent doar pentru comenzi în engleză, franceză și spaniolă, iar extinderea la alte limbi este planificată „în lunile următoare”. Publicația notează și că Gemini a „învățat” recent germana, sugerând că suportul lingvistic este în extindere, dar fără un calendar precis pentru fiecare limbă. Integrare mai profundă a Gemini și mai puține comenzi interpretate greșit Actualizarea integrează mai adânc asistentul bazat pe inteligență artificială Gemini în Google Home și urmărește să reducă erorile în conversații continue. Concret, sistemul ar distinge mai bine între comenzi independente și întrebări de tip „follow-up” (continuări), ar ignora fragmente irelevante de conversație din încăpere și ar limita declanșările nedorite. Totodată, rutinele create de utilizatori ar trebui să ruleze mai „lin”, fără să fie perturbate de comenzi care sosesc în paralel, conform descrierii din material. Aplicația Home: interfață de cameră refăcută și instrumente de depanare Google Home primește și o actualizare a aplicației, cu o vizualizare modernizată pentru camere și acces mai rapid la funcții. Printre schimbările menționate se numără: culori dinamice în interfață; rezultate de căutare care se încarcă mai rapid pentru înregistrările video; meniuri simplificate pentru recunoaștere facială și zone de activitate; descrieri reorganizate pentru o navigare mai ușoară. Pe partea operațională, apare și un instrument util pentru situațiile în care dispozitivele smart home sunt marcate „offline” din cauza expirării conectării la un furnizor terț: aplicația ar afișa direct un buton de reautentificare, reducând timpul pierdut cu verificări prin setări. „Home Vitals” și o schimbare cu impact pentru abonații premium Update-ul introduce „Home Vitals”, un instrument de diagnostic destinat producătorilor de hardware, care ar ajuta la identificarea timpurie a problemelor de conectivitate, erorilor și latențelor. Ideea este ca furnizorii să poată corecta mai rapid problemele, iar utilizatorii finali să aibă conexiuni mai stabile în utilizarea de zi cu zi. Separat, pentru utilizatorii unui serviciu premium (menționat în material), apare o „blocare”/pauză de cont în caz de probleme de plată: dacă plata cu cardul eșuează, abonamentul intră într-o perioadă de grație și se suspendă temporar, în loc să fie șterse imediat și ireversibil de pe servere istoricul video, fețele învățate și descrierile evenimentelor. Acest mecanism le oferă utilizatorilor timp să-și actualizeze datele de plată. [...]