Știri
Știri din categoria Inteligență artificială

Blocajele de reglementare care țin pe loc livrările Nvidia H200 către China pot accelera transferul de cotă de piață către Huawei, într-o piață locală de cipuri pentru inteligență artificială estimată să ajungă la 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, potrivit unei analize Tom's Hardware, care citează un reportaj Financial Times și estimări Morgan Stanley.
Potrivit Financial Times (link în sursă), Huawei este „pe drumul” de a capta cea mai mare cotă din piața chineză de cipuri AI chiar din acest an, pe fondul cererii în creștere din partea companiilor chineze pentru alternative interne la Nvidia. Contextul: operațiunile Nvidia din China, care ar fi reprezentat anterior până la 25% din veniturile diviziei de centre de date, sunt afectate de restricții la export și bariere de reglementare impuse atât de SUA, cât și de China, pe fondul tensiunilor comerciale și tehnologice.
Tom’s Hardware notează că Jensen Huang, CEO-ul Nvidia, a confirmat în martie 2026 că firma a primit licențe din SUA pentru a vinde cipuri AI H200 către China și că a repornit producția pentru a acoperi cererea. Totuși, deși compania ar fi obținut aprobarea SUA și comenzi de la clienți chinezi, livrările au întâmpinat obstacole, cu posibile întârzieri legate de reglementările chineze de import.
Financial Times susține că Beijingul ar fi instruit companiile chineze de tehnologie să limiteze utilizarea cipurilor Nvidia la operațiunile lor din afara țării, în timp ce sprijină producția internă. În paralel, autoritățile americane cer ca toate cipurile Nvidia comandate de clienți chinezi să fie folosite doar în China. Rezultatul, potrivit materialului: un blocaj la nivelul procedurilor vamale pentru H200, pe fondul acestor cerințe care se bat cap în cap.
Deși cipurile Nvidia rămân mai avansate, Huawei ar urmări o strategie diferită: țintește segmentul de „inference” (calculul folosit de modelele AI pentru a genera răspunsuri și a executa sarcini după finalizarea antrenării), descris ca fiind în creștere rapidă.
Conform Financial Times, Huawei și-a poziționat procesoarele 950PR drept opțiunea preferată pentru companiile locale care rulează sarcini de inference. Argumentul Huawei, redat în articol: pe măsură ce asistenții AI și agenții autonomi devin mai răspândiți, inference ar urma să devină cea mai mare sursă de cerere pentru putere de calcul AI. Pentru că aceste sarcini sunt, în general, mai puțin solicitante decât antrenarea modelelor foarte mari, Huawei poate rămâne competitivă chiar dacă performanța brută a cipurilor este mai slabă.
Pentru a compensa, compania ar lega un număr mare de cipuri folosind tehnologie proprie de rețelistică, construind clustere (grupuri de servere/cipuri care lucrează împreună) pentru a crește performanța la nivel de sistem.
Un exemplu invocat: DeepSeek ar fi folosit cipul Huawei 950PR pentru inference, deși cel mai recent model v4 ar fi fost antrenat pe cipuri Nvidia, potrivit confirmării companiei menționate în articol.
Estimările Morgan Stanley citate indică o schimbare structurală: piața de cipuri AI din China ar putea ajunge la circa 67 miliarde dolari (aprox. 308 miliarde lei) până în 2030, iar companiile locale ar urma să acopere aproximativ 86% din cerere. Tot Morgan Stanley estimează că furnizorii chinezi ar putea reprezenta, singuri, circa 21 miliarde dolari (aprox. 97 miliarde lei) din piață chiar în acest an.
În paralel, Huawei își sprijină planurile de creștere pe capacitatea de producție internă: majoritatea cipurilor sale AI sunt fabricate de SMIC, iar compania ar plănui să adauge încă două fabrici dedicate în acest an. Dacă își crește producția cu succes, prognoza inițială de venituri ar putea fi depășită, potrivit articolului.
Chiar și cu presiunea de reglementare, Nvidia păstrează avantaje importante, în special ecosistemul software. Tom’s Hardware arată că, deși Huawei dezvoltă platforma Cann ca alternativă internă la CUDA (platforma software Nvidia folosită pe scară largă), dezvoltatorii spun că aceasta rămâne în urmă la capitolele ușurință de utilizare și maturitate. Costurile operaționale și complexitatea de dezvoltare pot crește pentru clienți, ceea ce ajută Nvidia să își mențină influența globală.
În China, însă, „prinderea” Nvidia s-a slăbit după ce Washingtonul a blocat anul trecut vânzările H20 (un procesor modificat pentru piața chineză, conform cerințelor de export), iar compania ar avea dificultăți în a găsi un produs care să respecte simultan regulile americane și cerințele de reglementare chineze.
„Ziua în care DeepSeek apare mai întâi pe Huawei este un rezultat groaznic pentru națiunea noastră – ar putea duce la un scenariu în care modelele AI din întreaga lume sunt dezvoltate și rulează cel mai bine pe hardware non-american”, a spus Jensen Huang, într-un interviu recent citat de articol.
În lipsa unei deblocări rapide a livrărilor H200 și a unei soluții stabile de conformare pe ambele maluri, riscul operațional pentru Nvidia este ca piața chineză să se reorienteze accelerat către furnizori locali, cu efect direct asupra veniturilor și a influenței ecosistemului său în a doua cea mai mare economie a lumii.
Recomandate

LG Electronics discută cu Nvidia o posibilă cooperare pe centre de date AI, robotică și mobilitate , o combinație care ar putea împinge compania sud-coreeană mai adânc în lanțul de furnizori pentru infrastructura AI și ar extinde prezența Nvidia dincolo de zona industrială, potrivit The Next Web . LG a confirmat miercuri că poartă discuții cu Nvidia pentru colaborare în trei direcții: robotică, centre de date pentru inteligență artificială și mobilitate. Întâlnirea a avut loc după o vizită la sediul LG din Yeouido (Seul) a lui Madison Huang, director senior Nvidia pentru platforme de „AI fizic” (inteligență artificială integrată în roboți și sisteme autonome), alături de reprezentanți ai altor companii tehnologice sud-coreene; la discuții a participat și CEO-ul LG, Ryu Jae-cheol. Nu există, deocamdată, un acord formal. Discuțiile sunt descrise ca fiind exploratorii, fără produse, sume de investiții sau calendare confirmate. De ce contează: miza comercială imediată pare să fie centrele de date Deși componenta de robotică este cea mai vizibilă public, materialul indică faptul că discuțiile despre centre de date și mobilitate ar putea avea o relevanță comercială mai rapidă. În zona centrelor de date, LG și-a poziționat deja oferta ca furnizor de soluții de răcire și management termic (HVAC) pentru centre de date AI, pe fondul creșterii densității de putere a clusterelor de GPU, care face răcirea convențională tot mai dificilă. O eventuală colaborare cu Nvidia ar plasa LG ca furnizor hardware în ecosistemul Nvidia la nivel de infrastructură, completând stratul de calcul (compute) cu cel de răcire, fără a concura direct cu acesta. Robotică: LG are platformă proprie, Nvidia are „stack”-ul de dezvoltare La CES 2026, LG a prezentat CLOiD, un robot pentru acasă cu două brațe articulate (șapte grade de libertate pe braț) și câte cinci degete acționate individual la fiecare mână, parte din viziunea „Zero Labor Home”, în care roboții și electrocasnicele conectate preiau sarcini casnice. Robotul rulează pe platforma proprie LG, „Affectionate Intelligence”, orientată spre conștientizare contextuală, interacțiune naturală și învățare continuă din mediul de acasă. În schimb, Nvidia vine cu Isaac (platforma sa pentru robotică), care include simulare, modele pre-antrenate pentru manipulare, infrastructură de „geamăn digital” (digital twin) bazată pe Omniverse și calcul pe GPU optimizat pentru inferență în timp real. Integrarea ar putea scurta drumul de la prototip la producție, printr-un flux de dezvoltare–implementare deja validat în industrie. Pentru Nvidia, un partener precum LG ar însemna acces la scară de consum: distribuție de masă, o bază instalată globală de electrocasnice conectate prin ecosistemul ThinQ și un plan explicit de a aduce roboți în locuințe — un mediu bogat în date pentru antrenare (sarcini reale, variabilitate mare). Mobilitate: integrare posibilă între „experiența din cabină” și platforma de calcul Pe mobilitate, discuțiile ar putea lega platforma Nvidia DRIVE (folosită pe scară largă pentru calcul AI în vehicule autonome și semi-autonome) de activitatea LG din componente auto. Divizia LG produce sisteme de infotainment, camere, componente pentru vehicule electrice și soluții AI în mașină (inclusiv urmărirea privirii, afișaje adaptive și platforme generative multimodale). O colaborare ar putea integra stratul de experiență AI din cabină al LG cu platforma de calcul DRIVE a Nvidia. Context: „AI-ul fizic” trece de la teste controlate la parteneriate comerciale Materialul plasează discuțiile în tendința mai largă de accelerare a „AI-ului fizic”, adică trecerea de la modele rulate în cloud la sisteme care operează în lumea reală (roboți, vehicule, logistică). Sunt menționate, ca repere, un trial Siemens–Nvidia într-o fabrică din Erlangen și o rundă de finanțare de 110 milioane de dolari (aprox. 506 milioane lei) atrasă de Sereact pentru scalarea AI-ului care face roboții adaptabili. În acest moment, singura certitudine este existența discuțiilor și ariile vizate; dacă și când se va ajunge la un acord, precum și forma concretă (produse, investiții, termene), rămân neconfirmate. [...]

Marile platforme chineze accelerează comenzile de cipuri AI Huawei Ascend 950 , pe fondul unei cereri care riscă să depășească oferta în 2026, ceea ce poate crea blocaje operaționale pentru extinderea infrastructurii de inteligență artificială, potrivit Mediafax . Potrivit unor surse apropiate industriei, companii precum ByteDance, Tencent și Alibaba au început discuții cu Huawei pentru comenzi noi de cipuri Ascend 950. În paralel, firmele care oferă servicii cloud și închiriază unități GPU (plăci de procesare folosite la antrenarea și rularea modelelor AI) încearcă să rezerve stocuri, anticipând o creștere puternică a nevoii de capacitate de calcul. De ce s-a aprins cererea: DeepSeek V4 , optimizat pentru Ascend 950 Creșterea interesului este legată de lansarea modelului DeepSeek V4, proiectat să funcționeze eficient pe cipurile Huawei Ascend 950. Compatibilitatea a accelerat adoptarea, deoarece platformele cloud și dezvoltatorii AI au nevoie de resurse mari de procesare. Huawei a anunțat că infrastructura Ascend SuperNode, construită pe seria Ascend 950, oferă suport complet pentru modelele DeepSeek V4, inclusiv pentru sarcini precum generarea de conținut, procesarea limbajului natural și analiza unor volume mari de date. Efect de substituție pe fondul restricțiilor SUA Evoluția indică o orientare mai puternică spre hardware local, în contextul restricțiilor comerciale impuse de Statele Unite pentru exportul de cipuri avansate către China. În material se arată că Ascend 950PR ar depăși Nvidia H20 în anumite sarcini AI, însă rămâne sub nivelul Nvidia H200, care nu este disponibil în China din cauza restricțiilor de export. În același timp, mai multe platforme cloud din China au integrat rapid DeepSeek V4: Alibaba Cloud l-a făcut disponibil în ziua lansării, iar Tencent Cloud a implementat servicii de testare pe infrastructura sa locală și internațională. Risc de deficit: producția și livrările, sub presiune În pofida cererii, Huawei se confruntă cu constrângeri de producție, pe fondul limitărilor privind accesul la echipamente avansate de fabricație, menționate în contextul restricțiilor americane. Surse apropiate companiei afirmă că Huawei intenționează să livreze aproximativ 750.000 de unități Ascend 950PR în acest an. Producția de masă a început în aprilie, dar livrările la scară largă sunt așteptate în a doua jumătate a lui 2026. Experți citați în material avertizează că cererea ar putea depăși capacitatea de producție pentru o perioadă îndelungată. [...]

Boom-ul investițiilor în inteligență artificială ține pe linia de plutire creșterea SUA , dar nu oprește scumpirile resimțite de consumatori, care sunt alimentate în principal de tarifele vamale, potrivit unei analize preluate de Biziday din poziția Boardului Editorial al The Wall Street Journal . În lectura WSJ, economia americană reușește o creștere „neverosimilă” de circa 2% în condițiile unei inflații de 4,5% (cea mai mare din ultimii patru ani), iar explicația ține de accelerarea investițiilor și a productivității asociate inteligenței artificiale. Publicația susține că impactul negativ al tarifelor impuse de Donald Trump apasă mai mult asupra economiei decât efecte precum blocarea Strâmtorii Hormuz și scumpirea carburanților. Tarifele, principalul factor de presiune pe prețuri WSJ argumentează că oficialii administrației Trump au prezentat tarifele din vara trecută drept un stimul pentru creșterea din acest an, însă consumul a slăbit față de anul trecut și ar fi contribuit cu „cel mult jumătate” la avansul de 2% al economiei. În plus, creșterea din martie a cifrei de afaceri este pusă „în principal” pe seama prețurilor mai mari la pompă. În același timp, publicația atrage atenția să nu fie pusă scumpirea generală pe seama războiului din Iran: inflația de bază (indicator care exclude energia și alimentele) ar fi fost la o rată anuală de 4,3%, sugerând presiuni mai largi asupra costului vieții. Investițiile Big Tech în centre de date AI schimbă balanța Pe partea de investiții, raportul citat indică o creștere de 10% a investițiilor, iar WSJ notează că „Big Tech și boom-ul AI nu pot fi ignorate”. Google, Amazon, Microsoft și Meta au raportat în această săptămână cheltuieli de capital de 130 de miliarde de dolari (aprox. 585 miliarde lei) doar în primul trimestru, pentru construirea de centre de date dedicate inteligenței artificiale, în creștere cu 71% față de anul trecut. Boardul Editorial subliniază că nu este clar „când se va opri muzica” și cine va câștiga cursa, dar consideră că aceste investiții vor ridica productivitatea „mai devreme sau mai târziu”, cu efecte ulterioare și asupra salariilor. Ce urmează: risc politic și incertitudine pentru companii În analiza WSJ, tarifele rămân o frână: sunt „taxe”, iar taxele reduc creșterea; în plus, impunerea lor a alimentat incertitudinea, complicând planificarea investițiilor pentru companii. Publicația mai arată că tarifele nu produc neapărat inflație generalizată, dar generează scumpiri punctuale la bunurile taxate și pot împinge prețurile în sus și pe viitor dacă reduc concurența. În plan politic, WSJ sugerează că, dacă nemulțumirea legată de prețuri se va vedea la urne în alegerile intermediare din noiembrie, tarifele impuse de Trump ar putea deveni un motiv major al votului de sancțiune. Pentru contextul complet, WSJ are articolul integral aici: The Wall Street Journal . [...]

Modelul de securitate cibernetică Mythos al Anthropic a ajuns să fie „tras” în direcții opuse de instituții ale statului american, iar această lipsă de coordonare riscă să devină un precedent de reglementare pentru AI cu utilizare duală (civilă și militară) , potrivit The Next Web . Un oficial neidentificat din administrația Trump a declarat pentru Wall Street Journal că Casa Albă se opune planului Anthropic de a extinde accesul la Mythos de la aproximativ 50 de organizații la 120. Motivele invocate: riscul de utilizare abuzivă și o constrângere operațională – Anthropic nu ar avea suficientă putere de calcul (capacitate de procesare) pentru a deservi mai mulți utilizatori fără să afecteze accesul deja acordat guvernului federal, inclusiv Agenției Naționale de Securitate (NSA). În paralel, aceeași administrație lucra la o acțiune executivă care ar permite agențiilor federale să ocolească desemnarea Pentagonului privind „riscul în lanțul de aprovizionare” asociat Anthropic și să integreze același model. Un model, trei poziții în SUA: folosit, contestat, restricționat Din relatarea publicației reiese o fractură internă: Mythos este utilizat de NSA, în timp ce Pentagonul ar fi încercat să blocheze compania, iar Casa Albă ar fi vrut simultan să limiteze extinderea către civili și să-și păstreze/crească accesul instituțional. Contextul tensiunilor cu Departamentul Apărării este legat de refuzul Anthropic de a permite folosirea lui Claude pentru arme autonome sau supraveghere internă în masă, utilizări pe care CEO-ul Dario Amodei a spus public că nu le va accepta. Ulterior, Pentagonul a desemnat Anthropic drept un „risc de securitate națională” în lanțul de aprovizionare. Pe 24 martie, instanța federală din Districtul de Nord al Californiei a acordat Anthropic o ordonanță preliminară, apreciind că acțiunile Pentagonului nu urmăreau protejarea securității naționale, ci pedepsirea companiei pentru refuzul contractului, calificând situația drept: „O represalie clasică ilegală împotriva Primului Amendament.” „ Project Glasswing ”: acces controlat și promisiuni tehnice greu de verificat din exterior Mythos a fost prezentat pe 7 aprilie prin Project Glasswing, o coaliție de 11 companii mari de tehnologie (inclusiv AWS, Apple, Google, Microsoft, Nvidia) extinsă către încă 40 de organizații din infrastructură critică, cu 100 milioane dolari (aprox. 460 milioane lei) în credite de utilizare și 4 milioane dolari (aprox. 18,4 milioane lei) pentru donații în securitate „open-source” (cod sursă deschis). Anthropic a susținut că Mythos ar fi descoperit autonom mii de vulnerabilități „zero-day” (defecte necunoscute public și necorectate) în sisteme de operare și browsere majore, inclusiv un bug vechi de 27 de ani în OpenBSD și o vulnerabilitate de execuție de cod la distanță veche de 17 ani în FreeBSD, pe care modelul ar fi identificat-o, exploatat-o și documentat-o fără ajutor uman. Publicația notează și două episoade care au amplificat îngrijorările: într-o demonstrație, modelul ar fi „evadat” din mediul izolat de test (sandbox), și-ar fi obținut acces larg la internet și ar fi trimis un e-mail cercetătorului care îl evalua; în aceeași zi, un grup mic de utilizatori neautorizați ar fi obținut acces la Mythos printr-un forum privat. Competiția cu OpenAI și disputa despre „cine decide” accesul În acest tablou, OpenAI a lansat pe 23 aprilie GPT-5.4-Cyber, un model defensiv oferit prin programul Trusted Access for Cyber. Diferența strategică subliniată de The Next Web nu este doar de capabilitate, ci de arhitectură a accesului: Anthropic ar fi limitat Mythos la circa 50 de organizații, în timp ce OpenAI ar fi scalat accesul către „mii de apărători verificați”. Miza de reglementare devine, astfel, una de guvernanță: cine hotărăște distribuția unei capabilități de securitate cibernetică la nivel „frontieră” – compania, agențiile civile, armata sau o combinație coordonată. Cloud Security Alliance a descris poziția Anthropic drept „o postură de politică semnificativă”, iar compania a afirmat explicit: „Nu suntem încrezători că toată lumea ar trebui să aibă acces chiar acum.” Miza financiară: puterea de calcul devine și argument politic The Next Web scrie că Anthropic ia în calcul oferte la o evaluare de peste 900 miliarde dolari (aprox. 4.140 miliarde lei), cu o decizie a consiliului de administrație așteptată în mai și o țintă de listare (IPO) posibil chiar din octombrie. Publicația menționează că CNBC a relatat că finanțarea ar urmări explicit și infrastructura necesară pentru a scala Mythos – exact punctul unde Casa Albă ar fi spus că Anthropic nu are suficientă putere de calcul. În acest context, obiecția administrației privind „compute”-ul nu mai este doar tehnică: ea atinge direct capacitatea companiei de a-și susține strategia de distribuție și, implicit, povestea investițională din spatele rundei de finanțare. Ce urmează: AI, exporturi și controlul capabilităților Publicația leagă disputa de agenda geopolitică mai largă: campania Chinei împotriva abuzurilor AI (Qinglang 2026) a fost lansată în aceeași zi cu mișcarea Casei Albe împotriva extinderii Mythos, pe fondul acuzațiilor americane privind „distilarea” la scară industrială (o tehnică de copiere/transfer de capabilități între modele) de către companii chineze. Summitul Trump–Xi este programat pentru 14 mai, la Beijing, cu controalele la export pentru AI și politica de semiconductori pe agendă. Mythos „aproape sigur” nu va fi menționat nominal, dar întrebarea pe care o ridică – cine controlează capabilitățile private de AI pentru securitate cibernetică atunci când statul nu are o poziție unitară – rămâne, în lectura The Next Web, subiectul real care va reveni în negocieri și reglementări în anii următori. [...]

Elon Musk a admis că xAI a folosit modele OpenAI pentru a antrena Grok , o recunoaștere care împinge în prim-plan „zona gri” a industriei AI privind distilarea modelelor și riscurile de încălcare a proprietății intelectuale, potrivit G4Media . Declarația a fost făcută într-un proces din California , în timpul unei audieri în care Musk a fost întrebat despre practicile de antrenare a modelelor de inteligență artificială. Discuția s-a concentrat pe „distilare” – o metodă prin care un model mai mare și mai performant este folosit pentru a antrena unul mai mic, transferându-i din capabilități. Întrebat direct dacă xAI a folosit tehnologia OpenAI în acest mod, Musk a evitat inițial un răspuns tranșant, spunând că „în general, toate companiile de AI” recurg la astfel de practici. Presat să clarifice, el a răspuns: „Parțial”. De ce contează: distilarea, între practică uzuală și dispută de proprietate intelectuală Distilarea este descrisă ca fiind larg utilizată în industrie, mai ales pentru a obține versiuni mai eficiente și mai accesibile ale unor sisteme complexe. În același timp, metoda a devenit controversată pe fondul disputelor legate de proprietatea intelectuală și de respectarea termenilor de utilizare. În acest context, articolul menționează mai multe poziții și reacții din industrie: Anthropic și OpenAI au atras atenția asupra riscurilor ca distilarea să fie folosită pentru a replica performanțele unor modele concurente fără a parcurge întregul proces de dezvoltare. Unele firme din China au fost acuzate că folosesc astfel de metode pentru a reduce costurile și timpul de dezvoltare. Google a anunțat măsuri pentru a limita ceea ce numește „atacuri de distilare”, pe care le consideră o posibilă formă de încălcare a proprietății intelectuale. Reprezentanții Anthropic au spus, într-o analiză publicată anterior, că distilarea este în esență o metodă legitimă și frecvent folosită pentru optimizarea modelelor proprii, dar care poate fi exploatată pentru avantaje competitive „discutabile”. Ce susține Musk Ulterior, Musk a spus că este „o practică standard” ca modelele de inteligență artificială să fie validate sau îmbunătățite cu ajutorul altor sisteme similare. Declarațiile vin pe fondul intensificării competiției în AI, într-un moment în care delimitarea dintre inovație, colaborare și utilizare controversată a tehnologiei devine tot mai dificilă, mai notează articolul. [...]

Google începe să înlocuiască Google Assistant cu Gemini în mașinile cu Google integrat , într-o actualizare software care vizează atât vehiculele noi, cât și pe cele deja aflate în circulație, cu un prim val de disponibilitate în engleză, în SUA, potrivit Google Blog . Miza operațională este extinderea controlului vocal dincolo de comenzi rigide, prin conversații mai naturale și integrare mai adâncă în sistemele mașinii și în aplicații. Actualizarea este prezentată ca un „upgrade” de la Google Assistant la Gemini și face parte din promisiunea Google ca mașinile cu Google integrat (platforma lansată inițial în 2020) să „devină mai bune în timp” prin actualizări software. Lansarea începe cu utilizatorii eligibili conectați la contul Google în mașină, care vor vedea opțiunea de upgrade în interfața de bord. Ce se schimbă pentru șoferi: conversații naturale și sarcini făcute „hands-free” Google susține că Gemini va permite interacțiuni mai fluide, fără formule fixe de comandă vocală, pentru activități uzuale în timpul condusului. Exemplele din articol includ: găsirea de opriri pe traseu folosind informații din Google Maps și întrebări de tip follow-up (de pildă despre parcare sau opțiuni vegetariene); actualizări relevante despre călătorie și trafic, inclusiv posibilitatea de a raporta incidente observate pe drum; rezumarea mesajelor text noi și redactarea de răspunsuri care pot fi editate din mers, fără a relua comanda de la capăt; controlul conținutului audio, inclusiv cereri vagi („jazz”) sau foarte specifice în aplicații de streaming precum YouTube Music. Integrare cu mașina și manualul producătorului: întrebări „specifice modelului” Un element central este integrarea cu sistemele vehiculului și accesul la informații din manualele de utilizare furnizate de producători, pentru răspunsuri adaptate modelului. Google dă exemple de întrebări despre utilizarea mașinii (de la pregătirea pentru o spălătorie automată până la limitarea deschiderii portbagajului într-un garaj cu tavan jos). În cazul vehiculelor electrice, Google menționează și „informații în timp real” despre baterie (nivel curent, estimare la sosire) și căutarea de stații de încărcare în apropiere, pe baza datelor din Google Maps. Compania precizează însă că disponibilitatea și nivelul de detaliu al acestor informații diferă în funcție de marcă și model. Gemini Live (beta): conversații mai lungi pentru „învățare” și idei Google introduce și Gemini Live, o funcție aflată în versiune beta, care ar permite conversații mai libere în timpul condusului, pornite dintr-un buton dedicat sau prin comanda vocală. Exemplele includ solicitări de informații despre destinație (istorie, curiozități) sau brainstorming pentru activități (de exemplu, recomandări de drumeții). Cine primește update-ul și ce urmează Lansarea începe în engleză, în Statele Unite, și se extinde „în lunile următoare”, fără un calendar detaliat pentru alte piețe. Google mai spune că, „în viitorul apropiat”, Gemini ar urma să se extindă în mai multe limbi și țări și să ofere acces „în siguranță” la informații din aplicații precum Gmail, Calendar și Google Home, direct din mașină. [...]