Știri
Știri din categoria Inteligență artificială

Google își segmentează mai agresiv abonamentele AI, iar diferența reală se vede în limitele de utilizare și în „creditele AI” pentru video: potrivit 9to5Google, pachetele Google AI Plus, Pro și Ultra (aprilie 2026) nu se diferențiază doar prin acces la modele, ci mai ales prin volumele zilnice/lunare permise, fereastra de context și accesul la produse conexe (Gmail, Drive, Home, Photos, NotebookLM), ceea ce poate schimba costul operațional pentru utilizatorii care folosesc intens instrumentele Gemini.
În varianta gratuită, utilizatorii primesc acces „general” la Gemini 3 Flash și acces „de bază” (cu limite zilnice variabile) la Thinking (3 Flash) și Pro (3.1 Pro), cu o fereastră de context de 32.000 de tokeni (aprox. 50 de pagini de text). Tot aici intră și funcții precum Memory (memorie/păstrarea contextului personal) și Personal Intelligence, plus plafoane relativ mici pentru Deep Research, generare de imagini și muzică, „dynamic view”, prezentări și automatizare pe ecran.
Saltul operațional apare la abonamentele plătite, unde cresc simultan:
Google AI Plus ridică limitele în aplicația Gemini (de exemplu, Thinking la 90 prompts/zi și Pro la 30 prompts/zi) și urcă fereastra de context la 128.000 de tokeni. Include și:
În plus, pachetul include pentru Flow și Whisk 200 „AI Credits” pe lună (credite consumate pe generări, nu pe cereri, notează publicația).
Google AI Pro este prezentat ca un rebrand al Google One AI Premium (fără referința explicită la Google One). În SUA, costă 19,99 dolari/lună (aprox. 90 lei) conform paginii de preț indicată de Google.
Dincolo de nume, Pro aduce un set de diferențiatori cu impact practic:
La nivel de aplicații, Pro include și:
Pentru NotebookLM, Pro ridică semnificativ plafoanele (de exemplu, până la 500 de notebook-uri și 20 Audio Overviews/zi) și adaugă setări avansate de stil al răspunsului și analitice.
Tot Pro include 5 TB stocare Google One (creștere de la 2 TB, anunțată la 1 aprilie, conform sursei) și acces la instrumente pentru dezvoltatori: Jules (agent asincron de programare), Gemini Code Assist, Gemini CLI și Antigravity, cu limite mai mari decât la gratuit.
Pe Pro, Google introduce 1.000 AI Credits/lună pentru Whisk și Flow și permite cumpărarea de credite suplimentare („top-up”), valabile 12 luni, la tarifele:
Publicația precizează că aceste costuri sunt „pe generare”, nu pe cerere, iar unele funcții pot produce mai multe generări dintr-o singură solicitare.
Google AI Ultra este disponibil în peste 150 de țări și costă 249,99 dolari/lună în SUA (aprox. 1.125 lei). Include Whisk + Flow și 12.500 AI Credits/lună.
În aplicația Gemini, Ultra urcă masiv limitele:
Ultra adaugă și:
Dincolo de „ce model ai”, Google împinge piața spre o logică de consum măsurat: limite zilnice/lunare, ferestre de context foarte mari pentru sarcini complexe (documente și cod) și o monedă internă („AI Credits”) pentru generare video în Flow/Whisk. Pentru utilizatorii care produc conținut sau automatizează fluxuri (mail, documente, căutare, video), diferența de cost poate ajunge să fie dictată de volum și de credite, nu de accesul nominal la Gemini.
Ce nu reiese din material: dacă prețurile și disponibilitatea din SUA se aplică identic în România; 9to5Google menționează explicit prețurile pentru SUA și disponibilitatea Ultra în 150+ țări, fără detalii pe fiecare piață.
Recomandate

TurboQuant nu va tempera semnificativ cererea de memorie pentru AI, iar presiunea pe prețuri ar putea rămâne ridicată până spre 2028 , potrivit unei analize techradar.com , care citează opinii ale unor analiști din Coreea de Sud. Miza pentru piață este economică: chiar dacă algoritmii de compresie fac modelele mai „eficiente”, competiția din AI se poartă pe performanță, ceea ce tinde să mențină (sau să crească) consumul total de DRAM în centrele de date. De ce „optimizarea” nu înseamnă automat mai puțină memorie cumpărată Analiștii citați susțin că îmbunătățirile de tip TurboQuant (un algoritm de compresie anunțat recent de Google) nu se traduc neapărat în scăderea cererii de semiconductori și memorie. Logica este că modele mai eficiente reduc costul per unitate de calcul, ceea ce poate stimula utilizarea AI la scară mai mare, anulând economiile de resurse la nivel de industrie. Un analist de la Samsung Securities, Lee Jong-wook, este citat cu ideea că optimizarea modelelor tinde să fie folosită pentru a livra servicii AI mai performante cu aceleași resurse, nu pentru a reduce consumul total. În același registru, el argumentează că, atâta timp cât companiile AI concurează pe performanță, optimizarea nu va apăsa în jos cererea de semiconductori. Adoptarea TurboQuant rămâne incertă, iar efectul poate fi invers decât speră piața Un alt analist, Kim Rok-ho (Hana Securities), atrage atenția că tehnologiile de compresie nu sunt noi și că rămâne neclar dacă vor fi adoptate pe scară largă în industria AI. Chiar și într-un scenariu de adopție mai amplă pe termen mediu și lung, el vede mai probabilă scăderea barierelor de cost și extinderea utilizării AI, decât o reducere a cererii pentru DRAM și stocare. Analiza notează și o doză de scepticism în comunitățile online privind modul în care Google își prezintă tehnologia, subliniind totodată că, în acest moment, TurboQuant este încă la nivel de cercetare, iar implementarea la scară mare rămâne de văzut. Semnale de ieftinire la retail, dar fără schimbări de fond în piață Textul trece în revistă și un raport TrendForce despre scăderi de preț la DDR5 în SUA, Europa și Asia, însă interpretarea este că ieftinirile țin mai degrabă de o reacție a consumatorilor la niveluri considerate prea ridicate, nu de o îmbunătățire structurală a ofertei. În paralel, se menționează că prețurile „de contract” pentru marii producători nu ar indica o schimbare majoră de trend. Este amintit și producătorul de laptopuri Framework, care a reușit să limiteze temporar creșterile de cost, dar compania ar fi avertizat că volatilitatea și scumpirile ar putea continua în restul lui 2026. Ce urmează Concluzia analizei este că dezechilibrul dintre cerere și ofertă pe piața memoriei, alimentat de AI, nu pare să se corecteze rapid, iar estimările citate indică lipsa unei îmbunătățiri „semnificative” până în 2028. În acest context, TurboQuant este prezentat mai degrabă ca o tehnologie care poate crește performanța și accesibilitatea AI, nu ca un factor care să reducă presiunea asupra consumului total de RAM. [...]

Google extinde global rezervările „agentice” în AI Mode , o funcție care poate căuta și face rezervări la restaurante în numele utilizatorului, în timp ce interfața primește o reproiectare a casetei de prompt, potrivit 9to5google.com . Miza practică este creșterea utilității operaționale a modului AI din Google, prin automatizarea unei sarcini concrete (rezervarea), nu doar generarea de răspunsuri. Funcția de rezervări pentru dining, anunțată inițial în SUA, se extinde în opt piețe noi: Australia, Canada, Hong Kong, India, Noua Zeelandă, Singapore, Africa de Sud și Regatul Unit. Utilizatorul trebuie să includă în cerere detalii precum ora, locația, tipul de bucătărie, numărul de persoane sau preferințe de atmosferă, iar AI Mode caută opțiuni disponibile consultând mai multe platforme de rezervări și site-uri, inclusiv prin parteneriate locale. Extinderea se face direct în AI Mode, fără a fi necesară activarea prin Labs (programul de testare al Google). Publicația nu precizează un calendar exact pentru disponibilitatea completă în fiecare piață. Reproiectare de interfață: caseta de prompt trece la „bottom sheet” pe mobil În paralel, AI Mode primește o modificare de design a casetei de prompt, similară cu aplicația Gemini. Pe mobil, în locul unui meniu de tip pop-up (care se potrivea cu interfața web), Google trece la un panou glisant din partea de jos („bottom sheet”). În noua interfață apar: butoane mari pentru „Gallery” și „Camera”; o secțiune „Tools”, unde pe mobil este disponibil doar „Create images”; un comutator pentru „Gemini 3 models”, cu opțiunile Auto sau Pro. Schimbarea apare pe Android și iOS și este încă în curs de distribuire către canalul stabil, ceea ce sugerează o implementare graduală. [...]

xAI a suspendat pe termen nelimitat uzina de reciclare a apei pentru răcirea supercomputerului Colossus , ceea ce redeschide riscul ca proiectul din Memphis (Tennessee) să ajungă să folosească apă potabilă din acviferul local, cu potențial impact asupra alimentării comunităților, potrivit Antena 3 . Decizia de oprire a construcției instalației de reciclare a fost relatată de Fox 13, care citează un inginer xAI vorbind pentru The Daily Memphian despre un proiect „suspendat pe termen nelimitat”. Inițial, xAI promisese că va folosi o uzină proprie de reciclare a apelor uzate pentru răcirea supercomputerului, astfel încât să nu mai fie nevoie de extragerea de apă proaspătă din acviferul din Memphis, potrivit publicației The Cool Down. Ce se schimbă operațional: de la apă reciclată la apă potabilă Miza este sursa de apă folosită la răcirea infrastructurii de calcul (centre de date și supercomputere au nevoie de răcire constantă, iar apa este una dintre soluțiile utilizate). The Daily Memphian a relatat că, fără finalizarea uzinei, xAI, împreună cu furnizorul local de energie, ar putea extrage „miliarde de galoane” de apă potabilă din acvifer, ceea ce ar putea afecta alimentarea cu apă a comunităților locale. În material nu este precizat volumul efectiv care ar urma să fie consumat, nici un calendar de reluare a proiectului de reciclare. Reacția companiei și presiunea publică xAI a transmis, într-un comunicat citat de Fox 13, că rămâne „dedicată” construirii unei uzine de reciclare a apei „de ultimă generație” în Memphis și că aceasta ar urma să „protejeze miliarde de galoane de apă în fiecare an”, însă a adăugat că echipa prioritizează „alte proiecte mai urgente la fața locului”. Totodată, îngrijorările locale au atras atenția oficialilor asupra tehnologiei și construcțiilor asociate supercomputerului, descrise ca fiind consumatoare de resurse semnificative. Antena 3 notează și un context mai larg: opoziția comunităților față de centrele de date este în creștere, pe fondul vizibilității tot mai mari a consumului de apă necesar pentru răcire, iar preocupări similare au fost exprimate inclusiv de investitori în companii precum Google, Amazon și Microsoft. Platforma More Perfect Union a reacționat pe X, semnalând opoziția localnicilor și reluând ideea că uzina ar fi trebuit să permită folosirea apei reciclate în locul apei potabile din acviferul regiunii. [...]

Apple își pregătește propriul cip pentru servere AI, o mișcare care ar putea reduce dependența de NVIDIA , potrivit Gizmochina . Proiectul, cu numele intern „Baltra”, ar urma să fie folosit în infrastructura de cloud a companiei pentru procesare de date și sarcini AI „din spate” (backend), semnalând o extindere dincolo de hardware-ul de consum către calcul AI la scară mare. Cipul ar urma să fie fabricat de TSMC pe procesul său de 3 nanometri, generația a doua (N3E), care vizează performanță și eficiență mai bune față de nodurile anterioare. În paralel, Apple ar investi în tehnologia avansată de ambalare SoIC (System on Integrated Chips) a TSMC, care permite „stivuirea” verticală a mai multor componente pentru viteză mai mare și consum mai mic. Ce știe piața despre „Baltra” și cum ar fi construit Informațiile din articol indică faptul că Baltra ar putea folosi o arhitectură „chiplet” (mai multe cipuri specializate într-un singur pachet), abordare care ajută la scalare și la optimizarea sarcinilor AI. Publicația mai notează că Apple ar lucra și cu parteneri pentru tehnologii de interconectare, în timp ce încearcă treptat să aducă mai multe capabilități de proiectare „în casă”. De ce contează: controlul „stivei” AI și capacitatea la TSMC Dincolo de detaliile tehnice, miza este una operațională: Apple ar urmări să controleze cât mai mult din „stiva” AI – de la siliciu și ambalare până la infrastructura de cloud – și să reducă dependența de furnizori externi de cipuri, inclusiv NVIDIA, în zona de accelerare AI. În acest context, Gizmochina scrie că Apple ar fi rezervat capacitate de producție semnificativă la TSMC pentru anii următori, iar o parte importantă ar urma să fie alocată cipurilor de server AI precum Baltra, ceea ce ar indica o investiție pe termen lung. Articolul nu oferă însă un calendar de lansare sau volume de producție, astfel că amploarea exactă a proiectului rămâne, deocamdată, neclară. [...]

Echipa lui Elon Musk recrutează în Europa pentru „antrenarea” lui Grok, cu un venit de până la 260 de euro pe zi (aprox. 1.300 lei), semn că dezvoltarea AI se sprijină încă masiv pe muncă umană specializată, inclusiv în zona de conținut vizual. Informațiile apar în Libertatea , care citează publicația italiană Il Fatto Quotidiano . Rolul este unul remote și, potrivit articolului, vizează în primă fază recrutări în Italia. Plata „poate ajunge” la circa 260 de euro pe zi, în funcție de numărul de zile lucrate, ceea ce sugerează un model de colaborare flexibil, legat de volum. Ce presupune munca, concret Jobul nu este descris ca unul de programare. Sarcina principală este lucrul cu conținut vizual pentru a îmbunătăți modul în care Grok „înțelege”: imagini; videoclipuri; conținut 3D. Activitățile menționate includ etichetarea, adnotarea și explicarea conținutului vizual, astfel încât sistemul să poată interpreta corect ceea ce „vede”. Andrea Stroppa, prezentat ca un colaborator apropiat al lui Musk în Italia, spune că rolul presupune contribuții directe la proiecte multimedia, unde contextul și sensul imaginilor trebuie explicate în detaliu. De ce contează economic: AI „multimodal” înseamnă costuri recurente cu oameni Deși AI este asociată cu automatizarea, articolul punctează că, pentru a-și crește performanța, are nevoie de intervenție umană. Libertatea notează, citând Wired, că obiectivul proiectului este îmbunătățirea capacităților „multimodale” ale lui Grok — adică abilitatea de a procesa simultan text, imagini și alte tipuri de conținut. În același context, Grok este prezentat ca o alternativă la ChatGPT, cu un stil „mai direct” și mai puțin „politically correct”. Proiectul este plasat în competiția cu rivalii, iar AI-ul dezvoltat în jurul platformei X este evaluat la peste 40 de miliarde de dolari, potrivit articolului. Cine poate aplica și ce urmează Profilurile căutate sunt, în special, din zone creative și tehnice: fotografi, designeri, experți video, animație 3D și post-producție. Pe termen scurt, echipa lui Musk „ar putea” extinde recrutările și către alte domenii, inclusiv finanțe și științe umaniste, mai notează sursa. Articolul nu oferă detalii despre numărul de posturi, durata proiectului sau condițiile contractuale, astfel că amploarea recrutării rămâne neclară. [...]

Marile lanțuri de restaurante testează chatboți AI ca instrument operațional, nu ca înlocuitor de personal , iar miza imediată este reducerea timpilor de lucru și standardizarea execuției în unități cu rotație mare de angajați, potrivit Antena 3 . Tehnologia începe să fie introdusă în bucătării și în zona de preluare a comenzilor pentru a sprijini angajații și a eficientiza procesarea, într-un moment în care companiile caută automatizare în operațiuni și o viteză mai bună de servire. Starbucks: asistent AI pentru rețete și alternative la ingrediente lipsă Starbucks testează în mai multe locații un asistent virtual bazat pe inteligență artificială, „ Green Dot Assist ”, menit să îi ajute pe angajați și să accelereze procesarea comenzilor. Tehnologia a fost anunțată în 2025 și ar urma să fie extinsă treptat în rețeaua companiei în cursul acestui an, potrivit Fortune, citată de Antena 3. Compania spune că asistentul AI: afișează rețete pentru băuturi și indică pașii de preparare; sugerează alternative atunci când anumite ingrediente lipsesc. Într-o declarație pentru CNBC, Deb Hall Lefevre, la momentul respectiv director de tehnologie al Starbucks, a prezentat instrumentul ca pe o soluție de simplificare a operațiunilor și de sprijin pentru angajați. „Este doar un alt exemplu al modului în care tehnologia inovatoare vine în sprijinul partenerilor noștri și ne ajută să simplificăm operațiunile, să le facem munca puțin mai ușoară — poate chiar puțin mai plăcută — astfel încât să poată face ceea ce știu ei mai bine.” Starbucks a prezentat tehnologia la evenimentul Leadership Experience de anul trecut, în același context în care a anunțat și planuri de extindere a rolului de manager adjunct în „majoritatea magazinelor operate de companie din SUA”, cu aproximativ 90% dintre posturile de management ocupate intern. Tendința din industrie: parteneriate, retrageri și „agenți” AI Adoptarea AI în restaurante nu este limitată la Starbucks. Antena 3 notează câteva mișcări relevante din piață: Yum! Brands (KFC, Taco Bell) a încheiat un parteneriat cu Nvidia pentru automatizarea comenzilor la drive-thru și digitale; McDonald’s a încheiat contractul cu IBM după doi ani și a revenit la operatori umani pentru preluarea comenzilor la drive-thru; Google a anunțat recent că AI-ul său „agentic” (capabil să execute sarcini în numele utilizatorului) poate ajuta la rezervarea meselor în restaurante. De ce contează: câștigul e în productivitate, nu neapărat în venituri Logan Reich, analist la RBC Capital, a declarat pentru Fortune că introducerea unui chatbot AI nu ar crește semnificativ veniturile, însă poate accelera instruirea și integrarea angajaților, mai ales într-un context în care promovările interne sunt frecvente. Separat, Gadjo Sevilla, analist senior AI și tehnologie la eMarketer, spune că asocierea implementării AI cu anunțarea unor oportunități de management transmite angajaților mesajul că tehnologia nu este gândită ca să le înlocuiască joburile. „Ceea ce încearcă să arate este că adoptarea AI poate funcționa împreună cu personalul existent pe termen lung. Nu înlocuiește locuri de muncă, ci le îmbunătățește.” Ce urmează și care sunt riscurile Extinderea la scară mare vine cu riscuri tipice implementărilor AI. Reich avertizează că, pentru Starbucks, un punct critic va fi ca chatbotul să fie precis și să nu creeze probleme suplimentare în operare. Sevilla atrage atenția și asupra riscurilor de securitate și a întreruperilor de funcționare, inclusiv în situațiile în care sunt folosite instrumente externe infrastructurii proprii. În acest context, modul în care Starbucks integrează AI în sistemele de vânzare ar putea deveni un reper pentru restul industriei. „Acesta va fi un test de referință pentru integrarea AI la această scară.” [...]