Știri
Știri din categoria Inteligență artificială

Marile lanțuri de restaurante testează chatboți AI ca instrument operațional, nu ca înlocuitor de personal, iar miza imediată este reducerea timpilor de lucru și standardizarea execuției în unități cu rotație mare de angajați, potrivit Antena 3.
Tehnologia începe să fie introdusă în bucătării și în zona de preluare a comenzilor pentru a sprijini angajații și a eficientiza procesarea, într-un moment în care companiile caută automatizare în operațiuni și o viteză mai bună de servire.
Starbucks testează în mai multe locații un asistent virtual bazat pe inteligență artificială, „Green Dot Assist”, menit să îi ajute pe angajați și să accelereze procesarea comenzilor. Tehnologia a fost anunțată în 2025 și ar urma să fie extinsă treptat în rețeaua companiei în cursul acestui an, potrivit Fortune, citată de Antena 3.
Compania spune că asistentul AI:
Într-o declarație pentru CNBC, Deb Hall Lefevre, la momentul respectiv director de tehnologie al Starbucks, a prezentat instrumentul ca pe o soluție de simplificare a operațiunilor și de sprijin pentru angajați.
„Este doar un alt exemplu al modului în care tehnologia inovatoare vine în sprijinul partenerilor noștri și ne ajută să simplificăm operațiunile, să le facem munca puțin mai ușoară — poate chiar puțin mai plăcută — astfel încât să poată face ceea ce știu ei mai bine.”
Starbucks a prezentat tehnologia la evenimentul Leadership Experience de anul trecut, în același context în care a anunțat și planuri de extindere a rolului de manager adjunct în „majoritatea magazinelor operate de companie din SUA”, cu aproximativ 90% dintre posturile de management ocupate intern.
Adoptarea AI în restaurante nu este limitată la Starbucks. Antena 3 notează câteva mișcări relevante din piață:
Logan Reich, analist la RBC Capital, a declarat pentru Fortune că introducerea unui chatbot AI nu ar crește semnificativ veniturile, însă poate accelera instruirea și integrarea angajaților, mai ales într-un context în care promovările interne sunt frecvente.
Separat, Gadjo Sevilla, analist senior AI și tehnologie la eMarketer, spune că asocierea implementării AI cu anunțarea unor oportunități de management transmite angajaților mesajul că tehnologia nu este gândită ca să le înlocuiască joburile.
„Ceea ce încearcă să arate este că adoptarea AI poate funcționa împreună cu personalul existent pe termen lung. Nu înlocuiește locuri de muncă, ci le îmbunătățește.”
Extinderea la scară mare vine cu riscuri tipice implementărilor AI. Reich avertizează că, pentru Starbucks, un punct critic va fi ca chatbotul să fie precis și să nu creeze probleme suplimentare în operare.
Sevilla atrage atenția și asupra riscurilor de securitate și a întreruperilor de funcționare, inclusiv în situațiile în care sunt folosite instrumente externe infrastructurii proprii. În acest context, modul în care Starbucks integrează AI în sistemele de vânzare ar putea deveni un reper pentru restul industriei.
„Acesta va fi un test de referință pentru integrarea AI la această scară.”
Recomandate

Documente fiscale din China indică o tranzacție de 92 milioane de dolari (aprox. 414 milioane lei) cu servere ce ar fi inclus acceleratoare AI Nvidia supuse interdicțiilor SUA , un episod care reaprinde riscul de reglementare și de conformitate în lanțul global de aprovizionare cu hardware pentru inteligență artificială, potrivit tomshardware.com . Informația se bazează pe înregistrări de facturi din baza Administrației de Stat pentru Taxare din China, care arată că Sharetronic Data Technology Co. (companie chineză ce vinde și închiriază servere AI) a achiziționat aproape 300 de servere ce ar conține cipuri AI Nvidia „interzise” la export către China, apoi le-a vândut unei subsidiare din Shenzhen pentru 92 milioane de dolari. Ce s-a cumpărat și când Conform facturilor citate, Sharetronic ar fi vândut către subsidiara din Shenzhen, în mai și iunie 2025: 276 de servere Super Micro SYS-821GE-TNHR , despre care pagina de produs menționează suport pentru „Nvidia HGX H100/H200 8-GPU”; 32 de servere Dell PowerEdge XE9680 , ale căror specificații indică drept acceleratoare compatibile Nvidia HGX H100, Nvidia HGX H200, Nvidia HGX H20, AMD Instinct MI300X și Intel Gaudi 3. Publicația notează, citând Bloomberg, că nu este clar ce cipuri exacte au fost efectiv incluse în serverele facturate și nici de unde au fost procurate , însă opțiunile menționate ar fi fost, la acel moment, sub incidența controalelor de export ale SUA către China. De ce contează: risc de conformitate și expunere pentru furnizori SUA au interzis exportul către China al acestor acceleratoare AI de înaltă performanță încă din 2022, cu mult înainte ca Super Micro și Dell să înceapă livrările pentru aceste platforme de servere. În acest context, tomshardware.com arată că este puțin probabil ca produsele din facturi să fie „stoc vechi” cumpărat înainte de interdicții (deși unele companii au făcut stocuri pentru până la 18 luni). Dell a negat orice abatere, afirmând că nu există „nicio evidență a vânzărilor presupuse” și că, dacă se constată deturnarea produselor sau transferul către o locație ori un client neautorizat, compania ia măsuri, inclusiv încetarea relației comerciale. Ce urmează nu este precizat în material: din datele prezentate reiese doar că documentele fiscale și compatibilitățile tehnice ridică semne de întrebare privind respectarea regimului de export, fără a stabili în mod definitiv configurația livrată sau proveniența componentelor. [...]

xAI a suspendat pe termen nelimitat uzina de reciclare a apei pentru răcirea supercomputerului Colossus , ceea ce redeschide riscul ca proiectul din Memphis (Tennessee) să ajungă să folosească apă potabilă din acviferul local, cu potențial impact asupra alimentării comunităților, potrivit Antena 3 . Decizia de oprire a construcției instalației de reciclare a fost relatată de Fox 13, care citează un inginer xAI vorbind pentru The Daily Memphian despre un proiect „suspendat pe termen nelimitat”. Inițial, xAI promisese că va folosi o uzină proprie de reciclare a apelor uzate pentru răcirea supercomputerului, astfel încât să nu mai fie nevoie de extragerea de apă proaspătă din acviferul din Memphis, potrivit publicației The Cool Down. Ce se schimbă operațional: de la apă reciclată la apă potabilă Miza este sursa de apă folosită la răcirea infrastructurii de calcul (centre de date și supercomputere au nevoie de răcire constantă, iar apa este una dintre soluțiile utilizate). The Daily Memphian a relatat că, fără finalizarea uzinei, xAI, împreună cu furnizorul local de energie, ar putea extrage „miliarde de galoane” de apă potabilă din acvifer, ceea ce ar putea afecta alimentarea cu apă a comunităților locale. În material nu este precizat volumul efectiv care ar urma să fie consumat, nici un calendar de reluare a proiectului de reciclare. Reacția companiei și presiunea publică xAI a transmis, într-un comunicat citat de Fox 13, că rămâne „dedicată” construirii unei uzine de reciclare a apei „de ultimă generație” în Memphis și că aceasta ar urma să „protejeze miliarde de galoane de apă în fiecare an”, însă a adăugat că echipa prioritizează „alte proiecte mai urgente la fața locului”. Totodată, îngrijorările locale au atras atenția oficialilor asupra tehnologiei și construcțiilor asociate supercomputerului, descrise ca fiind consumatoare de resurse semnificative. Antena 3 notează și un context mai larg: opoziția comunităților față de centrele de date este în creștere, pe fondul vizibilității tot mai mari a consumului de apă necesar pentru răcire, iar preocupări similare au fost exprimate inclusiv de investitori în companii precum Google, Amazon și Microsoft. Platforma More Perfect Union a reacționat pe X, semnalând opoziția localnicilor și reluând ideea că uzina ar fi trebuit să permită folosirea apei reciclate în locul apei potabile din acviferul regiunii. [...]

Apple își pregătește propriul cip pentru servere AI, o mișcare care ar putea reduce dependența de NVIDIA , potrivit Gizmochina . Proiectul, cu numele intern „Baltra”, ar urma să fie folosit în infrastructura de cloud a companiei pentru procesare de date și sarcini AI „din spate” (backend), semnalând o extindere dincolo de hardware-ul de consum către calcul AI la scară mare. Cipul ar urma să fie fabricat de TSMC pe procesul său de 3 nanometri, generația a doua (N3E), care vizează performanță și eficiență mai bune față de nodurile anterioare. În paralel, Apple ar investi în tehnologia avansată de ambalare SoIC (System on Integrated Chips) a TSMC, care permite „stivuirea” verticală a mai multor componente pentru viteză mai mare și consum mai mic. Ce știe piața despre „Baltra” și cum ar fi construit Informațiile din articol indică faptul că Baltra ar putea folosi o arhitectură „chiplet” (mai multe cipuri specializate într-un singur pachet), abordare care ajută la scalare și la optimizarea sarcinilor AI. Publicația mai notează că Apple ar lucra și cu parteneri pentru tehnologii de interconectare, în timp ce încearcă treptat să aducă mai multe capabilități de proiectare „în casă”. De ce contează: controlul „stivei” AI și capacitatea la TSMC Dincolo de detaliile tehnice, miza este una operațională: Apple ar urmări să controleze cât mai mult din „stiva” AI – de la siliciu și ambalare până la infrastructura de cloud – și să reducă dependența de furnizori externi de cipuri, inclusiv NVIDIA, în zona de accelerare AI. În acest context, Gizmochina scrie că Apple ar fi rezervat capacitate de producție semnificativă la TSMC pentru anii următori, iar o parte importantă ar urma să fie alocată cipurilor de server AI precum Baltra, ceea ce ar indica o investiție pe termen lung. Articolul nu oferă însă un calendar de lansare sau volume de producție, astfel că amploarea exactă a proiectului rămâne, deocamdată, neclară. [...]

Echipa lui Elon Musk recrutează în Europa pentru „antrenarea” lui Grok, cu un venit de până la 260 de euro pe zi (aprox. 1.300 lei), semn că dezvoltarea AI se sprijină încă masiv pe muncă umană specializată, inclusiv în zona de conținut vizual. Informațiile apar în Libertatea , care citează publicația italiană Il Fatto Quotidiano . Rolul este unul remote și, potrivit articolului, vizează în primă fază recrutări în Italia. Plata „poate ajunge” la circa 260 de euro pe zi, în funcție de numărul de zile lucrate, ceea ce sugerează un model de colaborare flexibil, legat de volum. Ce presupune munca, concret Jobul nu este descris ca unul de programare. Sarcina principală este lucrul cu conținut vizual pentru a îmbunătăți modul în care Grok „înțelege”: imagini; videoclipuri; conținut 3D. Activitățile menționate includ etichetarea, adnotarea și explicarea conținutului vizual, astfel încât sistemul să poată interpreta corect ceea ce „vede”. Andrea Stroppa, prezentat ca un colaborator apropiat al lui Musk în Italia, spune că rolul presupune contribuții directe la proiecte multimedia, unde contextul și sensul imaginilor trebuie explicate în detaliu. De ce contează economic: AI „multimodal” înseamnă costuri recurente cu oameni Deși AI este asociată cu automatizarea, articolul punctează că, pentru a-și crește performanța, are nevoie de intervenție umană. Libertatea notează, citând Wired, că obiectivul proiectului este îmbunătățirea capacităților „multimodale” ale lui Grok — adică abilitatea de a procesa simultan text, imagini și alte tipuri de conținut. În același context, Grok este prezentat ca o alternativă la ChatGPT, cu un stil „mai direct” și mai puțin „politically correct”. Proiectul este plasat în competiția cu rivalii, iar AI-ul dezvoltat în jurul platformei X este evaluat la peste 40 de miliarde de dolari, potrivit articolului. Cine poate aplica și ce urmează Profilurile căutate sunt, în special, din zone creative și tehnice: fotografi, designeri, experți video, animație 3D și post-producție. Pe termen scurt, echipa lui Musk „ar putea” extinde recrutările și către alte domenii, inclusiv finanțe și științe umaniste, mai notează sursa. Articolul nu oferă detalii despre numărul de posturi, durata proiectului sau condițiile contractuale, astfel că amploarea recrutării rămâne neclară. [...]

Google își segmentează mai agresiv abonamentele AI, iar diferența reală se vede în limitele de utilizare și în „creditele AI” pentru video : potrivit 9to5Google , pachetele Google AI Plus, Pro și Ultra (aprilie 2026) nu se diferențiază doar prin acces la modele, ci mai ales prin volumele zilnice/lunare permise, fereastra de context și accesul la produse conexe (Gmail, Drive, Home, Photos, NotebookLM ), ceea ce poate schimba costul operațional pentru utilizatorii care folosesc intens instrumentele Gemini. Ce se schimbă, în esență: „limite” și context mult mai mare pe Pro/Ultra În varianta gratuită, utilizatorii primesc acces „general” la Gemini 3 Flash și acces „de bază” (cu limite zilnice variabile) la Thinking (3 Flash) și Pro (3.1 Pro), cu o fereastră de context de 32.000 de tokeni (aprox. 50 de pagini de text). Tot aici intră și funcții precum Memory (memorie/păstrarea contextului personal) și Personal Intelligence, plus plafoane relativ mici pentru Deep Research, generare de imagini și muzică, „dynamic view”, prezentări și automatizare pe ecran. Saltul operațional apare la abonamentele plătite, unde cresc simultan: numărul de solicitări („prompts”) pe zi, fereastra de context (până la 1 milion de tokeni pe Pro), limitele pentru Deep Research, imagini, muzică, video și automatizări. Google AI Plus: creștere de volum și „Notebooks” în aplicația Gemini Google AI Plus ridică limitele în aplicația Gemini (de exemplu, Thinking la 90 prompts/zi și Pro la 30 prompts/zi) și urcă fereastra de context la 128.000 de tokeni. Include și: Deep Research (12 rapoarte/zi), generare/editare imagini (Nano Banana 2 și Nano Banana Pro, până la 50 imagini/zi fiecare), generare muzică (până la 20 piese/zi la 30 secunde și 10 piese/zi la 3 minute), Veo 3.1 Fast (2 video/zi), acțiuni programate (max. 10 active simultan), automatizare pe ecran (12 cereri/zi), „Notebooks” (proiecte care organizează conversații și fișiere, cu integrare NotebookLM). În plus, pachetul include pentru Flow și Whisk 200 „ AI Credits ” pe lună (credite consumate pe generări, nu pe cereri, notează publicația). Google AI Pro : rebrand, dar și pachet mai „greu” pentru productivitate și dezvoltare Google AI Pro este prezentat ca un rebrand al Google One AI Premium (fără referința explicită la Google One). În SUA, costă 19,99 dolari/lună (aprox. 90 lei) conform paginii de preț indicată de Google. Dincolo de nume, Pro aduce un set de diferențiatori cu impact practic: în aplicația Gemini: Thinking la 300 prompts/zi și Pro la 100 prompts/zi; fereastră de context de 1 milion de tokeni (echivalentul a ~1.500 de pagini sau 30.000 de linii de cod, potrivit sursei); Deep Research (20 rapoarte/zi); generare imagini (până la 100/zi pentru Nano Banana 2 și Nano Banana Pro); prezentări: nelimitat (slide generation); „dynamic view” până la 250 prompts/zi; Veo 3.1 Fast (3 video/zi) și automatizare pe ecran (20 cereri/zi). La nivel de aplicații, Pro include și: acces „limitat” la „auto browse” în Chrome (navigare automată asistată), upgrade pentru căutarea din Gmail prin AI Overviews și funcția Proofread la redactare, panoul Gemini și funcții integrate în Drive/Docs/Sheets/Slides/Meet/Chat, limite mai mari în Google Search AI Mode (inclusiv pentru interogări mai sofisticate și răspunsuri mai lungi, generate după „sute de căutări” și raționament pe surse multiple, cu raport „complet citat”), Google Home Premium (fost Nest Aware) inclus, cu istoric video pe 30 de zile și alerte inteligente, plus posibilitatea de a crea automatizări prin limbaj natural, nivel mai ridicat de generări în Google Photos (remix și photo-to-video). Pentru NotebookLM, Pro ridică semnificativ plafoanele (de exemplu, până la 500 de notebook-uri și 20 Audio Overviews/zi) și adaugă setări avansate de stil al răspunsului și analitice. Tot Pro include 5 TB stocare Google One (creștere de la 2 TB, anunțată la 1 aprilie, conform sursei) și acces la instrumente pentru dezvoltatori: Jules (agent asincron de programare), Gemini Code Assist, Gemini CLI și Antigravity, cu limite mai mari decât la gratuit. „AI Credits” devin o monedă internă pentru Flow și Whisk Pe Pro, Google introduce 1.000 AI Credits/lună pentru Whisk și Flow și permite cumpărarea de credite suplimentare („top-up”), valabile 12 luni, la tarifele: 25 dolari (aprox. 110 lei) pentru 2.500 credite 50 dolari (aprox. 225 lei) pentru 5.000 credite 200 dolari (aprox. 900 lei) pentru 20.000 credite Publicația precizează că aceste costuri sunt „pe generare”, nu pe cerere, iar unele funcții pot produce mai multe generări dintr-o singură solicitare. Google AI Ultra: preț de „enterprise”, dar cu cele mai mari plafoane și produse incluse Google AI Ultra este disponibil în peste 150 de țări și costă 249,99 dolari/lună în SUA (aprox. 1.125 lei). Include Whisk + Flow și 12.500 AI Credits/lună. În aplicația Gemini, Ultra urcă masiv limitele: Thinking: 1.500 prompts/zi; Pro: 500 prompts/zi Deep Research: 120 rapoarte/zi Deep Think 3.1: 10 prompts/zi cu fereastră de context de 192.000 tokeni imagini: până la 1.000/zi (Nano Banana 2 și Pro) muzică: până la 100 piese/zi (30 sec) și 50 piese/zi (3 min) Veo 3.1: 5 video/zi Gemini Agent: 200 cereri/zi și 3 sarcini simultane automatizare pe ecran: 120 cereri/zi Ultra adaugă și: acces „cel mai ridicat” la auto browse în Chrome, acces beta la „AI Inbox” în Gmail (organizare în „Suggested to-dos” și „Topics”), cel mai ridicat nivel de acces în Google AI Mode (inclusiv capabilități „agentice”), Google Home Premium Advanced (înlocuiește Nest Aware Plus), cu istoric mai lung și funcții de căutare în istoricul video, cele mai mari limite în NotebookLM (inclusiv eliminarea watermark-ului pentru infografice și prezentări), 30 TB stocare (pe care sursa o compară cu un cost separat de 149,99 dolari/lună), YouTube Premium (plan individual 13,99 dolari/lună, menționat ca reper), Project Mariner (agent de browser care poate rula 10 sarcini simultan) și Project Genie (lumi interactive „jucabile”). De ce contează pentru utilizatori și companii Dincolo de „ce model ai”, Google împinge piața spre o logică de consum măsurat: limite zilnice/lunare, ferestre de context foarte mari pentru sarcini complexe (documente și cod) și o monedă internă („AI Credits”) pentru generare video în Flow/Whisk. Pentru utilizatorii care produc conținut sau automatizează fluxuri (mail, documente, căutare, video), diferența de cost poate ajunge să fie dictată de volum și de credite, nu de accesul nominal la Gemini. Ce nu reiese din material: dacă prețurile și disponibilitatea din SUA se aplică identic în România; 9to5Google menționează explicit prețurile pentru SUA și disponibilitatea Ultra în 150+ țări, fără detalii pe fiecare piață. [...]

Amazon mizează pe AI ca motor de creștere pentru AWS, dar recunoaște că cererea depășește capacitatea disponibilă , într-un moment în care investițiile în infrastructură (energie, centre de date, cipuri) devin un factor limitativ pentru extindere, potrivit techradar.com . În scrisoarea anuală către acționari și într-o postare asociată, CEO-ul Amazon, Andy Jassy, își structurează viziunea despre viitorul AI în șase „adevăruri”, cu accent pe ritmul de adopție și pe implicațiile financiare și operaționale pentru AWS. Jassy susține că dezbaterea despre „supraevaluarea” AI ratează esențialul pentru Amazon: tehnologia va reinventa „fiecare experiență” pentru clienți, iar întrebările despre „bulă” și profitabilitate au, în opinia sa, răspunsuri diferite în cazul companiei: „nu, nu și da” (nu e supraevaluată, nu e o bulă, iar marjele și randamentul capitalului investit ar urma să fie atractive). AWS: creștere accelerată, dar cu „cerere neacoperită” Din perspectiva impactului economic, mesajul central este că AI împinge AWS într-o nouă etapă de expansiune. Jassy afirmă că AWS are un „AI revenue run rate” de peste 15 miliarde de dolari în T1 2026 și că acesta crește „rapid”. În același timp, el indică o constrângere operațională: capacitatea. Amazon a adăugat 3,9 GW de capacitate nouă de energie în 2025 și se așteaptă să își dubleze capacitatea totală până la finalul lui 2027, dar, chiar și așa, compania spune că există „capacity constraints” care duc la „unserved demand”, pe fondul cererii tot mai mari de putere de calcul pentru AI. Pariul pe cipuri proprii: reducerea costurilor și avantaj de marjă Un alt element cu miză financiară este strategia de cipuri. Jassy descrie businessul de cipuri al AWS drept „în plină efervescență”, menționând evoluția familiei Graviton (lansată în 2018) și cererea pentru Trainium. Deși Amazon își reafirmă parteneriatul cu Nvidia și faptul că va rămâne „cel mai bun loc” pentru rularea cipurilor Nvidia în AWS, Jassy spune că mulți clienți caută „preț-performanță” mai bună. În acest context, el leagă Trainium de o potențială schimbare de economie la scară: „La scară, ne așteptăm ca Trainium să ne economisească zeci de miliarde de dolari capex pe an și să ofere câteva sute de puncte de bază avantaj de marjă operațională față de dependența de cipurile altora pentru inferență.” („Inferența” este etapa în care un model AI deja antrenat rulează efectiv pentru a genera răspunsuri/rezultate.) De ce contează pentru piață: AI accelerează investițiile, dar și presiunea pe infrastructură Mesajul lui Jassy sugerează două consecințe directe pentru companii și pentru piața de cloud: AI crește cererea de infrastructură mai repede decât poate fi livrată , ceea ce poate însemna întârzieri, prioritizări și competiție mai dură pentru resurse (energie, hardware, capacitate de centre de date). Integrarea verticală (cipuri proprii) devine un instrument de control al costurilor , cu efect potențial asupra prețurilor și marjelor în cloud, dacă economiile de capex și avantajul de marjă se materializează. Ce urmează Jassy indică faptul că Amazon se bazează pe forța bazei de clienți și menționează, ca exemplu, un „angajament” recent al OpenAI de peste 100 miliarde de dolari, plus „mai multe acorduri” finalizate (dar neanunțate) sau aflate în negociere. Detaliile acestor acorduri nu sunt prezentate în material, însă compania lasă să se înțeleagă că vor exista anunțuri suplimentare. [...]