Știri
Știri din categoria Inteligență artificială

Ericsson și Mistral AI au încheiat un parteneriat pentru integrarea inteligenței artificiale în rețelele telecom, cu obiectivul de a accelera dezvoltarea tehnologiilor și de a crește performanța infrastructurii, potrivit Mobile World Live. Acordul, anunțat la 19 februarie 2026, vizează combinarea modelelor avansate dezvoltate de compania franceză Mistral AI cu expertiza de cercetare și dezvoltare a furnizorului suedez de echipamente telecom.
Colaborarea se concentrează pe cazuri de utilizare considerate „cu impact ridicat”, menite să reducă timpii de livrare și să îmbunătățească performanța rețelelor. Printre direcțiile anunțate se numără:
Cele două companii vor dezvolta agenți inteligenți personalizați pentru datele și procesele inginerești ale Ericsson, cu scopul de a aduce datele mai aproape de instrumentele de dezvoltare și implementare a produselor. Ambiția declarată este stabilirea unor noi standarde pentru infrastructuri telecom sigure, performante și reziliente, adaptate cerințelor rețelelor de nivel operator.
Dag Lindbo, responsabil pentru inteligență artificială și tehnologii emergente în cadrul diviziei Networks a Ericsson, a subliniat că „inteligența artificială pentru rețele înseamnă precizie, nu entuziasm nejustificat”, indicând utilizări concrete precum accelerarea remedierii codului și dezvoltarea unor agenți de încredere. La rândul său, Marjorie Janiewicz, director de venituri al Mistral AI, a afirmat că parteneriatul urmărește transformarea rețelelor „de la bază”, nu doar integrarea unor instrumente suplimentare.
Acordul vine la scurt timp după ce Mistral AI a anunțat o investiție de 1,2 miliarde euro într-un nou centru de date în Suedia, consolidându-și astfel prezența în regiune și ambițiile din zona infrastructurii pentru inteligență artificială.
Recomandate

Apple își expune la CHI 2026 cercetarea din spatele AirPods Pro 3, un semnal că funcțiile bazate pe inteligență artificială devin tot mai mult un diferențiator de produs . Potrivit neowin.net , compania va prezenta la conferința CHI 2026 (una dintre cele mai importante întâlniri din zona interacțiunii om–calculator) lucrări de cercetare legate de AirPods Pro 3, alături de alte proiecte din aria AI. Miza, dincolo de componenta academică, este una operațională și de produs: Apple indică faptul că își fundamentează noile funcții (inclusiv cele din audio) pe cercetare publicabilă, ceea ce poate accelera adoptarea unor tehnologii în ecosistemul său și poate influența ritmul în care astfel de capabilități ajung în produse comerciale. Ce va prezenta Apple și unde se încadrează AirPods Pro 3 Conform materialului, Apple va folosi CHI 2026 ca platformă pentru a „prezenta cercetările” din spatele AirPods Pro 3 și pentru a expune „alte lucrări AI”. Sursa nu detaliază în fragmentul disponibil titlurile lucrărilor, autorii sau rezultatele tehnice, astfel că nu este posibil de stabilit din acest text ce funcții concrete sau ce metodologii sunt vizate. De ce contează pentru piață Prezența la CHI 2026 sugerează o direcție: competiția pe dispozitive personale (precum căștile) se mută tot mai mult spre algoritmi și modele de învățare automată, nu doar spre hardware. Pentru utilizatori și pentru industrie, asta poate însemna: mai multă diferențiere prin software (funcții care se îmbunătățesc în timp); presiune crescută pe integrarea AI „pe dispozitiv” (procesare locală), acolo unde este posibil; un ciclu mai rapid de transfer din cercetare în produse, dacă rezultatele sunt suficient de mature. Ce urmează Următorul reper este conferința CHI 2026, unde Apple ar urma să își prezinte lucrările. Până atunci, din informațiile furnizate de sursă nu reiese un calendar de lansare pentru AirPods Pro 3 și nici ce elemente din cercetare vor ajunge efectiv în produs. [...]

Amazon pune pentru prima dată o cifră pe monetizarea AI din AWS, indicând venituri anualizate de peste 15 miliarde de dolari , un reper urmărit de investitori pentru a evalua randamentul investițiilor masive în inteligență artificială, potrivit Profit.ro . Andy Jassy, directorul general al Amazon, a spus că serviciile de inteligență artificială din cadrul diviziei de cloud Amazon Web Services (AWS) generează venituri anualizate de peste 15 miliarde de dolari. Este prima dată când compania publică astfel de date pentru acest segment în care a investit miliarde de dolari. Estimarea este bazată pe performanța din primul trimestru și ar reprezenta aproximativ 10% din ritmul anual al veniturilor AWS, evaluat la circa 142 de miliarde de dolari. Publicarea cifrei vine după o perioadă în care investitorii și analiștii au așteptat indicii mai concrete despre rentabilitatea investițiilor în AI. [...]

xAI a suspendat pe termen nelimitat uzina de reciclare a apei pentru răcirea supercomputerului Colossus , ceea ce redeschide riscul ca proiectul din Memphis (Tennessee) să ajungă să folosească apă potabilă din acviferul local, cu potențial impact asupra alimentării comunităților, potrivit Antena 3 . Decizia de oprire a construcției instalației de reciclare a fost relatată de Fox 13, care citează un inginer xAI vorbind pentru The Daily Memphian despre un proiect „suspendat pe termen nelimitat”. Inițial, xAI promisese că va folosi o uzină proprie de reciclare a apelor uzate pentru răcirea supercomputerului, astfel încât să nu mai fie nevoie de extragerea de apă proaspătă din acviferul din Memphis, potrivit publicației The Cool Down. Ce se schimbă operațional: de la apă reciclată la apă potabilă Miza este sursa de apă folosită la răcirea infrastructurii de calcul (centre de date și supercomputere au nevoie de răcire constantă, iar apa este una dintre soluțiile utilizate). The Daily Memphian a relatat că, fără finalizarea uzinei, xAI, împreună cu furnizorul local de energie, ar putea extrage „miliarde de galoane” de apă potabilă din acvifer, ceea ce ar putea afecta alimentarea cu apă a comunităților locale. În material nu este precizat volumul efectiv care ar urma să fie consumat, nici un calendar de reluare a proiectului de reciclare. Reacția companiei și presiunea publică xAI a transmis, într-un comunicat citat de Fox 13, că rămâne „dedicată” construirii unei uzine de reciclare a apei „de ultimă generație” în Memphis și că aceasta ar urma să „protejeze miliarde de galoane de apă în fiecare an”, însă a adăugat că echipa prioritizează „alte proiecte mai urgente la fața locului”. Totodată, îngrijorările locale au atras atenția oficialilor asupra tehnologiei și construcțiilor asociate supercomputerului, descrise ca fiind consumatoare de resurse semnificative. Antena 3 notează și un context mai larg: opoziția comunităților față de centrele de date este în creștere, pe fondul vizibilității tot mai mari a consumului de apă necesar pentru răcire, iar preocupări similare au fost exprimate inclusiv de investitori în companii precum Google, Amazon și Microsoft. Platforma More Perfect Union a reacționat pe X, semnalând opoziția localnicilor și reluând ideea că uzina ar fi trebuit să permită folosirea apei reciclate în locul apei potabile din acviferul regiunii. [...]

Apple își pregătește propriul cip pentru servere AI, o mișcare care ar putea reduce dependența de NVIDIA , potrivit Gizmochina . Proiectul, cu numele intern „Baltra”, ar urma să fie folosit în infrastructura de cloud a companiei pentru procesare de date și sarcini AI „din spate” (backend), semnalând o extindere dincolo de hardware-ul de consum către calcul AI la scară mare. Cipul ar urma să fie fabricat de TSMC pe procesul său de 3 nanometri, generația a doua (N3E), care vizează performanță și eficiență mai bune față de nodurile anterioare. În paralel, Apple ar investi în tehnologia avansată de ambalare SoIC (System on Integrated Chips) a TSMC, care permite „stivuirea” verticală a mai multor componente pentru viteză mai mare și consum mai mic. Ce știe piața despre „Baltra” și cum ar fi construit Informațiile din articol indică faptul că Baltra ar putea folosi o arhitectură „chiplet” (mai multe cipuri specializate într-un singur pachet), abordare care ajută la scalare și la optimizarea sarcinilor AI. Publicația mai notează că Apple ar lucra și cu parteneri pentru tehnologii de interconectare, în timp ce încearcă treptat să aducă mai multe capabilități de proiectare „în casă”. De ce contează: controlul „stivei” AI și capacitatea la TSMC Dincolo de detaliile tehnice, miza este una operațională: Apple ar urmări să controleze cât mai mult din „stiva” AI – de la siliciu și ambalare până la infrastructura de cloud – și să reducă dependența de furnizori externi de cipuri, inclusiv NVIDIA, în zona de accelerare AI. În acest context, Gizmochina scrie că Apple ar fi rezervat capacitate de producție semnificativă la TSMC pentru anii următori, iar o parte importantă ar urma să fie alocată cipurilor de server AI precum Baltra, ceea ce ar indica o investiție pe termen lung. Articolul nu oferă însă un calendar de lansare sau volume de producție, astfel că amploarea exactă a proiectului rămâne, deocamdată, neclară. [...]

Echipa lui Elon Musk recrutează în Europa pentru „antrenarea” lui Grok, cu un venit de până la 260 de euro pe zi (aprox. 1.300 lei), semn că dezvoltarea AI se sprijină încă masiv pe muncă umană specializată, inclusiv în zona de conținut vizual. Informațiile apar în Libertatea , care citează publicația italiană Il Fatto Quotidiano . Rolul este unul remote și, potrivit articolului, vizează în primă fază recrutări în Italia. Plata „poate ajunge” la circa 260 de euro pe zi, în funcție de numărul de zile lucrate, ceea ce sugerează un model de colaborare flexibil, legat de volum. Ce presupune munca, concret Jobul nu este descris ca unul de programare. Sarcina principală este lucrul cu conținut vizual pentru a îmbunătăți modul în care Grok „înțelege”: imagini; videoclipuri; conținut 3D. Activitățile menționate includ etichetarea, adnotarea și explicarea conținutului vizual, astfel încât sistemul să poată interpreta corect ceea ce „vede”. Andrea Stroppa, prezentat ca un colaborator apropiat al lui Musk în Italia, spune că rolul presupune contribuții directe la proiecte multimedia, unde contextul și sensul imaginilor trebuie explicate în detaliu. De ce contează economic: AI „multimodal” înseamnă costuri recurente cu oameni Deși AI este asociată cu automatizarea, articolul punctează că, pentru a-și crește performanța, are nevoie de intervenție umană. Libertatea notează, citând Wired, că obiectivul proiectului este îmbunătățirea capacităților „multimodale” ale lui Grok — adică abilitatea de a procesa simultan text, imagini și alte tipuri de conținut. În același context, Grok este prezentat ca o alternativă la ChatGPT, cu un stil „mai direct” și mai puțin „politically correct”. Proiectul este plasat în competiția cu rivalii, iar AI-ul dezvoltat în jurul platformei X este evaluat la peste 40 de miliarde de dolari, potrivit articolului. Cine poate aplica și ce urmează Profilurile căutate sunt, în special, din zone creative și tehnice: fotografi, designeri, experți video, animație 3D și post-producție. Pe termen scurt, echipa lui Musk „ar putea” extinde recrutările și către alte domenii, inclusiv finanțe și științe umaniste, mai notează sursa. Articolul nu oferă detalii despre numărul de posturi, durata proiectului sau condițiile contractuale, astfel că amploarea recrutării rămâne neclară. [...]

Google își segmentează mai agresiv abonamentele AI, iar diferența reală se vede în limitele de utilizare și în „creditele AI” pentru video : potrivit 9to5Google , pachetele Google AI Plus, Pro și Ultra (aprilie 2026) nu se diferențiază doar prin acces la modele, ci mai ales prin volumele zilnice/lunare permise, fereastra de context și accesul la produse conexe (Gmail, Drive, Home, Photos, NotebookLM ), ceea ce poate schimba costul operațional pentru utilizatorii care folosesc intens instrumentele Gemini. Ce se schimbă, în esență: „limite” și context mult mai mare pe Pro/Ultra În varianta gratuită, utilizatorii primesc acces „general” la Gemini 3 Flash și acces „de bază” (cu limite zilnice variabile) la Thinking (3 Flash) și Pro (3.1 Pro), cu o fereastră de context de 32.000 de tokeni (aprox. 50 de pagini de text). Tot aici intră și funcții precum Memory (memorie/păstrarea contextului personal) și Personal Intelligence, plus plafoane relativ mici pentru Deep Research, generare de imagini și muzică, „dynamic view”, prezentări și automatizare pe ecran. Saltul operațional apare la abonamentele plătite, unde cresc simultan: numărul de solicitări („prompts”) pe zi, fereastra de context (până la 1 milion de tokeni pe Pro), limitele pentru Deep Research, imagini, muzică, video și automatizări. Google AI Plus: creștere de volum și „Notebooks” în aplicația Gemini Google AI Plus ridică limitele în aplicația Gemini (de exemplu, Thinking la 90 prompts/zi și Pro la 30 prompts/zi) și urcă fereastra de context la 128.000 de tokeni. Include și: Deep Research (12 rapoarte/zi), generare/editare imagini (Nano Banana 2 și Nano Banana Pro, până la 50 imagini/zi fiecare), generare muzică (până la 20 piese/zi la 30 secunde și 10 piese/zi la 3 minute), Veo 3.1 Fast (2 video/zi), acțiuni programate (max. 10 active simultan), automatizare pe ecran (12 cereri/zi), „Notebooks” (proiecte care organizează conversații și fișiere, cu integrare NotebookLM). În plus, pachetul include pentru Flow și Whisk 200 „ AI Credits ” pe lună (credite consumate pe generări, nu pe cereri, notează publicația). Google AI Pro : rebrand, dar și pachet mai „greu” pentru productivitate și dezvoltare Google AI Pro este prezentat ca un rebrand al Google One AI Premium (fără referința explicită la Google One). În SUA, costă 19,99 dolari/lună (aprox. 90 lei) conform paginii de preț indicată de Google. Dincolo de nume, Pro aduce un set de diferențiatori cu impact practic: în aplicația Gemini: Thinking la 300 prompts/zi și Pro la 100 prompts/zi; fereastră de context de 1 milion de tokeni (echivalentul a ~1.500 de pagini sau 30.000 de linii de cod, potrivit sursei); Deep Research (20 rapoarte/zi); generare imagini (până la 100/zi pentru Nano Banana 2 și Nano Banana Pro); prezentări: nelimitat (slide generation); „dynamic view” până la 250 prompts/zi; Veo 3.1 Fast (3 video/zi) și automatizare pe ecran (20 cereri/zi). La nivel de aplicații, Pro include și: acces „limitat” la „auto browse” în Chrome (navigare automată asistată), upgrade pentru căutarea din Gmail prin AI Overviews și funcția Proofread la redactare, panoul Gemini și funcții integrate în Drive/Docs/Sheets/Slides/Meet/Chat, limite mai mari în Google Search AI Mode (inclusiv pentru interogări mai sofisticate și răspunsuri mai lungi, generate după „sute de căutări” și raționament pe surse multiple, cu raport „complet citat”), Google Home Premium (fost Nest Aware) inclus, cu istoric video pe 30 de zile și alerte inteligente, plus posibilitatea de a crea automatizări prin limbaj natural, nivel mai ridicat de generări în Google Photos (remix și photo-to-video). Pentru NotebookLM, Pro ridică semnificativ plafoanele (de exemplu, până la 500 de notebook-uri și 20 Audio Overviews/zi) și adaugă setări avansate de stil al răspunsului și analitice. Tot Pro include 5 TB stocare Google One (creștere de la 2 TB, anunțată la 1 aprilie, conform sursei) și acces la instrumente pentru dezvoltatori: Jules (agent asincron de programare), Gemini Code Assist, Gemini CLI și Antigravity, cu limite mai mari decât la gratuit. „AI Credits” devin o monedă internă pentru Flow și Whisk Pe Pro, Google introduce 1.000 AI Credits/lună pentru Whisk și Flow și permite cumpărarea de credite suplimentare („top-up”), valabile 12 luni, la tarifele: 25 dolari (aprox. 110 lei) pentru 2.500 credite 50 dolari (aprox. 225 lei) pentru 5.000 credite 200 dolari (aprox. 900 lei) pentru 20.000 credite Publicația precizează că aceste costuri sunt „pe generare”, nu pe cerere, iar unele funcții pot produce mai multe generări dintr-o singură solicitare. Google AI Ultra: preț de „enterprise”, dar cu cele mai mari plafoane și produse incluse Google AI Ultra este disponibil în peste 150 de țări și costă 249,99 dolari/lună în SUA (aprox. 1.125 lei). Include Whisk + Flow și 12.500 AI Credits/lună. În aplicația Gemini, Ultra urcă masiv limitele: Thinking: 1.500 prompts/zi; Pro: 500 prompts/zi Deep Research: 120 rapoarte/zi Deep Think 3.1: 10 prompts/zi cu fereastră de context de 192.000 tokeni imagini: până la 1.000/zi (Nano Banana 2 și Pro) muzică: până la 100 piese/zi (30 sec) și 50 piese/zi (3 min) Veo 3.1: 5 video/zi Gemini Agent: 200 cereri/zi și 3 sarcini simultane automatizare pe ecran: 120 cereri/zi Ultra adaugă și: acces „cel mai ridicat” la auto browse în Chrome, acces beta la „AI Inbox” în Gmail (organizare în „Suggested to-dos” și „Topics”), cel mai ridicat nivel de acces în Google AI Mode (inclusiv capabilități „agentice”), Google Home Premium Advanced (înlocuiește Nest Aware Plus), cu istoric mai lung și funcții de căutare în istoricul video, cele mai mari limite în NotebookLM (inclusiv eliminarea watermark-ului pentru infografice și prezentări), 30 TB stocare (pe care sursa o compară cu un cost separat de 149,99 dolari/lună), YouTube Premium (plan individual 13,99 dolari/lună, menționat ca reper), Project Mariner (agent de browser care poate rula 10 sarcini simultan) și Project Genie (lumi interactive „jucabile”). De ce contează pentru utilizatori și companii Dincolo de „ce model ai”, Google împinge piața spre o logică de consum măsurat: limite zilnice/lunare, ferestre de context foarte mari pentru sarcini complexe (documente și cod) și o monedă internă („AI Credits”) pentru generare video în Flow/Whisk. Pentru utilizatorii care produc conținut sau automatizează fluxuri (mail, documente, căutare, video), diferența de cost poate ajunge să fie dictată de volum și de credite, nu de accesul nominal la Gemini. Ce nu reiese din material: dacă prețurile și disponibilitatea din SUA se aplică identic în România; 9to5Google menționează explicit prețurile pentru SUA și disponibilitatea Ultra în 150+ țări, fără detalii pe fiecare piață. [...]