Știri
Știri din categoria Inteligență artificială

România poate câștiga un avantaj regional în centre de date pe fondul schimbării tehnologiilor de răcire și al presiunii pentru infrastructură AI, iar miza se mută rapid de la „unde se poate construi” la „cine are energie și capacitate de execuție”, potrivit Economica, care relatează declarațiile lui Rod Evans, vicepreședinte NVIDIA, la Data Center Forum (București).
Evans a susținut că răcirea cu lichid schimbă „geografia” industriei, făcând posibilă construirea de centre de date inclusiv în țări cu climă caldă. În acest context, România, cu climă temperată, ar avea un avantaj competitiv în regiune și „nu există niciun motiv” să nu devină lider în centre de date.
„Odată cu răcirea prin lichid, poți construi centre de date oriunde. Există proiecte în Maroc, în Spania și Portugalia, țări cu climă caldă. Cu o climă temperată, nu există niciun motiv pentru care România nu poate deveni un lider în centre de date.”
Executivul NVIDIA a legat direct oportunitatea de disponibilitatea energiei, pe fondul creșterii masive a consumului necesar infrastructurii pentru inteligență artificială. El a spus că, la sosirea în București, a observat o reclamă pentru o facilitate solară de 2,5 gigawați care se construiește în România, proiect asociat cu Jonathan Berney (AIC) și Cluster Power.
În același context, Economica notează că AIC a semnat în decembrie 2025 un parteneriat cu ClusterPower (operator certificat NVIDIA DGX-Ready) pentru dezvoltarea unui proiect multianual de până la 800 MW, pe două campusuri în sud-vestul României.
Evans a adăugat că România începe să fie comparată cu Norvegia, una dintre destinațiile europene importante pentru centre de date, datorită energiei disponibile și condițiilor climatice.
Rod Evans a descris industria ca fiind în „cea mai accelerată transformare” din ultimele decenii, pe fondul creșterii rapide a cererii de putere de calcul pentru AI. El a afirmat că dimensiunea și complexitatea modelelor AI au crescut de un milion de ori într-un deceniu, comparativ cu o creștere de 100 de ori în perioada arhitecturii x86.
În paralel, costurile de utilizare ale AI scad, ceea ce împinge tehnologia spre tot mai multe activități economice. Evans a vorbit despre trecerea către modele „cu raționament” și despre faptul că „tokenii” (unități de calcul folosite în generarea de răspunsuri AI) au devenit de 10 ori mai ieftini în fiecare an, potrivit declarațiilor sale.
Evans a avertizat că unele state tratează AI mai ales ca divertisment, în timp ce altele îl folosesc pentru a-și reconstrui avantajele competitive, dând exemplul Chinei. El a reluat ideea promovată de CEO-ul NVIDIA, Jensen Huang: fiecare stat trebuie să decidă dacă va produce AI sau doar va consuma tehnologie creată în alte țări.
În acest cadru, Evans a invocat o discuție între Jensen Huang și premierul Indiei, Narendra Modi, ca argument pentru „AI suveran” (dezvoltare locală a infrastructurii și modelelor, cu păstrarea controlului asupra datelor, limbii și culturii).
Vicepreședintele NVIDIA a spus că apariția „fabricilor de AI” și a infrastructurilor suverane de calcul ar urma să devină o direcție majoră de investiții pentru guvernele europene, inclusiv pentru România. El a menționat că EuroHPC a anunțat recent prima fabrică de AI care va fi construită în România.
Separat, Evans a indicat o vulnerabilitate structurală în Europa: nivelul redus al investițiilor în recalificare după terminarea studiilor universitare, într-un moment în care AI schimbă rapid piața muncii. El a afirmat că statele UE cheltuie 4,6% din PIB pentru educație (de la grădiniță la universitate) și 0,9% din PIB pentru recalificare și reeducare după facultate, și a invocat studii potrivit cărora aproximativ 100 de ore (trei săptămâni) de training în AI ar crește șansele de angajare cu 60%.
În final, Evans a susținut că transformarea digitală trebuie să includă administrația publică, avertizând că birocrația tradițională nu mai poate susține economiile moderne fără integrarea tehnologiei și a inteligenței artificiale.
Recomandate

Google testează intern „Remy”, un agent AI integrat în ecosistem, ceea ce poate schimba modul de lucru în companie și, ulterior, felul în care utilizatorii folosesc serviciile Google, potrivit Android Authority . Instrumentul ar fi „profund integrat” în Google și este prezentat ca un „agent personal 24/7”, într-o mișcare care ar veni după reducerea eforturilor pentru Project Mariner și pe fondul competiției cu OpenClaw. Informația provine dintr-un raport Business Insider , citat de publicație, care susține că Google testează intern un nou sistem agentic (adică un AI capabil să execute acțiuni și sarcini în numele utilizatorului), cu numele de cod „Remy”. Nu este clar dacă este același proiect către care au fost redirecționate resursele după schimbarea de direcție de la Project Mariner, însă descrierea îl apropie de abordarea OpenClaw. Ce ar face „Remy” și de ce contează operațional Conform descrierii din raport, Remy ar fi „profund integrat” în cadrul Google și ar putea să „monitorizeze lucrurile care contează pentru tine, să gestioneze proactiv sarcini complexe și să îți învețe preferințele în timp”. Mesajul de prezentare citat îl poziționează drept „agentul tău personal 24/7 pentru muncă, școală și viața de zi cu zi, alimentat de Gemini”. Pentru Google, o astfel de integrare ar însemna un pas dincolo de funcțiile agentice deja existente în Gemini, care – în forma actuală – tind să fie mai înguste, legate de aplicații sau scenarii specifice. Un agent „mai generalist”, folosit transversal, ar putea avea impact direct asupra productivității interne și asupra modului în care sunt automatizate fluxurile de lucru. Testare internă și incertitudinea privind lansarea Angajații Google ar „dogfooding” Remy (adică îl folosesc intern pentru a-l testa în condiții reale), însă sursele citate nu precizează dacă proiectul este destinat să rămână un instrument intern sau dacă va fi lansat public. Referințele la „muncă” și „școală” sugerează, totuși, o posibilă orientare către utilizatori, notează publicația, fără a indica un calendar. Cu Remy încă în testare internă, este prea devreme pentru a vorbi despre o lansare. Chiar dacă urmează Google I/O în cursul acestei luni, materialul indică doar posibilitatea ca Google să discute planuri de viitor pentru acest instrument în cadrul conferinței, nu o prezentare sau o lansare confirmată. [...]

Doar 13% dintre companiile din România au implementat eficient AI în cloud , un nivel sub jumătate din media Europei Centrale și de Est, iar decalajul de adopție față de piețele mature este de 18–24 de luni, potrivit unei analize publicate de Economica . Datele indică o problemă operațională și de competitivitate: fără infrastructură de date și investiții în cloud, proiectele de inteligență artificială rămân fragmentate și greu de scalat. Infrastructura și datele, principalele blocaje pentru scalare Potrivit datelor PwC citate în material, România se află într-o etapă incipientă a adopției AI, cu utilizare limitată și infrastructură insuficient dezvoltată. Pe lângă ponderea redusă a implementărilor eficiente în cloud (13%), doar aproximativ 25% dintre organizații consideră că au o arhitectură de date adecvată, ceea ce sugerează o bază fragilă pentru proiecte AI care să poată fi extinse la nivelul întregii companii. Această fundație slabă se vede și în planurile de investiții: doar 17% dintre firmele din România intenționează investiții specifice în infrastructură cloud pentru AI și machine learning, „la jumătate față de media regională”, ceea ce limitează potențialul de dezvoltare în următorii ani. „18–24 de luni în urmă”: fereastră scurtă pentru recuperare Lilia Christofi (PwC) a spus, la PwC Romania Technology Summit, că România este „cu 18–24 de luni în urmă” la implementarea și utilizarea AI, dar că recuperarea este posibilă dacă organizațiile trec rapid de la experiment la execuție. „Cel mai bun mod de a învăța AI este prin implementare și practică. Nu este vorba despre urmărirea unor cursuri online.” În contrast, piețele din Europa de Vest ar fi depășit faza de testare și ar integra AI la scară largă în operațiuni, cu accent pe reutilizarea modelelor, abordare care „reduce costurile și crește eficiența”, potrivit aceleiași surse. Riscuri: costuri, operațiuni și reglementare, dacă AI e „pus peste tot” Materialul atrage atenția că întârzierea vine și cu un potențial avantaj (învățarea din greșelile altora), însă fereastra este limitată. Christofi a avertizat că lipsa unei implementări corecte poate genera probleme operaționale, costuri ridicate și dificultăți în zona de reglementare, mai ales dacă nu există aliniere la nivelul întregii organizații. „Pentru că a construi un AI este costisitor. Dacă nu există aliniere la nivelul întregii organizații, complicați foarte mult munca departamentului de risc și provocările de reglementare.” Un alt risc menționat este utilizarea greșită a tehnologiei, prin aplicarea AI în contexte unde ar fi suficiente automatizări sau modele de machine learning mai simple, pe motiv că AI este „un model probabilistic” și „nu se potrivește în orice situație”. Semnale mixte: competențe în creștere, dar strategii aproape inexistente Pe piața muncii, presiunea de adaptare este deja vizibilă: ritmul de schimbare a competențelor în rolurile expuse la AI este cu 66% mai rapid decât în alte joburi, conform datelor citate. Există și indicatori pozitivi: aproximativ 70% dintre organizațiile din România folosesc infrastructură cloud sustenabilă (peste media regională), iar 62% dintre angajații din servicii financiare au dobândit noi competențe AI în ultimul an (peste media globală). În același timp, Gabriel Voicilă, Partener Tehnologie PwC România, a prezentat date dintr-un studiu care urmează să fie lansat în luna mai: doar 2% dintre companiile din România au declarat că au o strategie completă aprobată, cu indicatori de măsurare a beneficiilor AI, iar aproape 80% dintre respondenți au semnalat că nu folosesc sisteme bazate pe AI pentru luarea deciziilor. Barierele invocate: dificultatea de a măsura beneficiile investițiilor, lipsa de personal calificat și constrângerile bugetare. În logica prezentată la eveniment, miza pentru următoarele 12 luni este trecerea de la experimentare la execuție, astfel încât decalajul de adopție să nu se transforme într-un dezavantaj competitiv de durată. [...]

Google schimbă modul în care afișează și „împinge” linkurile în căutările cu AI , într-o încercare de a direcționa utilizatorii mai rapid către site-uri și conținut original, inclusiv către articolele din abonamentele lor de știri, potrivit Google Blog . Actualizările vizează AI Mode și AI Overviews din Google Search și au ca miză practică creșterea ratei de accesare a surselor (click-uri) din interiorul răspunsurilor generate de AI. Ce se schimbă, concret, în AI Mode și AI Overviews Google descrie cinci actualizări care au în comun aceeași direcție: mai multe linkuri, mai vizibile, mai contextualizate și mai ușor de urmărit în timpul lecturii răspunsului AI. Principalele noutăți sunt: Sugestii de „pași următori” la finalul unor răspunsuri AI , cu trimiteri către articole unice sau analize detaliate pe sub-teme („Explore new angles”). Evidențierea linkurilor din abonamentele de știri ale utilizatorului în AI Mode și AI Overviews, astfel încât conținutul plătit/abonat să fie mai ușor de găsit. Google menționează că, în testele timpurii, utilizatorii au fost „semnificativ mai predispuși” să dea click pe linkurile etichetate ca provenind din abonamentele lor (fără a publica un procent). Previzualizări de perspective din discuții publice online și rețele sociale , cu mai mult context lângă link (de exemplu numele creatorului, „handle”-ul sau numele comunității), pentru a ajuta utilizatorul să decidă dacă intră în conversația completă. Mai multe linkuri inserate direct lângă pasajele relevante din răspunsul AI , inclusiv lângă puncte din liste, pentru a reduce „fricțiunea” dintre citit și accesarea sursei. Previzualizare la trecerea cu cursorul peste un link (desktop) , care arată rapid numele site-ului sau titlul paginii, pentru a crește încrederea utilizatorului că știe unde ajunge înainte să dea click. De ce contează pentru ecosistemul web (publisheri și trafic) Dincolo de funcțiile pentru utilizatori, schimbarea are o componentă operațională importantă pentru site-uri și publisheri: Google încearcă să facă tranziția din răspunsul AI către sursa originală mai naturală și mai frecventă, prin: plasarea linkurilor „în linie” (în interiorul răspunsului, lângă afirmația relevantă); etichetarea conținutului din abonamente (un stimulent direct pentru publisheri să-și conecteze ofertele la mecanismul Google); oferirea de context înainte de click (previzualizări), pentru a reduce ezitarea utilizatorilor. Pentru publisheri, Google indică și un pas practic: există un formular prin care aceștia pot afla mai multe despre conectarea abonamentelor cititorilor cu Google, astfel încât linkurile către conținutul abonat să fie evidențiate. Ce mai spune Google despre „cum găsește” linkurile Compania afirmă că va continua să îmbunătățească modul în care „arată și clasifică” linkurile în experiențele de căutare cu AI și menționează utilizarea unor tehnici precum „query fan-out” (o metodă prin care sistemul extinde interogarea inițială în mai multe căutări conexe pentru a găsi rezultate relevante). Google precizează că va continua să testeze și să ajusteze aceste funcții „în funcție de ce funcționează cel mai bine” pentru utilizatori, fără să ofere un calendar detaliat de disponibilitate pe piețe. [...]

Perplexity extinde accesul la „ Personal Computer ” pe Mac, mutând execuția în cloud pentru a reduce sarcina pe dispozitiv , o schimbare care poate influența direct modul în care utilizatorii și companiile folosesc asistenți AI pe macOS, printr-un model de utilizare legat de abonamente și de limite de credit. Informația este prezentată de Engadget . Până acum, asistentul AI „Personal Computer” era disponibil doar pentru utilizatorii planului Max de 200 de dolari pe lună, însă Perplexity spune că l-a deschis acum pentru toți utilizatorii de Mac. Accesul se face printr-o aplicație nouă pentru macOS, iar utilizarea este „legată de limitele de credit” ale planurilor Pro și Max, potrivit companiei. Ce se schimbă operațional: asistentul rulează sarcini pe fișiere, aplicații și web Perplexity afirmă că „Personal Computer” poate executa sarcini care implică fișiere locale, alte aplicații, web-ul și propriile servere ale companiei. Pentru utilizator, asta înseamnă un asistent care nu se limitează la întrebări, ci poate interacționa cu mai multe surse și contexte de lucru. Compania poziționează produsul pentru „interogări de zi cu zi, atașamente și dictare”, adică utilizări tipice de productivitate, nu doar căutare. De ce contează: „greul” se face în cloud, nu pe Mac Un element distinct față de unele instrumente similare este că Perplexity spune că va face „cea mai mare parte a muncii” în cloud, nu integral local, inclusiv pentru a reduce presiunea asupra resurselor Mac-ului. Practic, performanța și capabilitățile pot depinde mai mult de infrastructura Perplexity și de conexiunea la internet decât de configurația hardware a utilizatorului. Perplexity mai precizează că asistentul folosește mai multe modele AI în funcție de sarcină, inclusiv Gemini pentru „cercetare aprofundată”, Nano Banana pentru imagini și ChatGPT pentru „memorare pe context lung și căutare largă”. Utilizare continuă și control la distanță, cu promisiuni de auditabilitate Perplexity susține că „Personal Computer” poate rula non-stop pe un Mac mini și poate fi controlat de la distanță de pe iPhone. Compania mai afirmă că acțiunile asistentului sunt „auditabile și reversibile”, ceea ce ar reduce riscul unor erori cu impact (de exemplu, ștergerea accidentală a fișierelor), deși articolul nu oferă detalii tehnice despre cum este implementată această reversibilitate. [...]

Google își duce instrumentele de creație muzicală cu IA direct către artiști printr-un parteneriat cu Believe , care va oferi Flow Music (din Google Labs) și modelul de generare muzicală Lyria 3 Pro creatorilor din rețelele Believe și TuneCore, potrivit Google Blog . Miza este una operațională: accesul la astfel de instrumente intră într-un canal de distribuție deja folosit de artiști, nu rămâne doar un experiment de laborator. Parteneriatul vizează artiști, producători și compozitori care lucrează cu Believe și TuneCore, iar Flow Music este poziționat ca „colaborator creativ” pentru sarcini precum sprijin la versuri, explorarea de melodii sau genuri și chiar crearea de instrumente noi. Google precizează că nu revendică drepturi de proprietate asupra conținutului original generat cu Flow Music. Ce se schimbă pentru artiști: integrare și iterație rapidă În formularea Google, Believe va pune la dispoziție Flow Music ca spațiu de „explorare și iterație”, util atât în fazele incipiente ale unui proiect (de exemplu, căutarea unei direcții pentru un album), cât și la finalizarea unor elemente precum versurile. Cum va funcționa colaborarea cu Believe și TuneCore Pe lângă accesul la instrumente, parteneriatul include un mecanism de feedback: Believe și TuneCore vor selecta un grup de artiști și producători care se vor întâlni săptămânal cu echipa de produs. Rolul lor este să ofere feedback și să influențeze evoluția Flow Music. Motorul tehnic și condițiile de utilizare a datelor Flow Music este alimentat de Lyria 3 Pro, descris de Google drept cel mai nou model de generare muzicală al companiei. Modelul este construit pentru a înțelege structura compozițională (intro, strofe, refren, punte), pentru a experimenta cu stiluri diverse și pentru a genera ritmuri complexe sau a testa voci în altă limbă. Pe partea de utilizare responsabilă, Google afirmă că Lyria 3 Pro a fost proiectat și antrenat folosind materiale pe care YouTube și Google au dreptul să le folosească în baza termenilor de utilizare, a acordurilor cu parteneri și a legislației aplicabile. [...]

Google împinge mai multă „asistență” cu inteligență artificială în Căutare, prin funcții care folosesc camera și unelte generative pentru planificare și recomandări în timp real, într-un exemplu concret de mutare a utilizării AI din zona de „răspunsuri” în zona de „acțiuni” (vizualizare, plan, cumpărături, diagnostic). Detaliile apar într-un material publicat pe Google Blog , care descrie cinci moduri de a folosi AI Mode, Search Live și Shopping pentru activități de grădinărit. În esență, Google propune Căutarea ca „trusă digitală” pentru utilizatori: de la a vedea cum ar arăta o amenajare într-un spațiu real, până la a obține recomandări despre îngrijirea plantelor sau a găsi rapid produse disponibile în apropiere. Pentru utilizatori, miza este reducerea timpului de documentare și a incertitudinii; pentru Google, este o extindere a rolului Căutării spre fluxuri care pot duce direct la tranzacții (Shopping) și la interacțiuni mai lungi (conversații, planificare). Ce funcții pune Google în prim-plan Materialul enumeră cinci utilizări, toate centrate pe integrarea AI în experiența de căutare: Vizualizarea unei grădini în spațiul tău cu AI Mode în Search: utilizatorul face o fotografie a spațiului (de exemplu, un patio) și cere sugestii de amplasare și o reprezentare a rezultatului. Plan de plantare cu Canvas în AI Mode: o unealtă de tip „panou” (Canvas) poate genera un plan anual, cu sarcini lunare și alte elemente de organizare, pe baza unei cereri detaliate. Proiectarea unui „chaos garden” (grădină cu aspect „sălbatic”) cu AI Mode: recomandări pentru amestecuri de semințe și strategie, în funcție de lumină și spațiu. Aprovizionare locală prin Shopping: căutare de produse cu filtrul „nearby”/„în apropiere” și posibilitatea de a include „near me”; Google menționează și folosirea AI pentru a „suna” în legătură cu stocurile. Ajutor în timp real cu Search Live: prin Lens în aplicația Google, utilizatorul poate fotografia o plantă și poate continua cu întrebări succesive, într-o interacțiune de tip conversație, inclusiv cu opțiunea „Live”. Contextul de utilizare: interes în creștere pentru „chaos gardens” și grădini mici Google invocă date din Google Trends pentru a argumenta relevanța acestor funcții în sezon: în SUA, căutările pentru „how to start a chaos garden” au crescut cu 140% în această primăvară, iar interesul pentru „chaos garden seeds” s-a dublat . În paralel, căutările pentru „mini garden” au atins un maxim istoric în 2026, iar „tabletop garden” un maxim al ultimilor 15 ani. De ce contează, dincolo de grădinărit Din perspectivă operațională, exemplul arată direcția în care Google împinge Căutarea: interfețe care combină text, imagine și conversație, plus instrumente de planificare (Canvas) și integrare mai strânsă cu cumpărăturile locale. Practic, Căutarea este prezentată nu doar ca motor de informare, ci ca instrument de „executare” a unor sarcini, cu AI ca intermediar între intenție (ce vrei să faci) și rezultat (plan, vizualizare, achiziție, diagnostic). [...]