Știri
Știri din categoria Inteligență artificială

Doar 3,37% dintre români au folosit AI generativ în educație, iar 5,21% dintre firme folosesc tehnologii AI, potrivit unui studiu Eurobarometru citat de Euronews. La nivel european, utilizarea inteligenței artificiale este în creștere, dar diferențele dintre țări sunt semnificative, mai ales între nordul și sud-estul continentului.
În medie, doar 9,8% dintre europeni declară că au folosit AI generativ în scopuri educaționale în 2025. România se află aproape de coada clasamentului, cu doar 3,37%, înaintea Ungariei (0,62%) și Poloniei (4,59%). La polul opus se află Suedia (20,99%), Malta (20,22%) și Danemarca (17,86%).
Aceste diferențe arată nu doar reticența față de AI în educație în anumite regiuni, ci și un decalaj semnificativ în accesul la resurse și competențe digitale. Deși Comisia Europeană a publicat deja linii directoare privind utilizarea etică a AI în educație, două direcții majore cer atenție urgentă:
În medie, 15,07% dintre europeni folosesc AI generativ la locul de muncă. România se află din nou printre ultimele, cu 5,24%, departe de lideri precum Malta (29,64%) și Danemarca (27,17%).
Pentru uz personal, deschiderea este ceva mai mare – 14,85% dintre români recunosc că folosesc AI în viața privată. Totuși, această cifră este încă departe de media liderilor regionali, cum ar fi Cipru (43,13%) și Grecia (40,91%).
La nivelul companiilor, utilizarea AI a crescut în UE cu 12,3% din 2021 încoace. Totuși, numai 5,21% dintre firmele românești folosesc cel puțin o tehnologie AI, față de 42,03% în Danemarca sau 37,82% în Finlanda. Deși procentul românesc a crescut față de 2021 (+3,83%), decalajul rămâne major.

Aceste date sugerează o problemă structurală, legată atât de lipsa infrastructurii digitale, cât și de absența competențelor digitale avansate în rândul forței de muncă.
Studiul atrage atenția asupra unei Europe „cu două viteze” în privința AI: în timp ce unele state membre se îndreaptă rapid spre transformări digitale susținute, altele par blocate în reticență și lipsă de pregătire. Pentru a evita adâncirea acestor falii, UE ar trebui să implementeze indicatori de performanță clari la nivel național, să diferențieze măsurile în funcție de tipul și maturitatea companiilor și să evite proiectele costisitoare cu impact redus.
Recomandate

OpenAI își schimbă strategia și se concentrează pe programare și clienți business , potrivit The Wall Street Journal , într-o mișcare care marchează o retragere din proiectele secundare și o încercare de a valorifica mai eficient avantajul tehnologic. Decizia este analizată de CEO-ul Sam Altman și de Mark Chen , iar angajații urmează să primească detalii oficiale în perioada următoare, după ce planul a fost deja prezentat intern de Fidji Simo ca un efort de a fixa direcția companiei pe activitățile esențiale. Schimbarea nu vine din senin, ci continuă o serie de ajustări începute încă din 2025, când OpenAI a suspendat inițiative precum publicitatea, agenți pentru sănătate sau funcții de cumpărături, pentru a redirecționa resursele către îmbunătățirea ChatGPT. Noua etapă merge însă mai departe și stabilește două priorități clare: dezvoltarea instrumentelor de programare extinderea soluțiilor pentru companii Această repoziționare apare pe fondul unei competiții intense, în special cu Anthropic, ale cărei modele sunt percepute ca fiind mai performante în sarcini de codare. Deși OpenAI susține că produsul său Codex și-a triplat numărul de utilizatori săptămânali din ianuarie 2026, piața rămâne una disputată, iar integrarea în ecosisteme populare devine decisivă. În paralel, conducerea companiei consideră că principala problemă nu mai este capacitatea tehnologică, ci implementarea în mediul real. Directorul financiar Sarah Friar sublinia încă din ianuarie că obiectivul pentru 2026 este „adopția practică”, adică transformarea capabilităților AI în instrumente utilizate zilnic de companii și instituții. Câteva repere relevante pentru contextul actual: Indicator Valoare estimată Utilizatori săptămânali ChatGPT peste 900 milioane Venituri recurente anuale peste 20 miliarde dolari Evaluare companie (martie 2026) aproximativ 730 miliarde dolari În acest context, presiunea este dublă: competiția tehnologică și nevoia de a demonstra că investițiile masive pot genera venituri sustenabile, mai ales în perspectiva unei posibile listări la bursă spre finalul anului 2026. Practic, OpenAI încearcă să treacă de la statutul de lider în cercetare la cel de jucător dominant în aplicații comerciale. [...]

Inteligența artificială devine „copilotul” angajaților din România , iar IMM-urile care adoptă aceste tehnologii pot economisi între două și șase zile de muncă pe lună pentru fiecare angajat prin automatizarea sarcinilor repetitive. Datele provin dintr-o analiză realizată în contextul conferinței EnterTech 2026 , dedicată digitalizării și automatizării businessului. Potrivit specialiștilor implicați în proiect, angajații folosesc în prezent între 10 și 40 de instrumente digitale și asistenți AI zilnic , mult mai mult decât în urmă cu un deceniu. În același timp, companiile mici și mijlocii automatizează tot mai multe activități administrative pentru a crește productivitatea și pentru a reduce costurile operaționale. Cât timp poate economisi un angajat folosind AI Analiza arată că impactul automatizării diferă în funcție de nivelul de utilizare a instrumentelor AI. Economia medie de timp pe zi: utilizator obișnuit: 45–75 minute economisite utilizator intensiv: 75–120 minute economisite utilizator avansat: 120–150 minute economisite La nivel lunar, acest lucru se traduce prin: 2–3 zile de muncă economisite pentru utilizare moderată 3–5 zile economisite pentru utilizare intensivă 5–6 zile economisite pentru utilizare avansată. De exemplu, într-o companie cu 50 de angajați , utilizarea inteligenței artificiale poate genera între 750 și 2.500 de ore de muncă economisite lunar , echivalentul activității a 4–15 angajați cu normă întreagă. Ce sarcini sunt automatizate cel mai des Companiile automatizează în principal activitățile de birou care consumă mult timp și sunt repetitive. Cele mai frecvente exemple: redactarea și rezumarea emailurilor generarea automată de rapoarte și documente analiza datelor în Excel rezumarea ședințelor și generarea listelor de taskuri suportul clienților pentru întrebări frecvente crearea de conținut pentru marketing organizarea și căutarea documentelor. Un instrument utilizat tot mai des pentru astfel de activități este Microsoft 365 Copilot , integrat în aplicații precum Word, Excel, PowerPoint, Outlook și Teams. Acesta poate redacta documente, analiza date sau genera rezumate automate ale întâlnirilor. România rămâne în urmă la automatizare Deși adoptarea AI crește, datele Eurostat arată că doar aproximativ 5% dintre companiile din România folosesc soluții de automatizare și inteligență artificială , comparativ cu peste 33% în țări europene avansate , precum Danemarca, Finlanda sau Suedia. Printre sectoarele în care digitalizarea este încă redusă se numără: retailul tradițional HoReCa sectorul medical și farmaceutic transporturile și logistica mică construcțiile agricultura administrația publică. Conferința EnterTech 2026 Subiectele legate de automatizare și digitalizare vor fi discutate la EnterTech 2026 , conferință organizată la București în perioada 26–27 martie , unde antreprenorii și managerii pot analiza studii de caz și soluții concrete pentru implementarea AI în business. Evenimentul reunește experți din industrie, specialiști Microsoft și antreprenori care folosesc deja tehnologii de automatizare pentru a crește eficiența companiilor. [...]

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]

Google Cloud și Nvidia introduc GPU-uri fracționate pentru costuri mai mici în AI , potrivit Google Cloud , într-un parteneriat extins anunțat la GTC 2026, care vizează accelerarea adoptării inteligenței artificiale în mediul enterprise. GPU-uri „la porție” pentru companii Noutatea centrală este lansarea mașinilor virtuale G4 fracționate, care permit împărțirea unui GPU Nvidia RTX Pro 6000 în mai multe segmente: 1/8 GPU – pentru sarcini ușoare, precum desktopuri virtuale 1/4 GPU – pentru aplicații AI moderate 1/2 GPU – pentru inferență avansată și simulări Această abordare reduce costurile și oferă flexibilitate, permițând companiilor să plătească doar pentru resursele utilizate, într-un context în care cererea pentru infrastructură AI crește rapid. Integrare software și modele AI Parteneriatul merge dincolo de hardware și include integrarea profundă a tehnologiilor Nvidia în ecosistemul Google: Nvidia NeMo integrat în Vertex AI Nvidia Dynamo conectat la GKE Inference Gateway modele Nemotron 3 disponibile în Vertex AI Model Garden Aceste instrumente sunt concepute pentru a accelera dezvoltarea și implementarea modelelor AI complexe, inclusiv a celor de tip „agentic AI”, considerate următorul val în industrie. Infrastructură de nouă generație Google Cloud a confirmat și că va adopta sistemele Vera Rubin NVL72 în a doua jumătate a lui 2026. Acestea includ: Componentă Specificație GPU-uri 72 unități Rubin CPU-uri 36 procesoare Vera Utilizare antrenare și inferență la scară mare Clienți importanți, precum General Motors sau Salesforce, folosesc deja infrastructura comună pentru aplicații AI avansate, inclusiv platforme autonome și sisteme de analiză complexă. Miza: dominația în AI enterprise Anunțul reflectă o direcție clară: transformarea infrastructurii AI într-un serviciu flexibil și scalabil pentru companii. Nvidia și Google Cloud încearcă astfel să răspundă competiției din partea Amazon și Microsoft, dar și să capitalizeze cererea tot mai mare pentru modele AI capabile să opereze autonom. În paralel, Nvidia promovează ideea că „tokenii devin o resursă economică”, sugerând că viitorul industriei va depinde nu doar de puterea de calcul, ci și de eficiența utilizării acesteia. [...]

Nvidia a lansat DLSS 5 și un cip AI pentru centre de date spațiale , potrivit CNBC , marcând o dublă direcție strategică: grafică avansată pentru jocuri și extinderea inteligenței artificiale în orbită. Anunțul a fost făcut de CEO-ul Jensen Huang în cadrul conferinței GTC 2026 din San Jose. DLSS 5: un salt major în grafica jocurilor Noua versiune DLSS 5 schimbă abordarea clasică a randării, introducând un model neuronal capabil să reconstruiască în timp real lumina, materialele și detaliile scenelor la rezoluții de până la 4K. Spre deosebire de versiunile anterioare, care îmbunătățeau performanța prin upscaling, această tehnologie „înțelege” scena și adaugă detalii fotorealiste direct la nivel de pixeli. Printre elementele cheie: randare neuronală în timp real control artistic păstrat pentru dezvoltatori suport anunțat de studiouri mari precum Ubisoft, Capcom sau Warner Bros. DLSS 5 este programat pentru lansare în toamna lui 2026, însă demonstrațiile actuale arată cerințe hardware ridicate, fiind necesare două plăci video RTX 5090 pentru rulare optimă. AI în spațiu: Vera Rubin Space-1 Nvidia a prezentat și Vera Rubin Space-1 , un modul de calcul proiectat pentru funcționare în orbită, destinat centrelor de date spațiale. Acesta ar oferi de până la 25 de ori mai multă putere de procesare AI comparativ cu GPU-ul H100. Caracteristici principale: optimizat pentru analiză în timp real și operațiuni autonome adaptat condițiilor extreme din spațiu (radiații, lipsa convecției) destinat viitoarelor infrastructuri de tip „data center orbital” Compania colaborează deja cu parteneri precum Axiom Space și Planet Labs, iar primul test ar putea avea loc în noiembrie 2026, prin lansarea unui satelit echipat cu acest modul. Provocări și miză Deși ambițiile sunt mari, Nvidia recunoaște dificultățile tehnice, în special legate de răcirea sistemelor în spațiu. Totuși, interesul pentru centre de date orbitale crește, pe fondul accesului la energie solară continuă și al cererii uriașe pentru putere de calcul AI. Prin aceste anunțuri, Nvidia încearcă să își consolideze poziția atât în industria jocurilor, cât și în infrastructura globală de inteligență artificială, extinzând competiția dincolo de Pământ. [...]

Microsoft reduce discret integrarea Copilot în Windows 11 , potrivit Windows Central , renunțând la mai multe funcții anunțate încă din 2024 și schimbând strategia privind inteligența artificială din sistemul de operare. Decizia vizează în special eliminarea sau amânarea unor integrări directe în zone cheie precum Setări, notificări și File Explorer, acolo unde Copilot ar fi trebuit să devină un asistent omniprezent. Inițial, Microsoft promitea o integrare profundă a Copilot în Windows 11, inclusiv sugestii inteligente în notificări sau acțiuni directe în File Explorer fără deschiderea altor aplicații. La aproape doi ani de la anunț, aceste funcții nu au mai fost lansate, nici măcar în versiuni de test. În schimb, compania a ales să păstreze unele funcționalități de inteligență artificială, dar fără eticheta Copilot și cu o prezență mai discretă. Ce se schimbă concret în Windows 11: integrarea Copilot în notificări este, cel mai probabil, abandonată; aplicația Setări include căutare semantică, dar fără branding Copilot; File Explorer oferă acțiuni asistate de AI, însă trimite utilizatorul către alte aplicații; infrastructura „Copilot Runtime” a fost redenumită în „Windows AI APIs”. Microsoft recunoaște că unele funcții prezentate public pot fi modificate sau chiar eliminate în funcție de feedback-ul utilizatorilor. Surse citate de publicație indică faptul că gigantul american încearcă în 2026 să reducă ceea ce este perceput drept „supraîncărcare cu AI” în Windows 11 , după critici legate de aglomerarea inutilă a sistemului. Noua direcție nu înseamnă renunțarea la inteligența artificială, ci o utilizare mai atentă și opțională a acesteia. Funcțiile AI vor rămâne acolo unde sunt utile, dar vor putea fi dezactivate mai ușor, iar brandingul Copilot va fi rezervat în special serviciilor din ecosistemul Microsoft 365. În esență, Microsoft încearcă să corecteze percepția negativă creată de integrarea agresivă a AI, mizând pe o experiență mai echilibrată și mai puțin intruzivă pentru utilizatori. [...]