Știri
Știri din categoria Inteligență artificială

Jensen Huang, CEO-ul Nvidia, consideră că viitorul programării nu va mai fi despre scrierea de cod, ci despre renunțarea la cod în sine, prin interacțiunea directă în limbaj natural cu sistemele informatice. Aflat într-o intervenție publică, Huang a explicat că limbajul uman este „cel mai bun limbaj de programare al viitorului”, într-un context în care interfața principală dintre om și computer nu va mai fi codul clasic, ci dialogul direct, articulat în mod natural.
Conform unei postări realizate de uncover.ai, Huang susține că ne aflăm într-un punct de cotitură fundamental în evoluția tehnologiei informatice. Noua paradigmă nu presupune îmbunătățirea codului sau a sintaxei, ci eliminarea acestora din procesul de interacțiune inițială. Scopul este ca sistemele să înțeleagă comenzi exprimate în limbaj natural, urmând ca acestea să genereze singure codul și planurile de implementare necesare.
În exemplul oferit de Huang, o persoană ar putea cere sistemului, în engleză simplă, generarea unui plan complet de producție, cu toți furnizorii și materialele necesare. Ulterior, dacă este nevoie de personalizare, utilizatorul poate cere și un program în Python, generat automat, pe care să-l modifice.
Această abordare se bazează pe ceea ce Huang numește „prompt engineering” – arta de a formula cât mai eficient instrucțiunile pentru un sistem AI. Deși codul nu dispare complet, el „se estompează în fundal”, fiind gestionat automat de sistemul care se ocupă de execuție, optimizare și particularități de caz.
Această direcție indică o democratizare accelerată a tehnologiei, în care barierele tehnice tradiționale vor fi reduse semnificativ. Practic, oricine ar putea interacționa cu un computer sau un sistem complex fără să fi învățat vreodată un limbaj de programare, ci doar prin capacitatea de a formula clar și eficient cerințele.
Recomandate

LG Electronics discută cu Nvidia o posibilă cooperare pe centre de date AI, robotică și mobilitate , o combinație care ar putea împinge compania sud-coreeană mai adânc în lanțul de furnizori pentru infrastructura AI și ar extinde prezența Nvidia dincolo de zona industrială, potrivit The Next Web . LG a confirmat miercuri că poartă discuții cu Nvidia pentru colaborare în trei direcții: robotică, centre de date pentru inteligență artificială și mobilitate. Întâlnirea a avut loc după o vizită la sediul LG din Yeouido (Seul) a lui Madison Huang, director senior Nvidia pentru platforme de „AI fizic” (inteligență artificială integrată în roboți și sisteme autonome), alături de reprezentanți ai altor companii tehnologice sud-coreene; la discuții a participat și CEO-ul LG, Ryu Jae-cheol. Nu există, deocamdată, un acord formal. Discuțiile sunt descrise ca fiind exploratorii, fără produse, sume de investiții sau calendare confirmate. De ce contează: miza comercială imediată pare să fie centrele de date Deși componenta de robotică este cea mai vizibilă public, materialul indică faptul că discuțiile despre centre de date și mobilitate ar putea avea o relevanță comercială mai rapidă. În zona centrelor de date, LG și-a poziționat deja oferta ca furnizor de soluții de răcire și management termic (HVAC) pentru centre de date AI, pe fondul creșterii densității de putere a clusterelor de GPU, care face răcirea convențională tot mai dificilă. O eventuală colaborare cu Nvidia ar plasa LG ca furnizor hardware în ecosistemul Nvidia la nivel de infrastructură, completând stratul de calcul (compute) cu cel de răcire, fără a concura direct cu acesta. Robotică: LG are platformă proprie, Nvidia are „stack”-ul de dezvoltare La CES 2026, LG a prezentat CLOiD, un robot pentru acasă cu două brațe articulate (șapte grade de libertate pe braț) și câte cinci degete acționate individual la fiecare mână, parte din viziunea „Zero Labor Home”, în care roboții și electrocasnicele conectate preiau sarcini casnice. Robotul rulează pe platforma proprie LG, „Affectionate Intelligence”, orientată spre conștientizare contextuală, interacțiune naturală și învățare continuă din mediul de acasă. În schimb, Nvidia vine cu Isaac (platforma sa pentru robotică), care include simulare, modele pre-antrenate pentru manipulare, infrastructură de „geamăn digital” (digital twin) bazată pe Omniverse și calcul pe GPU optimizat pentru inferență în timp real. Integrarea ar putea scurta drumul de la prototip la producție, printr-un flux de dezvoltare–implementare deja validat în industrie. Pentru Nvidia, un partener precum LG ar însemna acces la scară de consum: distribuție de masă, o bază instalată globală de electrocasnice conectate prin ecosistemul ThinQ și un plan explicit de a aduce roboți în locuințe — un mediu bogat în date pentru antrenare (sarcini reale, variabilitate mare). Mobilitate: integrare posibilă între „experiența din cabină” și platforma de calcul Pe mobilitate, discuțiile ar putea lega platforma Nvidia DRIVE (folosită pe scară largă pentru calcul AI în vehicule autonome și semi-autonome) de activitatea LG din componente auto. Divizia LG produce sisteme de infotainment, camere, componente pentru vehicule electrice și soluții AI în mașină (inclusiv urmărirea privirii, afișaje adaptive și platforme generative multimodale). O colaborare ar putea integra stratul de experiență AI din cabină al LG cu platforma de calcul DRIVE a Nvidia. Context: „AI-ul fizic” trece de la teste controlate la parteneriate comerciale Materialul plasează discuțiile în tendința mai largă de accelerare a „AI-ului fizic”, adică trecerea de la modele rulate în cloud la sisteme care operează în lumea reală (roboți, vehicule, logistică). Sunt menționate, ca repere, un trial Siemens–Nvidia într-o fabrică din Erlangen și o rundă de finanțare de 110 milioane de dolari (aprox. 506 milioane lei) atrasă de Sereact pentru scalarea AI-ului care face roboții adaptabili. În acest moment, singura certitudine este existența discuțiilor și ariile vizate; dacă și când se va ajunge la un acord, precum și forma concretă (produse, investiții, termene), rămân neconfirmate. [...]

Google Translate adaugă o funcție „Practice” cu inteligență artificială care îți corectează pronunția , un pas care mută aplicația din zona de traducere rapidă spre antrenament de vorbire și poate crește timpul petrecut în ecosistemul Google, potrivit Android Headlines . Noua opțiune „Practice” este gândită ca un instrument de exersare: utilizatorul rostește cuvinte sau expresii, iar sistemul folosește inteligența artificială pentru a identifica unde pronunția diferă de forma așteptată și pentru a ajuta la corectare. Din informațiile disponibile în material, accentul este pe feedback-ul de pronunție, nu pe traducere în sine. Ce se schimbă, practic, pentru utilizatori Funcția adaugă un flux de utilizare diferit față de „ascultă și repetă” din traducătoarele clasice, printr-o componentă de evaluare automată a vorbirii. Pe scurt, „Practice” urmărește să transforme Google Translate într-un instrument de învățare mai activ, nu doar într-un dicționar cu redare audio. De ce contează operațional pentru Google Integrarea unei funcții de exersare a pronunției în Translate poate însemna: utilizare mai frecventă a aplicației în contexte de învățare (nu doar „la nevoie”); o poziționare mai directă în zona aplicațiilor de învățare a limbilor, unde diferențiatorul este feedback-ul personalizat; o extindere a rolului inteligenței artificiale în aplicații de masă, cu interacțiuni vocale și evaluare în timp real. Materialul nu oferă detalii despre disponibilitate pe piețe, limbi suportate, calendar de lansare sau condiții comerciale (gratuit/abonament), astfel că impactul exact asupra utilizării și monetizării rămâne deocamdată neclar. [...]

Google ar putea direcționa până la 40 mld. dolari (aprox. 184 mld. lei) către Anthropic , o companie de inteligență artificială care concurează direct cu propriile sale eforturi, într-o mișcare ce sugerează o strategie de „acoperire a pariurilor” într-o piață în care accesul la modele performante și la capacitate de calcul devine un avantaj economic major, potrivit Android Headlines . Suma menționată în material este prezentată ca un plafon („până la”), ceea ce indică faptul că nu este vorba neapărat de o singură tranzacție imediată, ci de un angajament investițional care poate fi etapizat sau condiționat. În lipsa unor detalii suplimentare în textul disponibil, nu reiese structura exactă a finanțării și nici calendarul. De ce contează: investiție într-un „rival” ca instrument de poziționare Unghiul economic al știrii ține de modul în care un jucător dominant își gestionează riscul și influența într-un sector cu costuri foarte mari. O investiție de asemenea dimensiune într-un concurent direct poate funcționa ca: o modalitate de a păstra accesul la tehnologie și talent, chiar dacă direcțiile interne nu livrează cel mai rapid; un pariu pe mai multe „platforme” de modele, într-o piață în care câștigătorul nu este încă stabilit; o consolidare a poziției în ecosistemul de inteligență artificială, prin finanțarea unor actori cheie. Ce se vede în piață: competiția se mută și în zona capitalului Materialul indică faptul că rivalitatea în inteligența artificială nu se joacă doar la nivel de produse, ci și la nivel de finanțare: cine poate susține costurile de dezvoltare și operare ale modelelor are un avantaj structural. În acest context, faptul că Google ar finanța masiv un competitor direct arată presiunea de a rămâne conectat la cele mai competitive modele, indiferent de „sigla” de pe produs. Ce urmează În forma prezentată de sursă, informația rămâne la nivelul intenției/posibilității („până la 40 de miliarde de dolari”), fără detalii despre termeni, condiții sau aprobări. Relevanța practică va depinde de confirmarea oficială a sumei, de structura investiției și de modul în care aceasta se traduce în acces la tehnologie sau în parteneriate comerciale între cele două companii. [...]

OpenAI își schimbă strategia de infrastructură și se îndepărtează de ideea de a deține centre de date „ Stargate ”, preferând să închirieze pe termen lung capacitate de calcul , o mutare care reduce nevoia de investiții directe, dar tensionează relațiile cu partenerii și ridică semne de întrebare privind predictibilitatea companiei, potrivit Tom's Hardware . În forma inițială, Stargate a fost prezentat la începutul lui 2025 ca un joint venture cu Oracle și SoftBank, cu o țintă de investiții de 500 de miliarde de dolari (aprox. 2.250 miliarde lei) în centre de date pentru inteligență artificială în SUA. După „mai mult de un an” de dificultăți și neînțelegeri, OpenAI ar fi renunțat, în practică, la ideea de a deține infrastructură alături de parteneri și ar fi trecut la acorduri mai flexibile, bazate pe furnizori terți și închiriere de capacitate, conform Financial Times. De ce contează: mai puțin capital blocat, dar mai mult risc de execuție și încredere Schimbarea are o logică financiară pentru o companie care „arde numerar” și care ar fi ratat în ultimele luni ținte interne de venituri, notează materialul. În același timp, repoziționarea a produs „haos” în rândul partenerilor și a pus sub semnul întrebării fiabilitatea OpenAI, în condițiile în care raportul citat susține că startup-ul a „abandonat în practică” joint venture-ul, în favoarea unor acorduri bilaterale mari (inclusiv cu Oracle). O persoană implicată în proiect ar fi spus că OpenAI a „tras pe linie moartă centrele de date proprii”, iar compania ar fi admis că Stargate este doar un „termen umbrelă” pentru strategia sa de capacitate de calcul. Efecte colaterale: proiecte puse pe pauză și parteneri nemulțumiți Incertitudinile ar fi afectat și proiecte din afara SUA. Guvernul britanic a semnat un acord cu OpenAI și alți parteneri pentru construirea unui centru de date în Marea Britanie, însă OpenAI l-a pus „pe hold” la începutul acestei luni, invocând „reglementări restrictive” și „costuri ridicate ale energiei”. Ministrul britanic pentru IA, Kanishka Narayan, a declarat pentru Financial Times că singurul lucru care s-a schimbat față de momentul angajamentelor ar fi fost „mediul de finanțare pentru OpenAI”. În paralel, unele părți implicate ar fi rămas cu sentimentul că au fost „dezamăgite și induse în eroare”, pe fondul deciziei Microsoft de a interveni în unele proiecte pe care OpenAI le-ar fi abandonat. O sursă citată de publicație a punctat că „banii nu sunt nelimitați”, iar o alta a spus că ar prefera Microsoft ca „chiriaș”, pentru că „este mai solvabil”. În lipsa unor detalii suplimentare în material despre calendarul noilor acorduri sau despre ce proiecte vor continua efectiv sub „umbrela” Stargate, rămâne de urmărit cum va arăta, concret, mixul de furnizori și contracte prin care OpenAI își va asigura capacitatea de calcul în perioada următoare. [...]

Alphabet își leagă creșterea din T1 2026 de monetizarea și eficientizarea AI , cu un avans de 19% la Search & Other Advertising și o accelerare puternică în Cloud, unde veniturile au urcat cu 63% și au depășit pentru prima dată 20 mld. dolari (aprox. 92 mld. lei), potrivit Google . Mesajul CEO-ului Sundar Pichai , publicat ca transcript editat al intervenției din apelul cu investitorii, pune accent pe faptul că investițiile în inteligență artificială și abordarea „full-stack” (de la infrastructură la modele și aplicații) „conduc performanța” în toate liniile majore de business. Din perspectivă economică, două elemente ies în față: ritmul de creștere al Cloud și încercarea de a ține sub control costurile și latența (timpul de răspuns) pe măsură ce AI este integrată în produse cu audiență masivă, precum Search. Cloud: creștere pe AI, contracte mari și backlog în salt Google indică o cerere ridicată pentru produse și infrastructură AI în Cloud. În T1 2026, veniturile Cloud au crescut cu 63% și au depășit 20 mld. dolari (aprox. 92 mld. lei), iar „backlog”-ul (valoarea contractelor semnate, dar încă neîncasate) „aproape s-a dublat” față de trimestrul anterior, la peste 460 mld. dolari (aprox. 2.116 mld. lei). Compania mai susține că soluțiile sale de AI pentru companii au devenit „principalul motor de creștere” pentru Cloud „pentru prima dată”, iar veniturile din produse construite pe modelele sale generative au crescut „aproape 800%” față de anul anterior. La nivel comercial, Google menționează: dublarea achiziției de clienți noi față de aceeași perioadă a anului trecut; dublarea numărului de contracte între 100 mil. și 1 mld. dolari (aprox. 460 mil.–4,6 mld. lei) față de anul anterior și semnarea „mai multor” contracte de peste 1 mld. dolari; depășirea angajamentelor inițiale de către clienți cu 45%, în accelerare față de trimestrul anterior. Pe produs, Google arată că Gemini Enterprise a crescut cu 40% trimestru la trimestru ca utilizatori activi lunari plătitori, iar vânzările prin parteneri au urcat de 9 ori față de anul anterior (atât ca „seats” vândute, cât și ca număr de parteneri care adoptă intern produsul). Search: mai mult AI, dar cu presiune pe cost și viteză În Search, compania spune că interogările sunt la un maxim istoric și că AI Overviews și AI Mode contribuie la creștere și la revenirea utilizatorilor. În același timp, Google insistă pe eficiență: afirmă că a redus latența Search cu peste 35% în ultimii cinci ani, iar după trecerea AI Overviews și AI Mode la Gemini 3 a redus costul răspunsurilor AI „de bază” cu peste 30%, prin îmbunătățiri de hardware și inginerie. Aceste detalii sunt relevante pentru modelul economic al Search: integrarea AI în pagina de rezultate tinde să crească consumul de calcul, iar controlul costurilor devine o condiție pentru a susține marje și investiții. Infrastructură și modele: TPU-uri noi și volum în creștere Google își leagă strategia de AI de infrastructură proprie (TPU-uri – procesoare specializate pentru AI) și de opțiuni multiple de calcul, inclusiv GPU-uri NVIDIA. Compania spune că va fi „printre primii” furnizori care vor oferi NVIDIA Vera Rubin NVL72, pe lângă instanțe bazate pe Blackwell și Hopper. La Cloud Next, Google a prezentat TPU-urile de generația a opta, cu două variante: TPU 8t (pentru antrenare) și TPU 8i (pentru inferență – rularea modelului pentru a genera răspunsuri). Potrivit companiei, TPU 8t are de trei ori puterea de procesare față de Ironwood și de două ori performanța, iar TPU 8i oferă cu 80% mai bună performanță per dolar decât generația anterioară. La nivel de utilizare, Google afirmă că modelele sale „first-party” procesează peste 16 miliarde de tokeni pe minut prin utilizare directă a API-urilor de către clienți (față de 10 miliarde în trimestrul anterior). În ultimele 12 luni, 330 de clienți Google Cloud ar fi procesat fiecare peste 1 trilion de tokeni, iar 35 au depășit pragul de 10 trilioane. Abonamente și YouTube: baza plătitoare crește Pe zona de consum, Google spune că a avut „cel mai puternic trimestru” pentru planurile sale de AI pentru consumatori, în principal datorită adopției aplicației Gemini. Numărul total de abonamente plătite a ajuns la 350 de milioane, cu YouTube și Google One ca principali contributori. Separat, compania notează că YouTube Music și Premium au avut în T1 cea mai mare creștere trimestrială a numărului de abonați (excluzând perioadele de probă), atât la nivel global, cât și în SUA, de la lansarea YouTube Premium în iunie 2018. Ce urmează Google indică drept repere apropiate evenimentele I/O, Brandcast și Google Marketing Live, unde ar urma să ofere mai multe detalii despre evoluțiile din Search și AI. În paralel, mesajul către investitori rămâne unul consecvent: creșterea vine din extinderea AI în produse și din monetizarea acesteia în Cloud, cu accent pe infrastructură și pe reducerea costurilor de operare pe măsură ce utilizarea se intensifică. [...]

Google extinde exportul de fișiere în Gemini , reducând pașii de lucru între aplicații , printr-o actualizare care permite generarea și descărcarea directă a documentelor din bara de prompt, potrivit Engadget . Funcționalitatea se folosește simplu: utilizatorul descrie ce vrea (de exemplu „creează un buget”), iar apoi apasă butonul de export pentru a descărca rezultatul în formatul dorit. Google spune că schimbarea urmărește să elimine „copierea, lipirea și reformatarea”, astfel încât munca să poată fi mutată mai ușor în alte aplicații. Ce formate sunt suportate Lista de formate menționată include atât fișiere uzuale, cât și formate folosite în mediul profesional și academic: PDF, TXT, RTF, CSV Google Docs, Google Slides, Google Sheets Microsoft Word și foi de calcul Excel Markdown și LaTeX LaTeX este un sistem de tehnoredactare folosit pe scară largă pentru articole și reviste științifice. Engadget notează că suportul pentru LaTeX este relevant în contextul în care OpenAI a lansat recent Prism, o aplicație dedicată formatării jurnalelor în LaTeX. Din imaginile distribuite de Google odată cu anunțul, reiese că Gemini poate genera și diagrame în LaTeX, ceea ce ar putea fi util mai ales pentru studenții din domeniile STEM (știință, tehnologie, inginerie, matematică). Cine primește actualizarea și cum se poziționează față de rivali Google începe să distribuie actualizarea la nivel global către toți utilizatorii Gemini, inclusiv cei cu conturi Workspace individuale. Engadget amintește că nu este o premieră în industrie: chatbotul Claude al Anthropic poate edita și genera fișiere (inclusiv foi de calcul Excel) încă din septembrie anul trecut. [...]