Știri
Știri din categoria Inteligență artificială

NVIDIA spune că a început deja să obțină câștiguri măsurabile de productivitate după ce a pus la dispoziția angajaților aplicația Codex de la OpenAI, alimentată de noul model GPT‑5.5 și rulată pe sisteme NVIDIA GB200 NVL72, potrivit NVIDIA Blog. Miza, dincolo de „lansare”, este una operațională: compania descrie scurtarea ciclurilor de depanare și accelerarea livrării de funcționalități în proiecte complexe, pe fondul unor costuri și performanțe de inferență (rulare a modelului) pe care le consideră viabile la scară de întreprindere.
În material, NVIDIA afirmă că peste 10.000 de angajați din arii precum inginerie, produs, juridic, marketing, finanțe, vânzări, HR, operațiuni și programe pentru dezvoltatori folosesc deja Codex cu GPT‑5.5. Inginerii ar fi avut acces „de câteva săptămâni”, iar compania susține că efectele se văd în timpii de lucru: cicluri de debugging care „se întindeau pe zile” s-ar închide acum „în ore”, iar experimente care necesitau „săptămâni” ar ajunge la progres „peste noapte” în baze de cod complexe, cu mai multe fișiere.
NVIDIA leagă aceste rezultate de rularea pe GB200 NVL72, despre care spune că poate livra „de 35 de ori” cost mai mic per milion de tokeni și „de 50 de ori” mai mult output de tokeni pe secundă per megawatt față de generația anterioară. În interpretarea companiei, această „economie” ar face inferența pentru modele de vârf fezabilă la scară enterprise, adică suficient de ieftină și eficientă energetic pentru utilizare pe scară largă în organizații.
Compania mai susține că echipele pot livra funcționalități „end-to-end” pornind de la prompturi în limbaj natural, cu fiabilitate mai bună și mai puține cicluri irosite decât la modele anterioare, fără a detalia însă indicatori cantitativi interni (de tip ore economisite, costuri sau rate de defecte).
Un element central al implementării descrise este controlul asupra datelor și al accesului. Codex ar suporta conexiuni SSH (Secure Shell) la mașini virtuale (VM) aprobate în cloud, astfel încât agenții să lucreze cu date reale ale companiei fără expunere externă, potrivit NVIDIA.
Pentru „securitate și auditabilitate”, NVIDIA IT ar fi livrat câte o mașină virtuală în cloud pentru fiecare angajat, ca „sandbox” dedicat. Implementarea ar include:
NVIDIA plasează rollout-ul GPT‑5.5/Codex într-un parteneriat cu OpenAI început în 2016, când Jensen Huang ar fi livrat personal primul supercomputer NVIDIA DGX‑1 la sediul OpenAI din San Francisco. Compania mai afirmă că OpenAI s-a angajat să implementeze „peste 10 gigawați” de sisteme NVIDIA pentru infrastructura sa de generație următoare, o extindere care „va pune milioane de GPU-uri NVIDIA” la baza antrenării și inferenței pentru anii următori.
În același context, NVIDIA menționează un „milestone” comun: aducerea în funcțiune a „primului cluster GB200 NVL72 cu 100.000 de GPU-uri”, despre care spune că a rulat antrenări la scară mare și a stabilit un nou reper de fiabilitate la nivel de sistem.
Într-un e-mail intern citat de companie, CEO-ul Jensen Huang le-ar fi cerut angajaților să folosească Codex:
„Să trecem la viteza luminii. Bine ați venit în era AI.”
Pentru detalii despre model, NVIDIA trimite la anunțul OpenAI: OpenAI.
Recomandate

Apple își ține cheltuielile de capital departe de „cursa AI” și preferă să-și conserve marjele și randamentele pentru acționari, într-un moment în care rivalii direcționează sume uriașe către infrastructură de inteligență artificială, potrivit G4Media . În timp ce Microsoft, Amazon, Meta și Alphabet își cresc masiv investițiile pentru modele AI și centre de date, Apple rămâne singurul gigant tech care nu a intrat „agresiv” în această competiție, arată Il Post, citat de Mediafax. Conform estimărilor menționate, Alphabet, Amazon, Microsoft și Meta ar urma să investească împreună aproximativ 700 de miliarde de dolari (aprox. 3.150 miliarde lei) în acest an în infrastructură AI și data center-e. Reducerea capex și dependența parțială de parteneri În contrast cu trendul din industrie, Apple și-a redus cu 36% cheltuielile de capital în ultimul an, potrivit aceleiași surse. Compania ar fi ales să nu dezvolte pe scară largă propriile modele lingvistice și nici infrastructura necesară pentru antrenarea lor. În plus, „ Apple Intelligence ”, lansată în 2024, se bazează parțial pe tehnologia OpenAI, iar Apple a anunțat recent și un acord cu Google pentru integrarea modelului Gemini în Siri și alte servicii. Miza economică: hardware și răscumpărări de acțiuni G4Media notează că Apple își bazează în continuare modelul de business în principal pe vânzarea de hardware, în special iPhone și Mac, mizând că utilizatorii vor accesa servicii AI prin dispozitivele sale indiferent cine furnizează tehnologia din spate. Strategia „funcționează, cel puțin deocamdată”, în contextul în care Apple a raportat recent o creștere anuală de 17% a vânzărilor nete, susținută inclusiv de succesul noului MacBook Neo. Tim Cook a declarat că „cererea a fost extrem de mare”, iar G4Media menționează că acesta urmează să fie înlocuit în septembrie de John Ternus . Pe partea de alocare a capitalului, Apple continuă programul de răscumpărare a propriilor acțiuni și a anunțat un nou buyback de 100 de miliarde de dolari (aprox. 450 miliarde lei), o practică folosită de peste un deceniu pentru a crește valoarea acțiunilor și randamentele pentru investitori. Ce riscă și ce ar putea urma Potrivit materialului, o parte dintre analiști văd în această prudență o evitare a riscului unei posibile bule speculative în jurul AI, în condițiile în care investițiile sunt foarte costisitoare, iar GPU-urile (plăci grafice specializate pentru calcule) își pot pierde rapid valoarea, uneori în mai puțin de doi ani. Pe de altă parte, există avertismente că Apple ar putea repeta erori strategice ale unor foști giganți precum Nokia sau Motorola, care nu au anticipat revoluția smartphone-urilor și au fost depășiți. G4Media mai arată că, potrivit unor informații apărute în presa americană, Apple lucrează la dispozitive noi pentru „era AI”, inclusiv ochelari inteligenți și dispozitive purtabile, pe o piață unde competiția se intensifică (OpenAI cu Jony Ive, respectiv Meta cu ochelari smart împreună cu EssilorLuxottica). Sub viitorul CEO John Ternus, compania ar putea totuși să-și ajusteze strategia, în condițiile în care a raportat deja o creștere a cheltuielilor de cercetare-dezvoltare de la 8,5 la 11,4 miliarde de dolari (aprox. 38,3–51,3 miliarde lei) într-un singur an, pe fondul proiectelor legate de inteligența artificială. [...]

OpenAI mută ChatGPT mai aproape de standardele IT din companii și școli , printr-o versiune separată pentru iPhone care permite administrare centralizată și reguli de securitate, potrivit Antena 3 . Noua aplicație, „ ChatGPT for Intune ”, țintește organizațiile care folosesc sisteme de management al dispozitivelor mobile și vor control mai strict asupra aplicațiilor instalate pe telefoane și tablete. Aplicația este disponibilă separat în App Store și este compatibilă cu dispozitive care rulează iOS 17 sau versiuni mai noi. Miza este una operațională: utilizarea instrumentelor de inteligență artificială în medii unde administrarea centralizată a dispozitivelor este o cerință, nu o opțiune. Integrarea cu Microsoft Intune : control IT asupra accesului și datelor Versiunea este construită să funcționeze cu Microsoft Intune, platformă folosită de organizații pentru gestionarea aplicațiilor, a securității și a datelor de pe dispozitivele angajaților. În acest cadru, administratorii IT pot impune reguli privind utilizarea aplicației, inclusiv pe zona de autentificare, acces și gestionarea datelor, cu obiectivul de a reduce riscurile pentru informațiile sensibile. Funcționalitățile rămân, dar în „regim” administrat Deși este adaptată pentru mediul corporate, aplicația păstrează funcțiile versiunii obișnuite de ChatGPT, inclusiv: generare de texte (de exemplu, e-mailuri și rapoarte); analiză de documente sau imagini; creare de conținut pe baza comenzilor scrise; interacțiune vocală; explicații pas cu pas și suport pentru învățare. De ce contează pentru companii și educație Antena 3 notează că lansarea se înscrie într-o tendință mai amplă: integrarea inteligenței artificiale în medii de lucru controlate, cu accent pe securitate și confidențialitate. În paralel, sunt menționate și mișcări similare din industrie, precum integrarea Copilot în Microsoft 365 și dezvoltarea de soluții prin Gemini pentru Workspace, de către Google. Pentru școli și universități, logica este similară: instituțiile care folosesc deja sisteme de administrare a dispozitivelor pot introduce utilizarea AI într-un mod supravegheat, astfel încât profesorii să permită accesul la instrumente, păstrând controlul asupra modului în care sunt folosite. Un semnal de maturizare: ChatGPT intră în infrastructura organizațiilor Dincolo de lansarea în sine, schimbarea importantă este direcția: ChatGPT este împins către integrarea în infrastructura digitală a organizațiilor, unde controlul și securitatea devin criterii la fel de importante ca funcționalitatea. Potrivit sursei, dacă până acum creșterea a fost alimentată în principal de utilizatorii individuali, orientarea viitoare pare tot mai mult către utilizarea în companii și instituții. [...]

România poate câștiga un avantaj regional în centre de date pe fondul schimbării tehnologiilor de răcire și al presiunii pentru infrastructură AI , iar miza se mută rapid de la „unde se poate construi” la „cine are energie și capacitate de execuție”, potrivit Economica , care relatează declarațiile lui Rod Evans, vicepreședinte NVIDIA, la Data Center Forum (București). Evans a susținut că răcirea cu lichid schimbă „geografia” industriei, făcând posibilă construirea de centre de date inclusiv în țări cu climă caldă. În acest context, România, cu climă temperată, ar avea un avantaj competitiv în regiune și „nu există niciun motiv” să nu devină lider în centre de date. „Odată cu răcirea prin lichid, poți construi centre de date oriunde. Există proiecte în Maroc, în Spania și Portugalia, țări cu climă caldă. Cu o climă temperată, nu există niciun motiv pentru care România nu poate deveni un lider în centre de date.” Energia, factorul care poate decide investițiile Executivul NVIDIA a legat direct oportunitatea de disponibilitatea energiei, pe fondul creșterii masive a consumului necesar infrastructurii pentru inteligență artificială. El a spus că, la sosirea în București, a observat o reclamă pentru o facilitate solară de 2,5 gigawați care se construiește în România, proiect asociat cu Jonathan Berney (AIC) și Cluster Power. În același context, Economica notează că AIC a semnat în decembrie 2025 un parteneriat cu ClusterPower (operator certificat NVIDIA DGX-Ready) pentru dezvoltarea unui proiect multianual de până la 800 MW, pe două campusuri în sud-vestul României. Evans a adăugat că România începe să fie comparată cu Norvegia, una dintre destinațiile europene importante pentru centre de date, datorită energiei disponibile și condițiilor climatice. Cererea de calcul pentru AI accelerează, iar costurile scad Rod Evans a descris industria ca fiind în „cea mai accelerată transformare” din ultimele decenii, pe fondul creșterii rapide a cererii de putere de calcul pentru AI. El a afirmat că dimensiunea și complexitatea modelelor AI au crescut de un milion de ori într-un deceniu, comparativ cu o creștere de 100 de ori în perioada arhitecturii x86. În paralel, costurile de utilizare ale AI scad, ceea ce împinge tehnologia spre tot mai multe activități economice. Evans a vorbit despre trecerea către modele „cu raționament” și despre faptul că „tokenii” (unități de calcul folosite în generarea de răspunsuri AI) au devenit de 10 ori mai ieftini în fiecare an, potrivit declarațiilor sale. „Creator sau consumator” de AI: implicații pentru investiții și controlul datelor Evans a avertizat că unele state tratează AI mai ales ca divertisment, în timp ce altele îl folosesc pentru a-și reconstrui avantajele competitive, dând exemplul Chinei. El a reluat ideea promovată de CEO-ul NVIDIA, Jensen Huang : fiecare stat trebuie să decidă dacă va produce AI sau doar va consuma tehnologie creată în alte țări. În acest cadru, Evans a invocat o discuție între Jensen Huang și premierul Indiei, Narendra Modi, ca argument pentru „AI suveran” (dezvoltare locală a infrastructurii și modelelor, cu păstrarea controlului asupra datelor, limbii și culturii). Ce urmează: „fabrici de AI” și presiune pe recalificare Vicepreședintele NVIDIA a spus că apariția „fabricilor de AI” și a infrastructurilor suverane de calcul ar urma să devină o direcție majoră de investiții pentru guvernele europene, inclusiv pentru România. El a menționat că EuroHPC a anunțat recent prima fabrică de AI care va fi construită în România. Separat, Evans a indicat o vulnerabilitate structurală în Europa: nivelul redus al investițiilor în recalificare după terminarea studiilor universitare, într-un moment în care AI schimbă rapid piața muncii. El a afirmat că statele UE cheltuie 4,6% din PIB pentru educație (de la grădiniță la universitate) și 0,9% din PIB pentru recalificare și reeducare după facultate, și a invocat studii potrivit cărora aproximativ 100 de ore (trei săptămâni) de training în AI ar crește șansele de angajare cu 60%. În final, Evans a susținut că transformarea digitală trebuie să includă administrația publică, avertizând că birocrația tradițională nu mai poate susține economiile moderne fără integrarea tehnologiei și a inteligenței artificiale. [...]

Marile companii tech își reduc personalul ca să elibereze bugete pentru investițiile în AI , într-un context în care costurile cu infrastructura (centre de date, procesoare grafice și alte echipamente) cresc rapid, potrivit Mobilissimo . Ideea centrală: disponibilizările sunt prezentate mai degrabă ca o decizie de finanțare și reechilibrare a cheltuielilor, nu ca efect direct al înlocuirii angajaților cu inteligență artificială. Meta : concedieri și cheltuieli de capital în creștere În cazul Meta, compania ar urma să elimine aproximativ 8.000 de locuri de muncă pe 20 mai 2026, pe fondul accelerării investițiilor în infrastructura necesară dezvoltării AI. Într-o întâlnire internă de la finalul lunii aprilie, Mark Zuckerberg le-ar fi transmis angajaților că presiunea vine din nevoia de a echilibra bugetul, în condițiile „exploziei” cheltuielilor pentru AI. Meta și-a majorat estimările privind cheltuielile de capital pentru 2026 la 125–145 de miliarde de dolari (aprox. 563–653 mld. lei). „Salariile sunt printre puținele costuri ajustabile rapid” Potrivit materialului, dezbaterea a fost amplificată de un schimb de poziții în care cofondatorul Zoho, Sridhar Vembu, comentează un mesaj al inginerului Meta Arnav Gupta despre viitoare concedieri. Vembu susține că firmele tehnologice reduc personalul deoarece salariile sunt una dintre puținele categorii de costuri care pot fi ajustate rapid. Totodată, el pune sub semnul întrebării eficiența economică a investițiilor masive în AI, argumentând că industria nu a demonstrat încă faptul că aceste cheltuieli se traduc în productivitate și venituri proporționale. Amploarea restructurărilor: date pentru T1 2026 Datele citate de The Kobeissi Letter indică o accelerare puternică a concedierilor în sectorul tehnologic: Concedieri în T1 2026: 81.747 Creștere față de T4 2025: 580% Posturi eliminate în martie 2026: 45.800 Nivelul concedierilor: cel mai ridicat din ultimii peste doi ani Nu e doar Meta: Oracle și alți jucători Fenomenul ar depăși cazul Meta. Oracle ar fi eliminat până la 30.000 de locuri de muncă pentru a elibera între 8 și 10 miliarde de dolari anual (aprox. 36–45 mld. lei) destinați extinderii infrastructurii AI, potrivit TD Cowen. În același context sunt menționate restructurări și la Amazon, Microsoft, Coinbase și Block, în paralel cu majorarea investițiilor în inteligență artificială. Arnav Gupta avertizează că disponibilizările ar putea continua până când companiile vor reuși să transforme investițiile în AI în venituri măsurabile și profit, nu doar în infrastructură costisitoare. [...]

Google testează în Gemini Live un selector de modele AI cu 7 variante , o schimbare care ar muta o parte din controlul experienței de conversație de la companie către utilizator, potrivit unei analize de tip teardown citate de Mobilissimo , realizată pe aplicația Google (versiunea 17.18.22), cu câteva zile înainte de Google I/O 2026. Miza operațională este semnificativă: până acum, Google ar fi gestionat automat ce model rulează în funcție de context sau de abonament, în timp ce noul mecanism ar permite alegerea manuală a modelului folosit în conversațiile din Gemini Live. Ce s-a găsit în aplicație și de ce contează În codul aplicației ar fi apărut un „selector intern” de modele AI, cu șapte opțiuni, unele orientate spre raționament avansat, altele spre personalizare. Google nu a confirmat public existența acestor modele, iar informația rămâne la nivel de indicii din aplicație, nu de anunț oficial. Separat, în aceeași zonă de funcții în lucru apare și un nou „Thinking Mode”, descris ca un mod în care modelul ar „gândi” mai mult înainte să răspundă, pentru rezultate mai detaliate. Mobilissimo notează că, potrivit unor informații publicate anterior de 9to5Google , acest mod ar extinde capabilitățile de „reasoning” (raționament) deja disponibile în Gemini 3 Pro. Funcții asociate: memorie, cameră și personalizare Tot din referințele identificate în aplicație sunt menționate mai multe direcții de dezvoltare pentru Gemini Live: memorie multimodală; gestionare mai bună a zgomotului ambiental; răspunsuri bazate pe ceea ce vede camera; personalizare folosind aplicațiile Google ale utilizatorului; funcții experimentale integrate în Gemini Live. Android Authority ar susține, de asemenea, că Google pregătește eliminarea unor opțiuni mai vechi de voce pentru Gemini, un indiciu că interfața și experiența de utilizare ar urma să fie redesenate. Context: Google I/O 2026, cu AI în prim-plan Google I/O 2026 este programat în perioada 19–20 mai, iar compania a confirmat că accentul principal va fi pe inteligența artificială. Invitațiile oficiale menționează „actualizări Gemini” și tehnologii de tip „agentic coding” (instrumente care pot executa pași de programare în mod semi-autonom). În paralel, în ultimele săptămâni au circulat zvonuri despre modele precum Gemini 3.5 Pro și Gemini 3.2 Flash, dar și despre alte produse/inițiative (inclusiv Aluminium OS, ochelari Android XR și funcții noi pentru Android 17). Mobilissimo mai notează și o posibilă reproiectare a interfeței Gemini, inclusiv eliminarea modului fullscreen din Gemini Live și integrarea unui model video cu numele intern „Omni”. Deocamdată, fără confirmare oficială din partea Google, rămâne de văzut dacă selectorul de modele și „Thinking Mode” vor fi anunțate la I/O și în ce formă vor ajunge la utilizatori. [...]

O inițiativă de 500 milioane de dolari (aprox. 2,3 miliarde lei) vizează construirea unor „modele” AI ale celulelor umane , cu date oferite gratuit cercetătorilor, într-un pariu care poate accelera cercetarea medicală și, implicit, piața de medicamente și terapii, potrivit Antena 3 . Mark Zuckerberg și Priscilla Chan dezvoltă proiectul prin organizația non-profit Biohub , care a anunțat o inițiativă pe cinci ani, în valoare totală de 500 de milioane de dolari, pentru a crea tehnologii și seturi de date necesare dezvoltării unor modele predictive ale celulelor umane. Antena 3 notează că informația este atribuită Euronews. Cum se împarte bugetul și ce se livrează Din suma totală, 400 de milioane de dolari (aprox. 1,8 miliarde lei) sunt alocate proiectelor proprii, iar 100 de milioane de dolari (aprox. 460 milioane lei) ar urma să fie oferite cercetătorilor externi. Datele generate vor fi puse la dispoziția cercetătorilor din întreaga lume, gratuit. Miza operațională a proiectului este ca simulările realizate cu ajutorul inteligenței artificiale să permită studierea bolilor „în format digital”, la o scară și o viteză care nu pot fi replicate în laborator. Dacă modelele vor fi suficient de precise, ele ar putea ajuta la înțelegerea comportamentului celulelor, identificarea cauzelor bolilor și descoperirea de tratamente noi. Blocajul: datele, nu doar algoritmii Biohub indică drept provocare principală cantitatea și calitatea datelor: cu cât există mai multe informații biologice, cu atât predicțiile devin mai precise. Alex Rives, coordonatorul științific al Biohub, spune că este nevoie de mult mai multe date decât există în prezent și de tehnologii noi pentru a observa celulele la toate nivelurile, de la molecule la țesuturi, atât în stare sănătoasă, cât și în boală. Totuși, organizația admite că nu se știe încă exact cât de multe date sunt necesare pentru ca modelele să devină cu adevărat fiabile și susține că ar fi nevoie de un efort global mai amplu pentru a ajunge la scara dorită. Context: cursa AI în științele vieții Inițiativa se înscrie într-un interes mai larg pentru folosirea învățării automate (metode prin care sistemele informatice învață tipare din date) în descoperirea de medicamente și terapii. În material sunt menționate și alte investiții în direcția biologiei bazate pe AI, inclusiv Isomorphic Labs (Alphabet/DeepMind), precum și proiecte ale Microsoft și platforma BioNeMo a Nvidia, utilizată deja pentru dezvoltarea de medicamente cu ajutorul inteligenței artificiale. Pe termen lung, obiectivul declarat al Biohub este „eliminarea tuturor bolilor” prin combinarea inteligenței artificiale cu biologia, însă realizarea acestui deziderat depinde de fezabilitatea tehnică a modelelor și de disponibilitatea datelor la scară mare. [...]