Știri
Știri din categoria Inteligență artificială

Nvidia își extinde utilizarea internă a OpenAI Codex, iar peste 10.000 de angajați folosesc deja varianta bazată pe GPT-5.5, într-o mișcare care indică o accelerare a automatizării muncii de programare și a fluxurilor conexe la scară de companie, potrivit IT之家.
Conform informațiilor, Nvidia a transmis printr-un comunicat oficial că Codex este alimentat de cel mai nou model „de frontieră” al OpenAI, GPT-5.5, și rulează pe sistemul de tip rack GB200 NVL72 al Nvidia. În interiorul companiei, utilizarea Codex s-a extins dincolo de echipele de inginerie, acoperind și produs, juridic, marketing, financiar, vânzări, resurse umane, operațiuni și programe pentru dezvoltatori.
Articolul indică faptul că inginerii Nvidia folosesc Codex cu GPT-5.5 de câteva săptămâni, iar creșterea de eficiență „poate fi cuantificată”. Nvidia leagă această scalare de infrastructura GB200 NVL72, despre care afirmă că, față de generația anterioară:
În logica prezentată, avantajul combinat de cost și eficiență energetică ar fi elementul care face fezabilă inferența (rularea modelului pentru a genera rezultate) la nivel de companie, nu doar în proiecte punctuale.
În exemplele oferite, sarcini care anterior necesitau zile pentru depanare ar putea fi închise în câteva ore, iar experimente în baze de cod complexe, care durau săptămâni, ar putea produce rezultate „peste noapte”. Textul mai susține că echipele pot livra funcționalități „cap-coadă” prin instrucțiuni în limbaj natural, cu o fiabilitate mai bună decât la modelele mai vechi și cu mai puțin „timp mort” și refaceri.
IT之家 notează că Jensen Huang, fondator și CEO al Nvidia, le-a cerut angajaților într-un e-mail intern să folosească Codex.
„Să trecem la viteza luminii, bine ați venit în era AI.”
Recomandate

OpenAI lansează GPT-5.5 ca model mai eficient pentru lucru și programare , mizând pe reducerea costului operațional (prin folosirea a mai puțini „tokeni”, unități de text procesate) și pe automatizarea unor sarcini mai complexe în ChatGPT și Codex, potrivit The Verge . Compania spune că GPT-5.5 este „cel mai inteligent și cel mai intuitiv de folosit” model al său și îl prezintă ca un pas spre „un nou mod de a face muncă pe un computer”. După GPT-5.4, lansat luna trecută, OpenAI susține că noul model „excelează” la scriere și depanare de cod, cercetare online, realizarea de foi de calcul și documente, inclusiv atunci când trebuie să lucreze „peste” mai multe instrumente. „În loc să gestionezi cu grijă fiecare pas, îi poți da lui GPT-5.5 o sarcină dezordonată, în mai multe părți, și să ai încredere că va planifica, va folosi instrumente, își va verifica munca, va naviga prin ambiguitate și va continua”, potrivit OpenAI. Un element cu impact direct pentru utilizare și costuri este eficiența: OpenAI afirmă că GPT-5.5 poate folosi „semnificativ mai puțini” tokeni pentru a finaliza sarcini în Codex. Compania mai spune că modelul vine cu „cel mai puternic set de măsuri de siguranță de până acum”, fără a detalia în material ce presupun aceste măsuri. Cum va fi disponibil GPT-5.5 GPT-5.5 începe să fie distribuit începând de joi pentru abonamentele ChatGPT Plus , Pro, Business și Enterprise, precum și în Codex. OpenAI mai precizează că GPT-5.5 Pro va ajunge la utilizatorii Pro, Business și Enterprise. Context: competiția pe piața de cod și instrumente pentru companii Lansarea vine într-un moment de competiție accelerată între OpenAI și Anthropic , pe fondul unei curse spre o posibilă listare publică „mai târziu în acest an”, notează publicația. În acest context, ambele companii încearcă să câștige teren pe segmentul de programare asistată de AI și instrumente pentru companii, iar OpenAI ar fi redus recent așa-numitele „side quests” (proiecte secundare) pentru a se concentra pe surse mai mari de venit. Separat, The Verge menționează că apariția GPT-5.5 are loc cu câteva zile înaintea procesului dintre Elon Musk și executivi OpenAI Sam Altman și Greg Brockman, care ar urma să înceapă luni, într-o instanță federală din Oakland, California. [...]

Anthropic a urcat la o evaluare de aproximativ 1 trilion de dolari (aprox. 4,6 trilioane lei) în tranzacții pe piața secundară , un nivel care o plasează peste OpenAI și arată cât de repede se pot repoziționa așteptările investitorilor în AI, potrivit Mobilissimo . Evaluarea este indicată de platforme precum Forge Global și reflectă tranzacții între investitori pe piețe private, nu o cotație oficială de bursă. Anthropic nu este listată, iar interesul ridicat se traduce prin încercări ale investitorilor de a cumpăra acțiuni de la angajați sau investitori timpurii, într-un context cu puțini vânzători. Ce alimentează saltul de evaluare Creșterea este pusă pe seama cererii foarte mari pentru acțiunile companiei, susținută de interesul pentru produsele sale de inteligență artificială, în special asistentul de programare Claude. În unele cazuri, ofertele ar depăși chiar 1,1 trilioane de dolari (aprox. 5,1 trilioane lei), iar tranzacțiile s-ar închide rapid din cauza disponibilității reduse de acțiuni la vânzare. Un element important de context: în urmă cu doar trei luni, Anthropic era evaluată la aproximativ 380 de miliarde de dolari (aprox. 1,7 trilioane lei) după o rundă de finanțare. Potrivit unor investitori citați în material, pe lângă performanțele companiei, contribuie și fenomenul FOMO („teama de a rata oportunitatea”), care poate împinge prețurile în sus chiar și „indiferent de preț”. Efectul asupra competiției cu OpenAI În paralel, interesul pentru acțiunile OpenAI ar fi scăzut, iar unele tranzacții s-ar fi realizat sub evaluarea anterioară, menționată la circa 852 de miliarde de dolari (aprox. 3,9 trilioane lei). Schimbarea de sentiment sugerează o competiție mai dură în sectorul AI, în care percepția investitorilor poate muta rapid „clasamentul” companiilor, chiar și fără schimbări fundamentale majore. Materialul are ca sursă secundară Business Insider, menționat de Mobilissimo. [...]

Administrația SUA spune că analizează măsuri de răspundere după ce a acuzat entități din China că desfășoară operațiuni „la scară industrială” pentru a copia sisteme avansate de inteligență artificială dezvoltate în Statele Unite, potrivit news.ro . Miza pentru companiile americane de profil este una operațională și de securitate: protejarea informațiilor proprietare și a mecanismelor de siguranță ale modelelor. Acuzațiile au fost formulate de Michael Kratsios , principalul consilier pentru știință și tehnologie al președintelui, care a susținut că aceste operațiuni ar implica extragerea sistematică de informații și replicarea modelelor americane. „Nu este nimic inovator în a copia în mod organizat inovațiile industriei americane.” Cum ar funcționa copierea: conturi proxy, „ jailbreaking ” și „distilare” Oficialii americani afirmă că aceste campanii ar fi derulate în principal de entități cu baza în China și ar folosi zeci de mii de conturi proxy, precum și tehnici de ocolire a restricțiilor („jailbreaking”) pentru a accesa informații proprietare despre modelele de inteligență artificială. În acest context este menționat și procesul numit „distilare”, adică antrenarea unor modele mai mici pe baza unor sisteme mai mari și mai performante. Deși practica poate avea utilizări legitime, autoritățile americane avertizează că folosirea neautorizată poate afecta securitatea și integritatea modelelor. De ce contează pentru industrie: produse mai ieftine, dar cu riscuri de siguranță Kratsios a susținut că astfel de metode nu pot reproduce complet performanța sistemelor originale, însă pot permite dezvoltarea unor produse mai ieftine, care pot părea comparabile în anumite teste. În același timp, aceste modele ar putea elimina protocoale de siguranță sau mecanisme menite să asigure neutralitatea și acuratețea informațiilor. Ce urmează: informarea companiilor și opțiuni de contracarare Administrația americană intenționează să informeze companiile americane din domeniul inteligenței artificiale despre aceste practici, inclusiv despre tacticile și actorii implicați, și spune că explorează o gamă largă de măsuri pentru a contracara astfel de activități. În material nu sunt detaliate, deocamdată, ce măsuri concrete ar putea fi adoptate sau un calendar. [...]

Inteligența artificială ar putea consolida rolul iPhone ca „hub” de date personale, nu să-l înlocuiască , susține CEO-ul Perplexity, Aravind Srinivas , într-o intervenție citată de CNMO . Ideea centrală: pe măsură ce AI devine mai capabilă și are nevoie de „context real”, valoarea datelor personale stocate pe telefon crește, iar dispozitivul care le găzduiește devine mai greu de substituit. Srinivas folosește metafora „pașaportului digital” pentru a descrie iPhone-ul: un loc unde se adună plăți, identitate, date de sănătate, comunicare, fotografii și amintiri private. În opinia sa, acest tip de date, aflate deja pe dispozitiv, reprezintă un avantaj pe care companii precum OpenAI sau Google nu îl au în aceeași formă, iar evoluția AI amplifică importanța acestui „depozit” personal. De ce contează: mutarea sarcinilor AI pe dispozitiv poate schimba competiția În discuția despre percepția că Apple ar fi în urma OpenAI și Google în cursa AI, Srinivas nu neagă diferența, dar mută accentul pe trei elemente: hardware, confidențialitate și controlul datelor. El indică Apple Silicon drept un „activ subestimat”, care ar deveni tot mai relevant dacă sarcinile de lucru ale AI (workload-uri) se mută treptat local, pe dispozitiv, în loc să fie rulate pe servere. În acest scenariu, „buclele” de lucru ale unor agenți AI (sisteme care execută sarcini în lanț, semi-autonom) ar ajunge să ruleze local și să se lege direct de resursele din telefon: fișiere, aplicații, mesaje, e-mail, notițe și fotografii. Implicația operațională este că avantajul nu ar mai sta doar în modelul AI „din cloud”, ci și în integrarea strânsă dintre cip, sistemul de operare și datele personale. Confidențialitatea, ca avantaj competitiv acumulat O a doua linie de argumentație este confidențialitatea. Srinivas spune că, pentru a oferi ajutor mai „profund”, AI va avea nevoie de acces la date tot mai sensibile, iar reputația Apple construită în jurul protecției vieții private ar putea deveni un avantaj „invizibil” în adoptarea unor astfel de funcții. El menționează și perspectiva ca John Ternus să devină viitor CEO Apple, apreciind contribuția acestuia în tranziția către Apple Silicon și sugerând că investițiile viitoare în cipuri (inclusiv la 2 nanometri) ar întări poziționarea Apple pentru rularea locală a unor agenți AI „mai privați”. Limita argumentului: Apple nu are încă un model AI de vârf comparabil CNMO notează și o rezervă prezentă în presa internațională: deși Apple are o integrare puternică hardware–software–date personale, compania nu a prezentat până acum un model AI de ultimă generație care să concureze direct cu OpenAI sau Google, iar Siri rămâne în urmă față de noile sisteme conversaționale. În esență, miza nu este dacă AI „omoară” iPhone-ul, ci dacă Apple poate transforma avantajele de dispozitiv, date și confidențialitate într-o ofertă AI competitivă, pe măsură ce tot mai multe funcții se mută din cloud pe telefon. [...]

Meta taie circa 10% din personal pentru a finanța investițiile masive în infrastructura de inteligență artificială , într-o mișcare de eficientizare care vine pe fondul creșterii accelerate a cheltuielilor de capital ale companiei, potrivit CNN . Compania a transmis că va concedia aproximativ 10% din forța de muncă, adică în jur de 8.000 de oameni. În paralel, Meta închide circa 6.000 de posturi deschise, a scris Janelle Gale, directorul de resurse umane, într-un memo publicat de Bloomberg și confirmat ulterior de Meta pentru CNN. Concedierile urmează să intre în vigoare pe 20 mai. „Facem asta ca parte a efortului nostru continuu de a conduce compania mai eficient și pentru a ne permite să compensăm celelalte investiții pe care le facem”, a scris Gale. De ce contează: costurile cu AI urcă, iar Meta caută spațiu în buget Decizia vine în contextul în care Meta, asemenea altor giganți tech, își majorează puternic bugetele pentru AI. Compania a cheltuit 72,2 miliarde de dolari (aprox. 325 miliarde lei) pe cheltuieli de capital în 2025, în principal pentru centre de date și infrastructură necesară AI. Pentru 2026, Meta a indicat în raportarea din ianuarie că se așteaptă ca suma să crească la cel puțin 115 miliarde de dolari (aprox. 518 miliarde lei). CNN notează și că Meta investește în recrutare pentru laboratorul său de „superinteligență” și a cumpărat startup-uri de AI precum Moltbook și Manus, în încercarea de a concura cu OpenAI și alți jucători. Semnal operațional: AI schimbă structura echipelor Mark Zuckerberg a sugerat la începutul anului că investițiile în AI ar putea aduce modificări ale forței de muncă. În conferința cu investitorii din ianuarie, el a numit 2026 „anul în care AI începe să schimbe dramatic felul în care lucrăm”. „Începem să vedem proiecte care înainte necesitau echipe mari, iar acum pot fi realizate de o singură persoană foarte talentată”, a spus Zuckerberg. Ce primesc angajații afectați și reacția pieței Meta a precizat că angajații din SUA afectați vor primi 16 săptămâni de salariu de bază, plus două săptămâni pentru fiecare an de vechime; pachetele internaționale ar urma să fie similare. Pe bursă, acțiunile Meta (META) erau în scădere cu peste 2% joi după-amiază, potrivit CNN. Context: un nou val de reduceri în tech În ultimul an, tot mai multe companii au redus personalul invocând eficiențe aduse de AI. CNN amintește că Amazon a anunțat în ianuarie concedieri de 16.000 de oameni, iar Block a comunicat în februarie o reducere de 40% a forței de muncă (peste 4.000 de persoane), avertizând că vor urma și alte companii. Meta mai făcuse tăieri masive în 2022 și 2023, după creșterile din perioada pandemiei. Anul trecut, compania a spus că va reduce circa 5% dintre angajați, vizați ca „performeri slabi”, cu intenția de a reangaja pentru multe dintre rolurile respective. [...]

DeepSeek a lansat modelul open-source V4, mizând pe eficiență de cost ca avantaj competitiv , într-un moment în care accesul la cipuri avansate și costurile de antrenare rămân o barieră majoră pentru dezvoltarea de inteligență artificială. Potrivit South China Morning Post , compania spune că noul său model fundamental (foundation model) este „competitiv” cu modele americane închise, precum cele ale OpenAI și Google DeepMind. DeepSeek descrie V4 drept un model „cost-eficient” și cu „eficiență de nivel lider mondial”, poziționându-l ca alternativă la modelele proprietare (closed-source), care nu își publică integral codul și detaliile tehnice. În același timp, faptul că V4 este open-source sugerează o strategie de accelerare a adopției prin comunitate și integrare mai ușoară în produse și servicii. Un element important de context este sprijinul anunțat de Huawei , care, potrivit aceleiași surse, a promis „sprijin total” prin noi cipuri. Mesajul indică o încercare de a consolida un lanț tehnologic intern – modele AI plus hardware – într-o perioadă în care competiția globală se poartă tot mai mult pe costuri, eficiență și disponibilitatea infrastructurii de calcul. De ce contează: costul devine o armă în cursa AI Relevanța economică a anunțului ține de faptul că „eficiența” și „cost-eficiența” sunt prezentate ca diferențiatori principali într-o piață dominată de modele foarte scumpe de antrenat și operat. Dacă afirmațiile DeepSeek privind competitivitatea cu OpenAI și Google DeepMind se confirmă în utilizare, V4 ar putea: reduce costul de intrare pentru companii care vor să construiască aplicații pe modele avansate; crește presiunea concurențială asupra furnizorilor de modele închise, printr-o alternativă open-source; accelera adoptarea în ecosisteme care preferă controlul local asupra tehnologiei și datelor. Ce se știe și ce rămâne neclar Articolul notează că DeepSeek „spune” că V4 este competitiv cu modele de top din SUA, însă în fragmentul disponibil nu apar rezultate detaliate de evaluare (benchmark-uri) sau date tehnice care să permită o comparație independentă. În lipsa acestor informații, impactul real va depinde de performanța în implementări concrete și de cât de repede va fi preluat modelul de dezvoltatori și companii. [...]