Știri
Știri din categoria Inteligență artificială

Sam Altman spune că s-a simțit „puțin inutil” după ce Codex i-a depășit ideile, potrivit Sam Altman pe X, într-o postare publicată la scurt timp după ce OpenAI a lansat aplicația Codex pentru macOS. Mesajul a alimentat discuția despre ce înseamnă, practic, noile instrumente de programare asistată de inteligență artificială pentru dezvoltatori: un spor de productivitate, dar și o schimbare de rol.
Altman a descris un test personal în care a construit o aplicație cu ajutorul Codex, apoi a cerut idei de funcționalități noi, iar unele sugestii ale modelului i s-au părut mai bune decât propriile propuneri. Postarea a strâns „sute de mii” de vizualizări, pe fondul interesului pentru o piață tot mai aglomerată de unelte de programare cu AI.
„Am construit o aplicație cu Codex săptămâna trecută. A fost foarte distractiv. Apoi am început să-i cer idei pentru funcționalități noi și cel puțin câteva dintre ele erau mai bune decât mă gândeam eu. M-am simțit puțin inutil și a fost trist.”
Pentru dezvoltatori, miza nu este confesiunea în sine, ci semnalul despre maturizarea acestor produse: Codex nu mai este doar un „asistent” care completează cod, ci poate propune îmbunătățiri de produs și alternative de implementare care concurează direct cu intuiția și experiența unui programator. Asta mută accentul dinspre „scrierea” efectivă a codului către evaluare, selecție și integrare: dezvoltatorul devine tot mai mult editor, arhitect și verificator al schimbărilor generate.
Codex este poziționat ca un „centru de comandă” pentru ceea ce unii dezvoltatori numesc „vibe coding” (programare ghidată de instrucțiuni în limbaj natural, cu iterații rapide), permițând rularea mai multor agenți AI în paralel, pe fire separate, organizate pe proiect, notează India Today. În practică, acest tip de flux poate reduce costul de coordonare pentru sarcini lungi (refactorizări, testare, documentare), dar crește importanța reviziei: dezvoltatorii trebuie să urmărească schimbări în mai multe „piste” de lucru și să păstreze coerența tehnică.
OpenAI susține că peste un milion de dezvoltatori au folosit Codex în ultima lună și că utilizarea s-a dublat de la lansarea GPT-5.2-Codex la mijlocul lui decembrie. Dacă aceste cifre se confirmă în timp, ele sugerează că presiunea pe echipele de software va crește: așteptările de livrare mai rapidă se pot transforma în standard, iar diferența competitivă se va muta către cei care știu să formuleze cerințe clare, să evalueze corect rezultatele și să gestioneze riscurile (erori, regresii, vulnerabilități).
În paralel, competiția se intensifică. OpenAI intră mai agresiv într-o zonă în care rivali precum Anthropic și Cursor au deja tracțiune, iar Reuters menționează că Anthropic ar fi ajuns la 1 miliard de dolari venit anualizat pentru Claude Code în șase luni de la lansarea publică, potrivit Reuters. Pentru dezvoltatori, această cursă are un efect direct: mai multe opțiuni, dar și fragmentare între instrumente, modele și politici de acces, ceea ce poate influența deciziile de standardizare în companii și modul în care se construiesc fluxurile de lucru în jurul AI.
Recomandate

NVIDIA spune că a început deja să obțină câștiguri măsurabile de productivitate după ce a pus la dispoziția angajaților aplicația Codex de la OpenAI , alimentată de noul model GPT‑5.5 și rulată pe sisteme NVIDIA GB200 NVL72 , potrivit NVIDIA Blog . Miza, dincolo de „lansare”, este una operațională: compania descrie scurtarea ciclurilor de depanare și accelerarea livrării de funcționalități în proiecte complexe, pe fondul unor costuri și performanțe de inferență (rulare a modelului) pe care le consideră viabile la scară de întreprindere. În material, NVIDIA afirmă că peste 10.000 de angajați din arii precum inginerie, produs, juridic, marketing, finanțe, vânzări, HR, operațiuni și programe pentru dezvoltatori folosesc deja Codex cu GPT‑5.5. Inginerii ar fi avut acces „de câteva săptămâni”, iar compania susține că efectele se văd în timpii de lucru: cicluri de debugging care „se întindeau pe zile” s-ar închide acum „în ore”, iar experimente care necesitau „săptămâni” ar ajunge la progres „peste noapte” în baze de cod complexe, cu mai multe fișiere. De ce contează: productivitate internă, susținută de infrastructură și costuri de inferență NVIDIA leagă aceste rezultate de rularea pe GB200 NVL72, despre care spune că poate livra „de 35 de ori” cost mai mic per milion de tokeni și „de 50 de ori” mai mult output de tokeni pe secundă per megawatt față de generația anterioară. În interpretarea companiei, această „economie” ar face inferența pentru modele de vârf fezabilă la scară enterprise, adică suficient de ieftină și eficientă energetic pentru utilizare pe scară largă în organizații. Compania mai susține că echipele pot livra funcționalități „end-to-end” pornind de la prompturi în limbaj natural, cu fiabilitate mai bună și mai puține cicluri irosite decât la modele anterioare, fără a detalia însă indicatori cantitativi interni (de tip ore economisite, costuri sau rate de defecte). Cum a fost „împachetat” pentru medii corporate: VM-uri, audit și acces limitat Un element central al implementării descrise este controlul asupra datelor și al accesului. Codex ar suporta conexiuni SSH (Secure Shell) la mașini virtuale (VM) aprobate în cloud, astfel încât agenții să lucreze cu date reale ale companiei fără expunere externă, potrivit NVIDIA. Pentru „securitate și auditabilitate”, NVIDIA IT ar fi livrat câte o mașină virtuală în cloud pentru fiecare angajat, ca „sandbox” dedicat. Implementarea ar include: politică de „zero data retention” (fără păstrarea datelor), acces la sisteme de producție în regim „read-only” (doar citire) prin interfețe de linie de comandă și „Skills” (un set de unelte pentru agenți, folosite și în automatizările interne ale companiei). Context: colaborarea NVIDIA–OpenAI și dimensiunea infrastructurii NVIDIA plasează rollout-ul GPT‑5.5/Codex într-un parteneriat cu OpenAI început în 2016, când Jensen Huang ar fi livrat personal primul supercomputer NVIDIA DGX‑1 la sediul OpenAI din San Francisco. Compania mai afirmă că OpenAI s-a angajat să implementeze „peste 10 gigawați” de sisteme NVIDIA pentru infrastructura sa de generație următoare, o extindere care „va pune milioane de GPU-uri NVIDIA” la baza antrenării și inferenței pentru anii următori. În același context, NVIDIA menționează un „milestone” comun: aducerea în funcțiune a „primului cluster GB200 NVL72 cu 100.000 de GPU-uri”, despre care spune că a rulat antrenări la scară mare și a stabilit un nou reper de fiabilitate la nivel de sistem. Într-un e-mail intern citat de companie, CEO-ul Jensen Huang le-ar fi cerut angajaților să folosească Codex: „Să trecem la viteza luminii. Bine ați venit în era AI.” Pentru detalii despre model, NVIDIA trimite la anunțul OpenAI: OpenAI . [...]

Apple își ține cheltuielile de capital departe de „cursa AI” și preferă să-și conserve marjele și randamentele pentru acționari, într-un moment în care rivalii direcționează sume uriașe către infrastructură de inteligență artificială, potrivit G4Media . În timp ce Microsoft, Amazon, Meta și Alphabet își cresc masiv investițiile pentru modele AI și centre de date, Apple rămâne singurul gigant tech care nu a intrat „agresiv” în această competiție, arată Il Post, citat de Mediafax. Conform estimărilor menționate, Alphabet, Amazon, Microsoft și Meta ar urma să investească împreună aproximativ 700 de miliarde de dolari (aprox. 3.150 miliarde lei) în acest an în infrastructură AI și data center-e. Reducerea capex și dependența parțială de parteneri În contrast cu trendul din industrie, Apple și-a redus cu 36% cheltuielile de capital în ultimul an, potrivit aceleiași surse. Compania ar fi ales să nu dezvolte pe scară largă propriile modele lingvistice și nici infrastructura necesară pentru antrenarea lor. În plus, „ Apple Intelligence ”, lansată în 2024, se bazează parțial pe tehnologia OpenAI, iar Apple a anunțat recent și un acord cu Google pentru integrarea modelului Gemini în Siri și alte servicii. Miza economică: hardware și răscumpărări de acțiuni G4Media notează că Apple își bazează în continuare modelul de business în principal pe vânzarea de hardware, în special iPhone și Mac, mizând că utilizatorii vor accesa servicii AI prin dispozitivele sale indiferent cine furnizează tehnologia din spate. Strategia „funcționează, cel puțin deocamdată”, în contextul în care Apple a raportat recent o creștere anuală de 17% a vânzărilor nete, susținută inclusiv de succesul noului MacBook Neo. Tim Cook a declarat că „cererea a fost extrem de mare”, iar G4Media menționează că acesta urmează să fie înlocuit în septembrie de John Ternus . Pe partea de alocare a capitalului, Apple continuă programul de răscumpărare a propriilor acțiuni și a anunțat un nou buyback de 100 de miliarde de dolari (aprox. 450 miliarde lei), o practică folosită de peste un deceniu pentru a crește valoarea acțiunilor și randamentele pentru investitori. Ce riscă și ce ar putea urma Potrivit materialului, o parte dintre analiști văd în această prudență o evitare a riscului unei posibile bule speculative în jurul AI, în condițiile în care investițiile sunt foarte costisitoare, iar GPU-urile (plăci grafice specializate pentru calcule) își pot pierde rapid valoarea, uneori în mai puțin de doi ani. Pe de altă parte, există avertismente că Apple ar putea repeta erori strategice ale unor foști giganți precum Nokia sau Motorola, care nu au anticipat revoluția smartphone-urilor și au fost depășiți. G4Media mai arată că, potrivit unor informații apărute în presa americană, Apple lucrează la dispozitive noi pentru „era AI”, inclusiv ochelari inteligenți și dispozitive purtabile, pe o piață unde competiția se intensifică (OpenAI cu Jony Ive, respectiv Meta cu ochelari smart împreună cu EssilorLuxottica). Sub viitorul CEO John Ternus, compania ar putea totuși să-și ajusteze strategia, în condițiile în care a raportat deja o creștere a cheltuielilor de cercetare-dezvoltare de la 8,5 la 11,4 miliarde de dolari (aprox. 38,3–51,3 miliarde lei) într-un singur an, pe fondul proiectelor legate de inteligența artificială. [...]

OpenAI mută ChatGPT mai aproape de standardele IT din companii și școli , printr-o versiune separată pentru iPhone care permite administrare centralizată și reguli de securitate, potrivit Antena 3 . Noua aplicație, „ ChatGPT for Intune ”, țintește organizațiile care folosesc sisteme de management al dispozitivelor mobile și vor control mai strict asupra aplicațiilor instalate pe telefoane și tablete. Aplicația este disponibilă separat în App Store și este compatibilă cu dispozitive care rulează iOS 17 sau versiuni mai noi. Miza este una operațională: utilizarea instrumentelor de inteligență artificială în medii unde administrarea centralizată a dispozitivelor este o cerință, nu o opțiune. Integrarea cu Microsoft Intune : control IT asupra accesului și datelor Versiunea este construită să funcționeze cu Microsoft Intune, platformă folosită de organizații pentru gestionarea aplicațiilor, a securității și a datelor de pe dispozitivele angajaților. În acest cadru, administratorii IT pot impune reguli privind utilizarea aplicației, inclusiv pe zona de autentificare, acces și gestionarea datelor, cu obiectivul de a reduce riscurile pentru informațiile sensibile. Funcționalitățile rămân, dar în „regim” administrat Deși este adaptată pentru mediul corporate, aplicația păstrează funcțiile versiunii obișnuite de ChatGPT, inclusiv: generare de texte (de exemplu, e-mailuri și rapoarte); analiză de documente sau imagini; creare de conținut pe baza comenzilor scrise; interacțiune vocală; explicații pas cu pas și suport pentru învățare. De ce contează pentru companii și educație Antena 3 notează că lansarea se înscrie într-o tendință mai amplă: integrarea inteligenței artificiale în medii de lucru controlate, cu accent pe securitate și confidențialitate. În paralel, sunt menționate și mișcări similare din industrie, precum integrarea Copilot în Microsoft 365 și dezvoltarea de soluții prin Gemini pentru Workspace, de către Google. Pentru școli și universități, logica este similară: instituțiile care folosesc deja sisteme de administrare a dispozitivelor pot introduce utilizarea AI într-un mod supravegheat, astfel încât profesorii să permită accesul la instrumente, păstrând controlul asupra modului în care sunt folosite. Un semnal de maturizare: ChatGPT intră în infrastructura organizațiilor Dincolo de lansarea în sine, schimbarea importantă este direcția: ChatGPT este împins către integrarea în infrastructura digitală a organizațiilor, unde controlul și securitatea devin criterii la fel de importante ca funcționalitatea. Potrivit sursei, dacă până acum creșterea a fost alimentată în principal de utilizatorii individuali, orientarea viitoare pare tot mai mult către utilizarea în companii și instituții. [...]

Anthropic ia în calcul o rundă de până la 50 mld. dolari (aprox. 215 mld. lei) pentru a-și extinde masiv capacitatea de calcul , într-o mișcare care ar putea împinge evaluarea companiei spre pragul de 1.000 mld. dolari și ar depăși OpenAI , potrivit IT之家 , care citează un material din Financial Times. Planul vizează o finanțare „în această vară”, iar banii ar urma să fie folosiți în principal pentru creșterea puterii de calcul (infrastructura necesară antrenării și rulării modelelor de inteligență artificială). Cinci persoane familiarizate cu discuțiile au indicat că interes ar exista din partea unor investitori precum Dragoneer, General Catalyst și Lightspeed Venture Partners. Dimensiunea tranzacției și evaluarea vizată Sursele citate estimează că runda ar putea ridica evaluarea „pre-money” (înainte de atragerea banilor) la 900 mld. dolari (aprox. 3.870 mld. lei), iar suma strânsă ar putea ajunge la 50 mld. dolari (aprox. 215 mld. lei). Tranzacția ar putea fi închisă în două luni, însă nu există garanții că va fi finalizată. Ca reper, Anthropic era evaluată în februarie la circa 380 mld. dolari (aprox. 1.634 mld. lei), conform aceleiași surse. Venituri în creștere rapidă, dar fără termeni agreați Potrivit estimărilor menționate, veniturile anualizate ale Anthropic ar urma să depășească în curând 45 mld. dolari (aprox. 194 mld. lei), față de 9 mld. dolari (aprox. 39 mld. lei) la finalul anului trecut, ceea ce ar însemna o creștere de cinci ori. Directorul financiar al companiei, Krishna Rao, ar fi discutat cu investitori, însă „nu au fost stabilite termeni concreți”, iar discuțiile nu echivalează cu lansarea oficială a negocierilor, potrivit informațiilor din articol. De ce contează: cursa pentru capital și „miza IPO” O parte dintre investitori ar urmări să își construiască o poziție înaintea unei posibile listări (IPO) pe care Anthropic ar putea-o avea până la finalul acestui an, conform surselor. În acest context, compania ar putea favoriza investitori instituționali cu experiență atât în piețe private, cât și în piețe publice. Prin comparație, OpenAI a încheiat în martie o finanțare de 122 mld. dolari (aprox. 525 mld. lei), care i-ar fi adus o evaluare de circa 852 mld. dolari (aprox. 3.664 mld. lei), mai notează materialul citat. [...]

Perplexity extinde accesul la „ Personal Computer ” pe Mac, mutând execuția în cloud pentru a reduce sarcina pe dispozitiv , o schimbare care poate influența direct modul în care utilizatorii și companiile folosesc asistenți AI pe macOS, printr-un model de utilizare legat de abonamente și de limite de credit. Informația este prezentată de Engadget . Până acum, asistentul AI „Personal Computer” era disponibil doar pentru utilizatorii planului Max de 200 de dolari pe lună, însă Perplexity spune că l-a deschis acum pentru toți utilizatorii de Mac. Accesul se face printr-o aplicație nouă pentru macOS, iar utilizarea este „legată de limitele de credit” ale planurilor Pro și Max, potrivit companiei. Ce se schimbă operațional: asistentul rulează sarcini pe fișiere, aplicații și web Perplexity afirmă că „Personal Computer” poate executa sarcini care implică fișiere locale, alte aplicații, web-ul și propriile servere ale companiei. Pentru utilizator, asta înseamnă un asistent care nu se limitează la întrebări, ci poate interacționa cu mai multe surse și contexte de lucru. Compania poziționează produsul pentru „interogări de zi cu zi, atașamente și dictare”, adică utilizări tipice de productivitate, nu doar căutare. De ce contează: „greul” se face în cloud, nu pe Mac Un element distinct față de unele instrumente similare este că Perplexity spune că va face „cea mai mare parte a muncii” în cloud, nu integral local, inclusiv pentru a reduce presiunea asupra resurselor Mac-ului. Practic, performanța și capabilitățile pot depinde mai mult de infrastructura Perplexity și de conexiunea la internet decât de configurația hardware a utilizatorului. Perplexity mai precizează că asistentul folosește mai multe modele AI în funcție de sarcină, inclusiv Gemini pentru „cercetare aprofundată”, Nano Banana pentru imagini și ChatGPT pentru „memorare pe context lung și căutare largă”. Utilizare continuă și control la distanță, cu promisiuni de auditabilitate Perplexity susține că „Personal Computer” poate rula non-stop pe un Mac mini și poate fi controlat de la distanță de pe iPhone. Compania mai afirmă că acțiunile asistentului sunt „auditabile și reversibile”, ceea ce ar reduce riscul unor erori cu impact (de exemplu, ștergerea accidentală a fișierelor), deși articolul nu oferă detalii tehnice despre cum este implementată această reversibilitate. [...]

Marile companii tech își reduc personalul ca să elibereze bugete pentru investițiile în AI , într-un context în care costurile cu infrastructura (centre de date, procesoare grafice și alte echipamente) cresc rapid, potrivit Mobilissimo . Ideea centrală: disponibilizările sunt prezentate mai degrabă ca o decizie de finanțare și reechilibrare a cheltuielilor, nu ca efect direct al înlocuirii angajaților cu inteligență artificială. Meta : concedieri și cheltuieli de capital în creștere În cazul Meta, compania ar urma să elimine aproximativ 8.000 de locuri de muncă pe 20 mai 2026, pe fondul accelerării investițiilor în infrastructura necesară dezvoltării AI. Într-o întâlnire internă de la finalul lunii aprilie, Mark Zuckerberg le-ar fi transmis angajaților că presiunea vine din nevoia de a echilibra bugetul, în condițiile „exploziei” cheltuielilor pentru AI. Meta și-a majorat estimările privind cheltuielile de capital pentru 2026 la 125–145 de miliarde de dolari (aprox. 563–653 mld. lei). „Salariile sunt printre puținele costuri ajustabile rapid” Potrivit materialului, dezbaterea a fost amplificată de un schimb de poziții în care cofondatorul Zoho, Sridhar Vembu, comentează un mesaj al inginerului Meta Arnav Gupta despre viitoare concedieri. Vembu susține că firmele tehnologice reduc personalul deoarece salariile sunt una dintre puținele categorii de costuri care pot fi ajustate rapid. Totodată, el pune sub semnul întrebării eficiența economică a investițiilor masive în AI, argumentând că industria nu a demonstrat încă faptul că aceste cheltuieli se traduc în productivitate și venituri proporționale. Amploarea restructurărilor: date pentru T1 2026 Datele citate de The Kobeissi Letter indică o accelerare puternică a concedierilor în sectorul tehnologic: Concedieri în T1 2026: 81.747 Creștere față de T4 2025: 580% Posturi eliminate în martie 2026: 45.800 Nivelul concedierilor: cel mai ridicat din ultimii peste doi ani Nu e doar Meta: Oracle și alți jucători Fenomenul ar depăși cazul Meta. Oracle ar fi eliminat până la 30.000 de locuri de muncă pentru a elibera între 8 și 10 miliarde de dolari anual (aprox. 36–45 mld. lei) destinați extinderii infrastructurii AI, potrivit TD Cowen. În același context sunt menționate restructurări și la Amazon, Microsoft, Coinbase și Block, în paralel cu majorarea investițiilor în inteligență artificială. Arnav Gupta avertizează că disponibilizările ar putea continua până când companiile vor reuși să transforme investițiile în AI în venituri măsurabile și profit, nu doar în infrastructură costisitoare. [...]