Știri
Știri din categoria Inteligență artificială

OpenAI își schimbă strategia și se concentrează pe programare și clienți business, potrivit The Wall Street Journal, într-o mișcare care marchează o retragere din proiectele secundare și o încercare de a valorifica mai eficient avantajul tehnologic. Decizia este analizată de CEO-ul Sam Altman și de Mark Chen, iar angajații urmează să primească detalii oficiale în perioada următoare, după ce planul a fost deja prezentat intern de Fidji Simo ca un efort de a fixa direcția companiei pe activitățile esențiale.
Schimbarea nu vine din senin, ci continuă o serie de ajustări începute încă din 2025, când OpenAI a suspendat inițiative precum publicitatea, agenți pentru sănătate sau funcții de cumpărături, pentru a redirecționa resursele către îmbunătățirea ChatGPT. Noua etapă merge însă mai departe și stabilește două priorități clare:
Această repoziționare apare pe fondul unei competiții intense, în special cu Anthropic, ale cărei modele sunt percepute ca fiind mai performante în sarcini de codare. Deși OpenAI susține că produsul său Codex și-a triplat numărul de utilizatori săptămânali din ianuarie 2026, piața rămâne una disputată, iar integrarea în ecosisteme populare devine decisivă.

În paralel, conducerea companiei consideră că principala problemă nu mai este capacitatea tehnologică, ci implementarea în mediul real. Directorul financiar Sarah Friar sublinia încă din ianuarie că obiectivul pentru 2026 este „adopția practică”, adică transformarea capabilităților AI în instrumente utilizate zilnic de companii și instituții.
Câteva repere relevante pentru contextul actual:
| Indicator | Valoare estimată |
|---|---|
| Utilizatori săptămânali ChatGPT | peste 900 milioane |
| Venituri recurente anuale | peste 20 miliarde dolari |
| Evaluare companie (martie 2026) | aproximativ 730 miliarde dolari |
În acest context, presiunea este dublă: competiția tehnologică și nevoia de a demonstra că investițiile masive pot genera venituri sustenabile, mai ales în perspectiva unei posibile listări la bursă spre finalul anului 2026. Practic, OpenAI încearcă să treacă de la statutul de lider în cercetare la cel de jucător dominant în aplicații comerciale.
Recomandate

ChatGPT integrează peste 14 aplicații populare și face un pas important spre ideea de „super-aplicație” digitală , permițând utilizatorilor să comande mâncare, să rezerve curse sau să creeze playlisturi direct din conversație. Potrivit TechCrunch , OpenAI a extins sistemul de integrări cu servicii externe astfel încât mai multe acțiuni online să poată fi realizate prin simple comenzi în limbaj natural, fără a părăsi interfața chatbotului. Funcția a fost prezentată inițial la OpenAI DevDay din octombrie 2025 , când platforma avea doar șapte parteneri. În prezent, lista a depășit 14 aplicații , incluzând servicii populare precum Uber, DoorDash, Spotify, Canva, Expedia sau Target. Integrarea este disponibilă pentru utilizatorii autentificați din Statele Unite și Canada , inclusiv pentru cei care folosesc planul gratuit. Cum funcționează integrările Utilizatorii pot activa un serviciu direct din conversație, tastând numele aplicației în prompt. De exemplu, o comandă precum „Spotify, creează un playlist pentru o cină” permite chatbotului să genereze lista și să o salveze în contul utilizatorului. Aplicațiile pot fi conectate și din meniul Settings – Apps and Connectors , iar după conectare ChatGPT poate afișa elemente interactive direct în chat, precum: hărți pentru curse sau locații playlisturi muzicale interfețe de rezervare coșuri de cumpărături Prin conectarea conturilor, utilizatorii permit accesul la anumite date. De exemplu, integrarea cu Spotify oferă acces la playlisturi și istoricul de ascultare pentru personalizarea recomandărilor. Serviciile disponibile în prezent Printre aplicațiile care pot fi conectate în ChatGPT se numără: Booking.com Canva Coursera DoorDash Expedia Figma Quizlet Spotify Target Uber Uber Eats Wix Angi Zillow OpenAI a confirmat că OpenTable, PayPal și Walmart urmează să fie adăugate ulterior. O nouă strategie după GPT Store Această inițiativă marchează a doua încercare a OpenAI de a construi un ecosistem de aplicații în jurul ChatGPT , după lansarea GPT Store în 2024, care nu a reușit să genereze interes major. Noua strategie se bazează pe parteneriate directe cu branduri mari și pe o infrastructură tehnică numită Apps SDK , construită pe standardul Model Context Protocol pentru conectarea modelelor AI cu servicii externe. Opinie: ChatGPT se apropie de modelul „super-app” Extinderea integrărilor sugerează că OpenAI încearcă să transforme ChatGPT într-un hub digital central , similar aplicațiilor „super-app” din Asia, unde mai multe servicii sunt accesate dintr-un singur loc. Dacă această strategie va avea succes, utilizatorii ar putea începe să își planifice călătorii, să facă cumpărături sau să consume conținut fără să mai deschidă alte aplicații, iar ChatGPT ar deveni interfața principală dintre utilizator și internet. În același timp, modelul ridică întrebări legate de concurență între servicii similare și de modul în care platforma va decide ce aplicații sau rezultate sunt afișate utilizatorilor. [...]

Sam Altman spune că inteligența artificială ar putea fi vândută „la contor”, precum electricitatea , sugerând un model economic în care utilizatorii plătesc strict pentru cantitatea de „inteligență” consumată. Declarația, făcută la un eveniment major al industriei financiare din SUA, a devenit rapid virală și a relansat dezbaterea despre modul în care va fi controlat și tarifat accesul la tehnologiile AI. Potrivit NDTV Profit , directorul OpenAI a vorbit despre această viziune pe 11 martie 2026, la Infrastructure Summit organizat de BlackRock în Washington. Într-o discuție cu Bayo Ogunlesi, președintele Global Infrastructure Partners, Altman a explicat că inteligența artificială ar putea deveni o infrastructură digitală de bază, accesată la cerere, similar cu apa sau electricitatea. Modelul de funcționare este deja vizibil în industria AI. Companiile care dezvoltă modele mari de limbaj taxează utilizarea în funcție de „tokenuri”, unități care reprezintă textul sau datele procesate de sistem. Acest mecanism permite gestionarea eficientă a resurselor de calcul, mai ales în perioadele de cerere intensă pentru servicii bazate pe inteligență artificială. Altman a subliniat că obiectivul companiei este extinderea masivă a accesului la aceste tehnologii. „Vrem să inundăm lumea cu inteligență. Vrem ca oamenii să o folosească pentru orice”, a spus el, indicând că inteligența artificială ar putea deveni un element central al economiei digitale, de la productivitate personală până la procese industriale complexe. Declarațiile vin într-un context de investiții uriașe în infrastructura AI. Potrivit unei analize publicate de Fortune , companiile din domeniu investesc zeci de miliarde de dolari în centre de date și capacitate de calcul pentru a susține dezvoltarea modelelor avansate. În paralel, OpenAI a atras recent finanțări masive pentru extinderea infrastructurii, inclusiv cu sprijinul unor investitori majori din sectorul tehnologic. Reacțiile din mediul online au fost însă împărțite. Unii utilizatori au comparat ideea cu scenarii distopice din cultura pop, sugerând că „inteligența ca utilitate” ar putea transforma gândirea asistată de AI într-un serviciu plătit permanent. Alții au remarcat că analogia cu electricitatea ar putea implica, pe termen lung, și reglementări stricte din partea statului dacă inteligența artificială devine infrastructură critică. Conceptul nu este nou în discursul lui Altman. În 2025, el declara într-un eveniment economic că industria se apropie de momentul în care va putea oferi „inteligență prea ieftină pentru a fi contorizată”, susținând că prețul procesării AI a scăzut de peste zece ori pe an în ultimii ani, după cum relata Inkl . Totuși, în 2026 discuția capătă o dimensiune diferită, pe fondul costurilor uriașe ale infrastructurii, al consumului de energie și al întrebărilor tot mai frecvente despre cine va controla accesul la această tehnologie. [...]

OpenAI ar urma să integreze generatorul video Sora direct în ChatGPT , extinzând astfel funcțiile platformei cu posibilitatea de a crea videoclipuri cu inteligență artificială, potrivit unui raport citat de Reuters . Informația provine din surse familiarizate cu planurile companiei și indică faptul că instrumentul ar putea fi lansat în curând în interiorul ChatGPT . În prezent, Sora funcționează ca aplicație separată, lansată în 2025, care permite utilizatorilor să genereze videoclipuri AI pornind de la descrieri text. Ce este Sora Sora este un model de inteligență artificială specializat în generarea de videoclipuri pe baza comenzilor text , parte a strategiei OpenAI de dezvoltare a sistemelor multimodale. Prin acest sistem, utilizatorii pot: crea clipuri video generate de AI din descrieri scrise; edita sau genera scene complexe; distribui videoclipurile pe platforme online. Aplicația a fost lansată inițial ca serviciu independent, unde utilizatorii pot crea și publica videoclipuri într-un flux similar rețelelor sociale. Integrarea în ChatGPT Potrivit raportului, OpenAI intenționează să păstreze aplicația Sora separată , însă în același timp să introducă funcția de generare video și în ChatGPT. O astfel de integrare ar transforma ChatGPT într-o platformă mai completă pentru creație digitală, unde utilizatorii ar putea genera: text; imagini; videoclipuri AI. Această mișcare ar intensifica competiția în domeniul AI generativ, unde companii precum Meta și Google dezvoltă propriile tehnologii de creare automată de conținut video. Video generativ – noua frontieră a inteligenței artificiale După succesul modelelor de generare de text și imagini, tehnologia de text-to-video este considerată următorul pas major în evoluția inteligenței artificiale. Specialiștii estimează că astfel de instrumente ar putea avea un impact semnificativ asupra: industriei media; producției video și publicității; conținutului pentru social media. OpenAI nu a confirmat oficial planurile până în acest moment, iar informațiile din raport nu au fost verificate independent. [...]

Armata SUA testează utilizarea chatboților de inteligență artificială pentru planuri de război , potrivit unei analize publicate de WIRED , care descrie demonstrații realizate de compania americană Palantir pentru Pentagon. În cadrul acestor prezentări, sisteme de inteligență artificială precum Claude sau ChatGPT sunt integrate într-o platformă capabilă să analizeze rapid cantități mari de informații militare și să sugereze scenarii de acțiune pentru comandamentele armatei. Tehnologia ar funcționa ca un instrument de asistență strategică , capabil să combine date provenite din surse diverse: rapoarte de informații, imagini satelitare, poziții ale trupelor sau informații despre logistică. Pe baza acestor date, chatbotul poate genera rapid opțiuni tactice sau planuri de operațiuni pe care analiștii militari le pot evalua ulterior. În demonstrațiile prezentate, platforma dezvoltată de Palantir permite operatorilor să pună întrebări în limbaj natural, iar sistemul răspunde prin: analizarea situației militare; identificarea riscurilor și oportunităților; sugerarea unor pași operaționali sau scenarii posibile. Scopul declarat al acestor sisteme nu este înlocuirea deciziei umane, ci accelerarea procesului de analiză și planificare într-un mediu în care informațiile se schimbă rapid. În paralel însă, utilizarea inteligenței artificiale în domeniul militar a generat controverse. Compania Anthropic , dezvoltatoarea modelului Claude , a refuzat recent să ofere guvernului american acces nelimitat la sistemele sale, argumentând că acestea nu ar trebui folosite pentru supraveghere în masă sau pentru arme complet autonome. Ca reacție, Pentagonul a catalogat produsele companiei drept un posibil „risc pentru lanțul de aprovizionare”, decizie contestată în instanță de Anthropic. Disputa evidențiază tensiunea tot mai mare dintre industria tehnologică și sectorul militar, într-un moment în care inteligența artificială devine un instrument strategic în analiza datelor, planificarea operațiunilor și dezvoltarea tehnologiilor de apărare. [...]

Inteligența artificială începe să schimbe radical modul în care este scris software-ul , iar mulți programatori spun că rolul lor se transformă din autori de cod în „arhitecți” care coordonează agenți AI, potrivit unei analize publicate de The New York Times . Articolul, bazat pe interviuri cu peste 70 de dezvoltatori de la companii precum Google, Amazon sau Microsoft, descrie o schimbare majoră în industrie: în tot mai multe cazuri, inteligența artificială scrie cea mai mare parte a codului , iar programatorii doar explică în limbaj natural ce vor să construiască și verifică rezultatul. Programatorii discută cu AI-ul, nu mai scriu cod Un exemplu este Manu Ebert, cofondator al start-up-ului Hyperspell, care folosește Claude Code – un instrument dezvoltat de compania Anthropic. În trecut, dezvoltarea unei funcții software putea dura o zi întreagă; acum, AI-ul poate genera și testa codul în aproximativ 30 de minute. În loc să scrie manual fiecare linie de program, dezvoltatorii: descriu ce trebuie să facă aplicația analizează planul propus de AI verifică testele și rezultatele generate automat Astfel, munca programatorilor devine mai apropiată de designul și arhitectura sistemelor software decât de scrierea efectivă a codului. Productivitatea ar putea crește de zeci de ori Mai mulți dezvoltatori spun că AI-ul le crește productivitatea semnificativ. Unele estimări indică: creșteri de 10 până la 20 de ori în start-up-uri până la 100 de ori mai rapid pentru anumite sarcini simple aproximativ 10% creștere a eficienței în companii foarte mari precum Google În firmele mari, unde există miliarde de linii de cod vechi, AI-ul este util mai ales pentru: analizarea codului existent găsirea erorilor sugerarea de modificări sau optimizări Programatorii devin „arhitecți” ai sistemelor În noul model de lucru, dezvoltatorii se concentrează mai mult pe: proiectarea sistemului software coordonarea agenților AI verificarea calității codului generat Mulți programatori spun că se simt mai degrabă „arhitecți” care proiectează sistemul , în timp ce AI-ul face munca de construcție. Impactul asupra pieței muncii Schimbarea ridică însă și întrebări despre viitorul profesiei. Date analizate de economiști de la Stanford arată că numărul locurilor de muncă pentru programatori foarte tineri a scăzut cu aproximativ 16% din 2022 , sugerând că posturile de început ar putea fi cele mai afectate. În același timp, există și argumentul invers: dacă dezvoltarea software devine mult mai ieftină și rapidă, mai multe companii vor crea propriile aplicații, ceea ce ar putea crește cererea totală pentru programatori. O schimbare similară cu evoluția limbajelor de programare Unii veterani din industrie cred că transformarea actuală este doar o nouă etapă a evoluției programării. În trecut, limbaje precum Python sau JavaScript au simplificat mult scrierea codului, eliminând sarcini tehnice complexe precum gestionarea memoriei. Acum, inteligența artificială reprezintă un nou nivel de abstractizare , în care programatorii descriu intenția, iar sistemele automate transformă acea descriere în cod funcțional. [...]

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]