Știri
Știri din categoria Inteligență artificială

OpenAI lansează GPT-5.5 ca model mai eficient pentru lucru și programare, mizând pe reducerea costului operațional (prin folosirea a mai puțini „tokeni”, unități de text procesate) și pe automatizarea unor sarcini mai complexe în ChatGPT și Codex, potrivit The Verge.
Compania spune că GPT-5.5 este „cel mai inteligent și cel mai intuitiv de folosit” model al său și îl prezintă ca un pas spre „un nou mod de a face muncă pe un computer”. După GPT-5.4, lansat luna trecută, OpenAI susține că noul model „excelează” la scriere și depanare de cod, cercetare online, realizarea de foi de calcul și documente, inclusiv atunci când trebuie să lucreze „peste” mai multe instrumente.
„În loc să gestionezi cu grijă fiecare pas, îi poți da lui GPT-5.5 o sarcină dezordonată, în mai multe părți, și să ai încredere că va planifica, va folosi instrumente, își va verifica munca, va naviga prin ambiguitate și va continua”, potrivit OpenAI.
Un element cu impact direct pentru utilizare și costuri este eficiența: OpenAI afirmă că GPT-5.5 poate folosi „semnificativ mai puțini” tokeni pentru a finaliza sarcini în Codex. Compania mai spune că modelul vine cu „cel mai puternic set de măsuri de siguranță de până acum”, fără a detalia în material ce presupun aceste măsuri.
GPT-5.5 începe să fie distribuit începând de joi pentru abonamentele ChatGPT Plus, Pro, Business și Enterprise, precum și în Codex. OpenAI mai precizează că GPT-5.5 Pro va ajunge la utilizatorii Pro, Business și Enterprise.
Lansarea vine într-un moment de competiție accelerată între OpenAI și Anthropic, pe fondul unei curse spre o posibilă listare publică „mai târziu în acest an”, notează publicația. În acest context, ambele companii încearcă să câștige teren pe segmentul de programare asistată de AI și instrumente pentru companii, iar OpenAI ar fi redus recent așa-numitele „side quests” (proiecte secundare) pentru a se concentra pe surse mai mari de venit.
Separat, The Verge menționează că apariția GPT-5.5 are loc cu câteva zile înaintea procesului dintre Elon Musk și executivi OpenAI Sam Altman și Greg Brockman, care ar urma să înceapă luni, într-o instanță federală din Oakland, California.
Recomandate

Anthropic a urcat la o evaluare de circa 1.000 de miliarde de dolari (aprox. 4.600 de miliarde de lei) pe piețele secundare , depășind OpenAI și alimentând o competiție acută între investitori pentru puținele acțiuni disponibile, potrivit Antena 3 . Mișcarea contează mai ales prin efectul de piață: în lipsa unei listări la bursă, prețul este împins în sus de tranzacții indirecte, iar accesul la acțiuni devine o problemă de lichiditate, nu doar de evaluare. Pe platforma Forge Global , descrisă drept una dintre cele mai importante piețe pentru acțiuni nelistate, Anthropic este evaluată la aproximativ 1.000 de miliarde de dolari, în timp ce OpenAI ar fi în jurul a 880 de miliarde de dolari (aprox. 4.050 de miliarde de lei). Antena 3 notează că, deși ultima rundă de finanțare a OpenAI o evalua la 852 de miliarde de dolari, pe piețele secundare compania este tranzacționată la valori mai mici decât Anthropic. De ce se „blochează” piața: acțiuni puține, cerere mare Pentru că nici Anthropic, nici OpenAI nu sunt listate, investitorii pot cumpăra acțiuni doar indirect, de la angajați sau investitori timpurii care aleg să vândă. În acest context, presiunea pe preț vine dintr-un dezechilibru între cerere și ofertă, iar Antena 3 menționează că niciuna dintre companii nu a comentat evoluțiile. Publicația relatează și despre nivelul ofertelor apărute în piață: un acționar „ar fi” scos la vânzare acțiuni la o evaluare de 1.150 de miliarde de dolari, iar un fond important „ar fi” oferit 1.050 de miliarde de dolari pentru a cumpăra. Sunt informații prezentate ca neconfirmate public (formulare de tip „ar fi”). Ritmul creșterii și motorul: veniturile și produsele AI Cererea pentru acțiunile Anthropic ar fi explodat în doar câteva luni: în urmă cu trei luni, compania era evaluată la 380 de miliarde de dolari, după o rundă de finanțare, potrivit Antena 3. Creșterea rapidă a veniturilor și succesul produselor sale de inteligență artificială, în special asistentul de programare Claude, sunt indicate drept principalele motive pentru interesul investitorilor. „A fost o creștere spectaculoasă pentru Anthropic. Toată lumea vrea să prindă un loc în această zonă a inteligenței artificiale, iar acum Anthropic este în față”, spune Glen Anderson, CEO al Rainmaker Securities. Același Anderson descrie o piață extrem de tensionată, în care ofertele apar și dispar rapid, pe fondul lipsei de vânzători. „Apar oferte și dispar în aceeași zi, pentru că sunt cumpărate imediat. Aproape că nu mai există vânzători”, spune Anderson. Efectul asupra OpenAI: interes mai slab pe secundar În paralel, interesul pentru OpenAI este descris ca fiind mai redus în tranzacțiile de pe piețele secundare. „Piața pentru OpenAI este destul de calmă acum. Interesul s-a mutat clar spre Anthropic”, mai spune Anderson. Pentru investitori, mesajul implicit este că „prețul” acțiunilor nelistate poate ajunge să fie dictat de raritatea pachetelor disponibile și de teama de a rata o oportunitate, nu doar de reperele din rundele oficiale de finanțare. [...]

OpenAI împinge ChatGPT spre un instrument complet de producție vizuală , odată cu ChatGPT Images 2.0 , care promite automatizare „cap-coadă” pentru sarcini vizuale și capacitatea de a căuta și sintetiza informații de pe web în imagini detaliate, potrivit GSMArena . Miza practică pentru utilizatori și companii este reducerea dependenței de aplicații dedicate de editare, cu funcții integrate direct în ChatGPT. Noua versiune vine la un an după Images 1.0 și este prezentată ca un generator de imagini cu „capabilități de gândire”, orientat către livrabile „la nivel de producție”. Concret, modelul poate documenta și combina informații din web pentru a construi vizualuri mai complexe, nu doar imagini „artistice” pe baza unui prompt. Înlocuirea aplicațiilor de editare, în aceeași interfață OpenAI poziționează Images 2.0 ca înlocuitor pentru aplicații de editare foto, prin funcții care țintesc fluxuri uzuale de lucru: eliminarea fundalului; schimbarea raportului de aspect (aspect ratio); generarea simultană a până la opt imagini; export la rezoluție 2K. Unde se vede îmbunătățirea: infografice, diagrame și limbaje GSMArena notează că Images 2.0 ar fi mai bun la generarea de infografice și diagrame, cu fidelitate semnificativ îmbunătățită și suport mai bun pentru o varietate mai mare de limbi. Totodată, modelul ar urma să respecte mai bine instrucțiunile din prompt și să păstreze detaliile cerute. Disponibilitate și diferențiere pe abonamente Images 2.0 este disponibil pentru toți utilizatorii ChatGPT, însă modul „Images with thinking” este rezervat abonamentelor Plus, Pro, Business și Enterprise. În practică, asta separă funcțiile avansate (cele care implică „gândire”/sinteză) într-o zonă plătită, relevantă mai ales pentru utilizare profesională. [...]

Parteneriatul Apple–Google intră în faza operațională: Siri va rula pe Gemini , iar mutarea poate schimba rapid capabilitățile „Apple Intelligence” încă din acest an, cu implicații directe asupra infrastructurii cloud folosite de Apple, potrivit GSMArena . Confirmarea vine de la Google, făcută pe scenă la conferința Cloud Next 2026 din Las Vegas. Thomas Kurian, șeful Google Cloud, a spus că Google colaborează cu Apple „ca furnizor cloud preferat” pentru a dezvolta „următoarea generație de Apple Foundation Models” bazate pe tehnologia Gemini, iar aceste modele „vor alimenta viitoare funcții Apple Intelligence, inclusiv un Siri mai personalizat, care va veni mai târziu în acest an”. Ce se știe despre calendar Informația completează confirmarea anterioară a Apple, care anunțase încă din ianuarie că modelele Gemini vor sta la baza următoarei evoluții Apple Intelligence. Potrivit publicației, Apple ar urma să prezinte noutățile în iunie, la Worldwide Developers Conference (WWDC) , iar lansarea către utilizatori este așteptată în toamnă, odată cu iOS 27 și iPadOS 27. De ce contează: unde va rula, de fapt, AI-ul Rămâne neclar dacă modelele Gemini folosite de Apple vor rula pe serverele Google sau prin Apple Private Cloud Compute (infrastructura proprie Apple pentru procesare în cloud cu accent pe confidențialitate). Această decizie are consecințe practice pentru: dependența operațională de un furnizor extern de cloud (Google) versus rulare în cloud-ul Apple; controlul asupra datelor și procesării , în funcție de arhitectura aleasă; viteza de livrare și scalarea funcțiilor de inteligență artificială în ecosistemul Apple. Context: Siri a fost întârziat din cauza acurateții Siri „revizuit” era inițial așteptat anul trecut, apoi a fost amânat pentru această primăvară, însă Apple ar fi întâmpinat probleme de acuratețe. Clarificările privind implementarea și detaliile tehnice sunt așteptate la începutul lui iunie, odată cu WWDC. [...]

Google își extinde oferta de infrastructură AI către un model „hibrid” (TPU propriu + GPU NVIDIA), prin AI Hypercomputer , o arhitectură de centru de date care combină TPU-uri de generația a 8-a, procesoare Axion și viitoarele acceleratoare NVIDIA Rubin, potrivit Wccftech . Miza operațională este flexibilitatea: clienții pot rula antrenare și inferență (execuția modelului în producție) pe hardware diferit, în același „pachet” de infrastructură, ceea ce poate reduce costul total de operare și timpul de implementare pentru proiecte AI la scară mare. Ce este AI Hypercomputer și de ce contează pentru clienți AI Hypercomputer este prezentat ca un ansamblu integrat de hardware (calcul, stocare, rețea) și software deschis (framework-uri și motoare de inferență), construit pentru „AI agentic” – sisteme care pot executa sarcini în lanț, cu un grad mai mare de autonomie, și care cer atât capacitate mare de antrenare, cât și latență redusă în producție. Din perspectiva utilizatorilor de cloud, elementul practic este că Google încearcă să ofere o infrastructură „cap-coadă” pentru AI, în care: TPU-urile proprii acoperă antrenarea și inferența pe platforma Google; GPU-urile NVIDIA rămân o opțiune majoră pentru clienții care preferă ecosistemul NVIDIA; rețeaua și stocarea sunt optimizate pentru a susține clustere foarte mari. TPU 8t și TPU 8i: două cipuri, două sarcini Google își împarte TPU-urile de generația a 8-a în două variante: TPU 8t (antrenare) : este descris ca un cip orientat spre antrenarea modelelor mari, cu o capacitate totală de calcul FP4 de 121 exaflopși per „pod” , menționată ca fiind de 2,84 ori peste Ironwood. Un „superpod” TPU 8t poate scala la 9.600 de cipuri și 2 PB (petabytes) de memorie partajată cu lățime mare de bandă. TPU 8i (inferință) : orientat spre rularea modelelor în producție, cu 288 GB HBM (memorie cu lățime mare de bandă) și 384 MB SRAM pe cip , adică o creștere de 3 ori față de generația anterioară. Pentru calcul, este indicată o capacitate FP8 de 331,8 exaflopși per pod , menționată ca fiind de 6,74 ori peste Ironwood. Publicația notează și îmbunătățiri „performanță per dolar” față de Ironwood („TPUv7”): 2,7 ori pentru TPU 8t în antrenare la scară mare și +80% pentru TPU 8i în inferență cu latență redusă (ținte MoE – „Mixture of Experts”, o arhitectură de model). Ambele ar livra și de două ori mai bună „performanță per watt”, relevantă pentru costul total de operare (TCO). Rețea, stocare și răcire: infrastructura din jurul cipurilor Pentru scalare, Google introduce Virgo Network , o rețea optimizată pentru AI, menită să conecteze atât sisteme NVIDIA Vera Rubin NVL72, cât și superpoduri TPU 8t în clustere foarte mari. Pe partea de stocare, sunt menționate: Managed Lustre cu 10 TB/s către A5X sau TPU 8t prin RDMA; Rapid Storage, cu un salt de la 6 TB/s la 15 TB/s . La nivel fizic, TPU-urile sunt proiectate să funcționeze cu răcire cu lichid de generația a 4-a , pentru densități de calcul care nu ar fi sustenabile cu răcire pe aer. Unde intră NVIDIA Rubin și Axion în ecuație Google afirmă că va fi „printre primii” furnizori care oferă NVIDIA Vera Rubin NVL72 , alături de instanțe bazate pe Blackwell și Hopper deja disponibile. În paralel, compania își împinge propriile procesoare Axion (Arm), inclusiv instanțele N4A, despre care sursa spune că ar livra 100% mai bun raport preț–performanță decât alternative x86 comparabile. Cine ar urma să folosească platforma Wccftech enumeră câțiva clienți pentru AI Hypercomputer, între care US DOE (Departamentul Energiei al SUA) , Boston Dynamics , Citadel Securities , Thinking Machine Labs și Axia Energy . Materialul nu oferă detalii despre dimensiunea contractelor sau calendarul implementărilor. [...]

GitHub Copilot ar urma să treacă la facturare pe bază de token din iunie , o schimbare care poate face costurile mai variabile pentru echipele care folosesc intens asistentul de programare, potrivit Neowin . Trecerea la un model „pe token” înseamnă, în practică, că utilizarea ar putea fi tarifată în funcție de volumul de text procesat de model (tokenii sunt unități de calcul folosite de modelele de limbaj pentru a „măsura” intrarea și ieșirea). Pentru companii, implicația principală este una operațională și de bugetare: cheltuiala poate deveni mai greu de estimat față de un abonament fix, mai ales în perioade cu vârfuri de utilizare. Ce se schimbă pentru utilizatori și echipe Informația este prezentată ca un „raport”, nu ca un anunț oficial în materialul citat, astfel că detaliile exacte ale implementării și ale prețurilor nu sunt confirmate în textul sursă. Totuși, direcția indicată – facturare în funcție de consum – sugerează câteva consecințe probabile pentru organizații: necesitatea de a urmări mai atent consumul (utilizarea) la nivel de utilizator sau proiect; posibile politici interne de limitare a folosirii în sarcini care „ard” multe tokenuri (de exemplu, solicitări lungi, conversații extinse, generare de cod în blocuri mari); ajustări în modul de alocare a costurilor între echipe (chargeback intern). De ce contează Copilot este un instrument folosit direct în fluxul de lucru al dezvoltatorilor, iar o schimbare de tarifare poate influența atât costul total, cât și comportamentul de utilizare. Pentru firmele care au standardizat Copilot la scară, orice trecere de la predictibilitatea unui abonament la un cost dependent de consum poate însemna revizuirea bugetelor și a regulilor de utilizare. În lipsa unor informații oficiale în materialul citat, rămâne de urmărit dacă GitHub/Microsoft vor confirma schimbarea și ce mecanisme de control (plafonare, alerte, rapoarte de consum) vor fi disponibile pentru clienți odată cu intrarea în vigoare, indicată ca fiind din iunie. [...]

Guvernul pregătește o investiție de 169 milioane lei, cu finanțare europeană, în infrastructura de securitate și date din aeroporturi , proiect pe care îl va implementa Serviciul Român de Informații , potrivit Profit . Miza economică și operațională este dublă: un „hub” de informații pentru 17 aeroporturi civile și introducerea unor sisteme de analiză video cu inteligență artificială , care pot schimba modul în care se face controlul de securitate. Proiectul are o valoare totală de 169 milioane lei și este finanțat din fonduri europene. Conform informațiilor publicate, SRI se va ocupa de implementare, iar componenta centrală este crearea unui portal/hub care agregă informații din aeroporturile incluse. Ce se cumpără, concret: portal de date și analiză video cu IA Pe lângă partea de „hub” de informații, banii ar urma să fie utilizați pentru îmbunătățirea securității pe aeroporturi prin sisteme de analiză video, inclusiv: „object recognition” (recunoaștere de obiecte în imagini/video); VAI (Visual Artificial Intelligence – inteligență artificială vizuală), adică utilizarea algoritmilor pentru interpretarea automată a fluxurilor video. În practică, astfel de sisteme pot automatiza detectarea unor obiecte sau comportamente în zonele monitorizate, reducând dependența exclusivă de supravegherea umană, dar crescând și nevoia de reguli stricte privind utilizarea și guvernanța datelor. De ce contează pentru aeroporturi și operatori Dincolo de valoarea bugetului, proiectul poate avea impact direct asupra modului în care aeroporturile participante își gestionează: fluxurile de informații și interoperabilitatea (schimbul de date între entități); procesele de securitate, prin extinderea supravegherii video „inteligente”. Materialul publicat de Profit nu detaliază calendarul de implementare, furnizorii sau arhitectura tehnică, astfel că rămâne de văzut cum vor fi stabilite cerințele, achizițiile și responsabilitățile operaționale între actorii implicați. [...]