Știri
Știri din categoria Inteligență artificială

Comisia Europeană încearcă să obțină acces la modelele avansate de inteligență artificială ale OpenAI și Anthropic, într-un demers care țintește direct capacitatea UE de a evalua și gestiona riscurile acestor tehnologii înainte ca ele să fie folosite pe scară largă în economie, potrivit G4Media.
Un purtător de cuvânt al Comisiei Europene, Thomas Regnier, a declarat că Bruxellesul „apreciază abordarea proactivă” a OpenAI, inclusiv disponibilitatea companiei de a oferi acces la noua generație de modele. În cazul Anthropic, Comisia ar fi avut deja „aproximativ patru sau cinci” întâlniri, însă discuțiile nu au ajuns la un stadiu în care să fie analizată concret posibilitatea accesului la modelele dezvoltate de companie, conform Reuters, citată de publicație.
„În cazul uneia dintre ele (OpenAI), avem o companie care se oferă în mod proactiv să acorde acces. În cazul celeilalte (Anthropic), avem schimburi constructive, deși nu ne aflăm încă într-un stadiu în care să putem specula cu privire la un potențial acces sau nu.”
Miza discuțiilor este una de reglementare și supraveghere: autoritățile europene încearcă să înțeleagă mai bine „riscurile și capacitățile” noilor modele de inteligență artificială, în special pe zona de funcții avansate care pot avea impact direct asupra securității și operațiunilor digitale.
În mod specific, contextul invocat este legat de modele cu funcții avansate în:
Din informațiile disponibile, discuțiile sunt în derulare, dar în cazul Anthropic nu există încă o bază pentru a anticipa dacă accesul va fi acordat sau în ce condiții. În cazul OpenAI, Comisia indică o deschidere mai mare din partea companiei, fără a detalia însă forma accesului sau calendarul.
Recomandate

NVIDIA și partenerii săi au deschis ca standard MRC, un protocol care crește reziliența rețelelor pentru antrenarea AI la scară foarte mare , după ce a fost folosit în producție pe infrastructura Spectrum‑X, potrivit NVIDIA . Miza este una operațională: în clustere cu mii de GPU-uri, întreruperile sau congestia de rețea pot încetini ori opri antrenări lungi și costisitoare, iar MRC este proiectat să reducă aceste blocaje prin rutare pe mai multe căi și recuperare rapidă la pierderi de pachete. Ce este MRC și de ce contează pentru „fabricile” de AI MRC (Multipath Reliable Connection) este descris ca un protocol de transport RDMA (Remote Direct Memory Access – tehnologie care permite transferuri de date cu latență mică, ocolind o parte din procesarea clasică a sistemului de operare). Concret, MRC permite ca o singură conexiune RDMA să distribuie traficul pe mai multe rute din rețea, cu efecte urmărite direct în exploatare: creșterea debitului (throughput) prin folosirea simultană a mai multor căi; echilibrarea încărcării (load balancing) pentru a evita „punctele fierbinți”; disponibilitate mai bună, prin ocolirea automată a segmentelor cu probleme. NVIDIA susține că MRC ajută la menținerea unui nivel ridicat de utilizare a GPU-urilor, tocmai prin faptul că „ține” lățimea de bandă necesară pe durata antrenării și reduce timpii morți generați de problemele de rețea. Cum funcționează reziliența: rerutare în microsecunde și retransmisie „inteligentă” În arhitectura descrisă, MRC folosește mecanisme care vizează două tipuri de incidente frecvente la scară mare: congestia și pierderile de date. Pe congestie, protocolul ar evita dinamic rutele supraîncărcate „în timp real”, pentru a susține lățime de bandă ridicată chiar și când rețeaua este aglomerată. La pierderi de date, NVIDIA indică o retransmisie „rapidă și precisă”, menită să limiteze efectul întreruperilor scurte asupra joburilor de lungă durată. Un element cheie este „failure bypass”: tehnologia ar detecta o cădere de rută și ar reruta traficul automat, în hardware, „în doar microsecunde” — un detaliu relevant pentru antrenarea distribuită, unde sincronizarea între mii de GPU-uri este sensibilă la întreruperi. Cine îl folosește și cum ajunge un standard deschis NVIDIA indică drept utilizatori ai Spectrum‑X Ethernet (în acest context) OpenAI, Microsoft și Oracle. În plus, compania afirmă că centrele de date Microsoft Fairwater și Oracle Cloud Infrastructure (OCI) Abilene se bazează pe MRC pentru cerințe de performanță, scalare și eficiență. Un punct cu impact de industrie este că MRC, după utilizarea în producție cu performanță optimizată pe hardware Spectrum‑X, a fost „lansat ca specificație deschisă” prin Open Compute Project (OCP) — o mișcare care, în mod tipic, facilitează adoptarea mai largă și interoperabilitatea între furnizori. NVIDIA mai precizează că a colaborat la dezvoltarea MRC cu AMD, Broadcom, Intel, Microsoft și OpenAI. „Implementarea MRC în generația Blackwell a avut mult succes și a fost posibilă datorită unei colaborări puternice cu NVIDIA”, a declarat Sachin Katti, șeful diviziei de industrial compute la OpenAI. „Abordarea end‑to‑end a MRC ne-a permis să evităm o mare parte din încetinirile și întreruperile tipice legate de rețea și să menținem eficiența antrenărilor de frontieră la scară.” Implicația practică: flexibilitate de transport RDMA pe aceeași infrastructură Pe Spectrum‑X Ethernet, clienții ar avea opțiuni de modele de transport RDMA: atât Adaptive RDMA, cât și MRC, plus alte protocoale personalizate, care rulează nativ pe NVIDIA ConnectX SuperNICs și switch-urile Spectrum‑X și susțin designuri de rețea „multiplanar”. În această arhitectură, o rețea multiplanară înseamnă mai multe „plane” (fabrice) independente, fiecare oferind rute alternative între GPU-uri. NVIDIA afirmă că funcția Spectrum‑X Multiplane adaugă echilibrare de sarcină accelerată în hardware între plane, pentru reziliență și scalare, menținând latențe predictibile și permițând extinderea la „sute de mii de GPU-uri”. Pentru piață, mesajul operațional este că, pe măsură ce infrastructura de antrenare AI crește, diferențiatorul nu mai este doar viteza brută, ci capacitatea rețelei de a evita congestia și de a „supraviețui” defectelor fără a opri joburile — iar standardizarea deschisă a MRC urmărește să transforme aceste mecanisme într-o practică mai ușor de adoptat la scară. [...]

NVIDIA spune că a început deja să obțină câștiguri măsurabile de productivitate după ce a pus la dispoziția angajaților aplicația Codex de la OpenAI , alimentată de noul model GPT‑5.5 și rulată pe sisteme NVIDIA GB200 NVL72 , potrivit NVIDIA Blog . Miza, dincolo de „lansare”, este una operațională: compania descrie scurtarea ciclurilor de depanare și accelerarea livrării de funcționalități în proiecte complexe, pe fondul unor costuri și performanțe de inferență (rulare a modelului) pe care le consideră viabile la scară de întreprindere. În material, NVIDIA afirmă că peste 10.000 de angajați din arii precum inginerie, produs, juridic, marketing, finanțe, vânzări, HR, operațiuni și programe pentru dezvoltatori folosesc deja Codex cu GPT‑5.5. Inginerii ar fi avut acces „de câteva săptămâni”, iar compania susține că efectele se văd în timpii de lucru: cicluri de debugging care „se întindeau pe zile” s-ar închide acum „în ore”, iar experimente care necesitau „săptămâni” ar ajunge la progres „peste noapte” în baze de cod complexe, cu mai multe fișiere. De ce contează: productivitate internă, susținută de infrastructură și costuri de inferență NVIDIA leagă aceste rezultate de rularea pe GB200 NVL72, despre care spune că poate livra „de 35 de ori” cost mai mic per milion de tokeni și „de 50 de ori” mai mult output de tokeni pe secundă per megawatt față de generația anterioară. În interpretarea companiei, această „economie” ar face inferența pentru modele de vârf fezabilă la scară enterprise, adică suficient de ieftină și eficientă energetic pentru utilizare pe scară largă în organizații. Compania mai susține că echipele pot livra funcționalități „end-to-end” pornind de la prompturi în limbaj natural, cu fiabilitate mai bună și mai puține cicluri irosite decât la modele anterioare, fără a detalia însă indicatori cantitativi interni (de tip ore economisite, costuri sau rate de defecte). Cum a fost „împachetat” pentru medii corporate: VM-uri, audit și acces limitat Un element central al implementării descrise este controlul asupra datelor și al accesului. Codex ar suporta conexiuni SSH (Secure Shell) la mașini virtuale (VM) aprobate în cloud, astfel încât agenții să lucreze cu date reale ale companiei fără expunere externă, potrivit NVIDIA. Pentru „securitate și auditabilitate”, NVIDIA IT ar fi livrat câte o mașină virtuală în cloud pentru fiecare angajat, ca „sandbox” dedicat. Implementarea ar include: politică de „zero data retention” (fără păstrarea datelor), acces la sisteme de producție în regim „read-only” (doar citire) prin interfețe de linie de comandă și „Skills” (un set de unelte pentru agenți, folosite și în automatizările interne ale companiei). Context: colaborarea NVIDIA–OpenAI și dimensiunea infrastructurii NVIDIA plasează rollout-ul GPT‑5.5/Codex într-un parteneriat cu OpenAI început în 2016, când Jensen Huang ar fi livrat personal primul supercomputer NVIDIA DGX‑1 la sediul OpenAI din San Francisco. Compania mai afirmă că OpenAI s-a angajat să implementeze „peste 10 gigawați” de sisteme NVIDIA pentru infrastructura sa de generație următoare, o extindere care „va pune milioane de GPU-uri NVIDIA” la baza antrenării și inferenței pentru anii următori. În același context, NVIDIA menționează un „milestone” comun: aducerea în funcțiune a „primului cluster GB200 NVL72 cu 100.000 de GPU-uri”, despre care spune că a rulat antrenări la scară mare și a stabilit un nou reper de fiabilitate la nivel de sistem. Într-un e-mail intern citat de companie, CEO-ul Jensen Huang le-ar fi cerut angajaților să folosească Codex: „Să trecem la viteza luminii. Bine ați venit în era AI.” Pentru detalii despre model, NVIDIA trimite la anunțul OpenAI: OpenAI . [...]

Apple își ține cheltuielile de capital departe de „cursa AI” și preferă să-și conserve marjele și randamentele pentru acționari, într-un moment în care rivalii direcționează sume uriașe către infrastructură de inteligență artificială, potrivit G4Media . În timp ce Microsoft, Amazon, Meta și Alphabet își cresc masiv investițiile pentru modele AI și centre de date, Apple rămâne singurul gigant tech care nu a intrat „agresiv” în această competiție, arată Il Post, citat de Mediafax. Conform estimărilor menționate, Alphabet, Amazon, Microsoft și Meta ar urma să investească împreună aproximativ 700 de miliarde de dolari (aprox. 3.150 miliarde lei) în acest an în infrastructură AI și data center-e. Reducerea capex și dependența parțială de parteneri În contrast cu trendul din industrie, Apple și-a redus cu 36% cheltuielile de capital în ultimul an, potrivit aceleiași surse. Compania ar fi ales să nu dezvolte pe scară largă propriile modele lingvistice și nici infrastructura necesară pentru antrenarea lor. În plus, „ Apple Intelligence ”, lansată în 2024, se bazează parțial pe tehnologia OpenAI, iar Apple a anunțat recent și un acord cu Google pentru integrarea modelului Gemini în Siri și alte servicii. Miza economică: hardware și răscumpărări de acțiuni G4Media notează că Apple își bazează în continuare modelul de business în principal pe vânzarea de hardware, în special iPhone și Mac, mizând că utilizatorii vor accesa servicii AI prin dispozitivele sale indiferent cine furnizează tehnologia din spate. Strategia „funcționează, cel puțin deocamdată”, în contextul în care Apple a raportat recent o creștere anuală de 17% a vânzărilor nete, susținută inclusiv de succesul noului MacBook Neo. Tim Cook a declarat că „cererea a fost extrem de mare”, iar G4Media menționează că acesta urmează să fie înlocuit în septembrie de John Ternus . Pe partea de alocare a capitalului, Apple continuă programul de răscumpărare a propriilor acțiuni și a anunțat un nou buyback de 100 de miliarde de dolari (aprox. 450 miliarde lei), o practică folosită de peste un deceniu pentru a crește valoarea acțiunilor și randamentele pentru investitori. Ce riscă și ce ar putea urma Potrivit materialului, o parte dintre analiști văd în această prudență o evitare a riscului unei posibile bule speculative în jurul AI, în condițiile în care investițiile sunt foarte costisitoare, iar GPU-urile (plăci grafice specializate pentru calcule) își pot pierde rapid valoarea, uneori în mai puțin de doi ani. Pe de altă parte, există avertismente că Apple ar putea repeta erori strategice ale unor foști giganți precum Nokia sau Motorola, care nu au anticipat revoluția smartphone-urilor și au fost depășiți. G4Media mai arată că, potrivit unor informații apărute în presa americană, Apple lucrează la dispozitive noi pentru „era AI”, inclusiv ochelari inteligenți și dispozitive purtabile, pe o piață unde competiția se intensifică (OpenAI cu Jony Ive, respectiv Meta cu ochelari smart împreună cu EssilorLuxottica). Sub viitorul CEO John Ternus, compania ar putea totuși să-și ajusteze strategia, în condițiile în care a raportat deja o creștere a cheltuielilor de cercetare-dezvoltare de la 8,5 la 11,4 miliarde de dolari (aprox. 38,3–51,3 miliarde lei) într-un singur an, pe fondul proiectelor legate de inteligența artificială. [...]

OpenAI mută ChatGPT mai aproape de standardele IT din companii și școli , printr-o versiune separată pentru iPhone care permite administrare centralizată și reguli de securitate, potrivit Antena 3 . Noua aplicație, „ ChatGPT for Intune ”, țintește organizațiile care folosesc sisteme de management al dispozitivelor mobile și vor control mai strict asupra aplicațiilor instalate pe telefoane și tablete. Aplicația este disponibilă separat în App Store și este compatibilă cu dispozitive care rulează iOS 17 sau versiuni mai noi. Miza este una operațională: utilizarea instrumentelor de inteligență artificială în medii unde administrarea centralizată a dispozitivelor este o cerință, nu o opțiune. Integrarea cu Microsoft Intune : control IT asupra accesului și datelor Versiunea este construită să funcționeze cu Microsoft Intune, platformă folosită de organizații pentru gestionarea aplicațiilor, a securității și a datelor de pe dispozitivele angajaților. În acest cadru, administratorii IT pot impune reguli privind utilizarea aplicației, inclusiv pe zona de autentificare, acces și gestionarea datelor, cu obiectivul de a reduce riscurile pentru informațiile sensibile. Funcționalitățile rămân, dar în „regim” administrat Deși este adaptată pentru mediul corporate, aplicația păstrează funcțiile versiunii obișnuite de ChatGPT, inclusiv: generare de texte (de exemplu, e-mailuri și rapoarte); analiză de documente sau imagini; creare de conținut pe baza comenzilor scrise; interacțiune vocală; explicații pas cu pas și suport pentru învățare. De ce contează pentru companii și educație Antena 3 notează că lansarea se înscrie într-o tendință mai amplă: integrarea inteligenței artificiale în medii de lucru controlate, cu accent pe securitate și confidențialitate. În paralel, sunt menționate și mișcări similare din industrie, precum integrarea Copilot în Microsoft 365 și dezvoltarea de soluții prin Gemini pentru Workspace, de către Google. Pentru școli și universități, logica este similară: instituțiile care folosesc deja sisteme de administrare a dispozitivelor pot introduce utilizarea AI într-un mod supravegheat, astfel încât profesorii să permită accesul la instrumente, păstrând controlul asupra modului în care sunt folosite. Un semnal de maturizare: ChatGPT intră în infrastructura organizațiilor Dincolo de lansarea în sine, schimbarea importantă este direcția: ChatGPT este împins către integrarea în infrastructura digitală a organizațiilor, unde controlul și securitatea devin criterii la fel de importante ca funcționalitatea. Potrivit sursei, dacă până acum creșterea a fost alimentată în principal de utilizatorii individuali, orientarea viitoare pare tot mai mult către utilizarea în companii și instituții. [...]

Anthropic ia în calcul o rundă de până la 50 mld. dolari (aprox. 215 mld. lei) pentru a-și extinde masiv capacitatea de calcul , într-o mișcare care ar putea împinge evaluarea companiei spre pragul de 1.000 mld. dolari și ar depăși OpenAI , potrivit IT之家 , care citează un material din Financial Times. Planul vizează o finanțare „în această vară”, iar banii ar urma să fie folosiți în principal pentru creșterea puterii de calcul (infrastructura necesară antrenării și rulării modelelor de inteligență artificială). Cinci persoane familiarizate cu discuțiile au indicat că interes ar exista din partea unor investitori precum Dragoneer, General Catalyst și Lightspeed Venture Partners. Dimensiunea tranzacției și evaluarea vizată Sursele citate estimează că runda ar putea ridica evaluarea „pre-money” (înainte de atragerea banilor) la 900 mld. dolari (aprox. 3.870 mld. lei), iar suma strânsă ar putea ajunge la 50 mld. dolari (aprox. 215 mld. lei). Tranzacția ar putea fi închisă în două luni, însă nu există garanții că va fi finalizată. Ca reper, Anthropic era evaluată în februarie la circa 380 mld. dolari (aprox. 1.634 mld. lei), conform aceleiași surse. Venituri în creștere rapidă, dar fără termeni agreați Potrivit estimărilor menționate, veniturile anualizate ale Anthropic ar urma să depășească în curând 45 mld. dolari (aprox. 194 mld. lei), față de 9 mld. dolari (aprox. 39 mld. lei) la finalul anului trecut, ceea ce ar însemna o creștere de cinci ori. Directorul financiar al companiei, Krishna Rao, ar fi discutat cu investitori, însă „nu au fost stabilite termeni concreți”, iar discuțiile nu echivalează cu lansarea oficială a negocierilor, potrivit informațiilor din articol. De ce contează: cursa pentru capital și „miza IPO” O parte dintre investitori ar urmări să își construiască o poziție înaintea unei posibile listări (IPO) pe care Anthropic ar putea-o avea până la finalul acestui an, conform surselor. În acest context, compania ar putea favoriza investitori instituționali cu experiență atât în piețe private, cât și în piețe publice. Prin comparație, OpenAI a încheiat în martie o finanțare de 122 mld. dolari (aprox. 525 mld. lei), care i-ar fi adus o evaluare de circa 852 mld. dolari (aprox. 3.664 mld. lei), mai notează materialul citat. [...]

Airbnb spune că a ajuns să genereze cu inteligență artificială 60% din codul nou , un semnal că automatizarea începe să schimbe concret productivitatea echipelor de inginerie și modul în care compania își scalează dezvoltarea de software, potrivit TechRadar . Declarațiile au fost făcute de CEO-ul Brian Chesky în cadrul conferinței cu investitorii pentru rezultatele din T1 2026. Ce înseamnă „60% din cod” în termeni operaționali Chesky a spus că, în trimestrul raportat, 60% din codul produs de inginerii Airbnb a fost scris cu ajutorul unor instrumente de inteligență artificială. În același timp, el a prezentat AI ca pe un multiplicator de capacitate pentru echipe: compania folosește AI pentru a construi mai rapid instrumente destinate partenerilor API (parteneri care își gestionează proprietățile prin software-uri diferite și se conectează la platformă prin interfețe de programare). „AI oferă un avantaj uriaș — unde înainte ai fi avut nevoie de o echipă de 20 de ingineri, un inginer poate acum să pornească agenți care fac multă muncă sub supraveghere.” Mesajul central: Airbnb încearcă să accelereze livrarea de software către parteneri, inclusiv în zone unde „înainte nu avea resurse”. AI în suportul clienți: 40% din cazuri fără escaladare Compania a extins utilizarea AI și în asistența pentru utilizatori. Chesky a afirmat că „botul” de suport clienți al Airbnb poate gestiona aproximativ 40% dintre probleme fără a le escalada către un agent uman. În același timp, CEO-ul a recunoscut limitări: instrumentele AI pot avea probleme în felul în care prezintă informația către utilizatorii care contactează suportul, ceea ce poate duce la o experiență mai slabă. De ce nu „merge” încă AI pentru travel și e-commerce, în viziunea CEO-ului Deși Airbnb folosește intens AI în dezvoltare și suport, Chesky a spus că nimeni nu a „rezolvat” încă AI pentru travel sau comerț electronic, criticând modelul actual de chatbot. El a enumerat patru probleme: prea mult text (în timp ce comerțul electronic este „orientat pe imagini”); lipsa „manipulării directe” (trebuie să tastezi în loc să ajustezi, de exemplu, glisoare); comparații slabe (utilizatorul se poate pierde între mii de opțiuni într-un fir de conversație); rezervările sunt adesea „multiplayer” (implică mai multe persoane), în timp ce chatbot-urile sunt în principal „single-player” și nu sunt „native pe hartă”. Context: trendul codului generat de AI și riscul de calitate TechRadar notează că afirmațiile Airbnb se înscriu într-un trend mai larg: CEO-ul Microsoft, Satya Nadella, a spus recent că aproape o treime din codul companiei este produs în acest fel (mențiune în material, cu trimitere la un articol TechRadar). Publicația adaugă însă că astfel de cifre trebuie privite cu prudență și citează o cercetare (menționată tot de TechRadar) potrivit căreia codul generat de AI produce de 1,7 ori mai multe probleme decât cel scris de oameni, ceea ce poate însemna revizuiri mai lungi și riscul ca mai multe erori să ajungă în produsul final. Pentru companii, miza devine un echilibru dificil: câștig de viteză și volum la livrare, dar cu presiune suplimentară pe controlul calității și pe procesele de verificare. [...]