Știri
Știri din categoria Inteligență artificială

Microsoft a lansat trei modele mari de inteligență artificială potrivit HotNews.ro, într-o mișcare care indică intenția companiei de a-și extinde propriul ecosistem de modele multimodale (capabile să lucreze cu mai multe tipuri de date, precum text, voce și imagini) și de a concura mai direct cu rivalii din piață.
Lansarea vine în contextul în care Microsoft are o relație strânsă cu compania din spatele ChatGPT, dar continuă să dezvolte și modele proprii, notează TechCrunch. Noile modele anunțate se numesc MAI-Transcribe-1, MAI-Voice-1 și MAI-Image-2.
Pe scurt, Microsoft descrie astfel rolul fiecărui model:
Modelele au fost dezvoltate de echipa MAI Superintelligence, condusă de Mustafa Suleyman, CEO al Microsoft AI, venit în companie în 2024. Microsoft își consolidează, în paralel, infrastructura de calcul necesară pentru antrenarea și rularea unor modele mai versatile, iar Suleyman a spus că firma a început din octombrie să folosească un „cluster” (grup) de cipuri Nvidia GB200 și că își va crește treptat capacitatea în următoarele 12–18 luni, transmite Bloomberg.
În plan comercial, Microsoft a investit 13 miliarde de dolari în laboratorul de cercetare AI și integrează modelele în produse printr-un parteneriat multianual, ceea ce sugerează o accelerare a strategiei de a împacheta capabilitățile AI direct în aplicațiile folosite la scară largă, inclusiv în zona de colaborare și productivitate.
Recomandate

OpenAI a închis cea mai mare rundă de finanțare din istoria sa , atrăgând 122 mld. dolari la o evaluare de 852 mld. dolari . Tranzacția vine pe fondul așteptărilor din piață că firma ar putea ajunge în 2026 pe piețele publice, iar capitalul nou ar urma să întărească rezervele financiare într-un moment de cheltuieli ridicate pentru infrastructură și talente în inteligență artificială. Runda este condusă de SoftBank împreună cu fondul Andreessen Horowitz , D.E. Shaw Ventures, MGX, TPG și T. Rowe Price, iar Amazon, Nvidia și Microsoft se numără printre investitorii participanți. Publicația mai notează că aproximativ 3 mld. dolari ar proveni de la investitori individuali prin canale bancare. În paralel, OpenAI a anunțat extinderea unei facilități de credit revolving la circa 4,7 mld. dolari, cu sprijinul mai multor bănci globale. Compania spune că linia de credit nu a fost utilizată, iar mesajul transmis este că măsura urmărește flexibilitate financiară în etapa de investiții în putere de calcul și infrastructură, nu acoperirea unui deficit de lichiditate pe termen scurt. Din comunicarea asociată finanțării, OpenAI a publicat și indicatori operaționali și de venituri, într-un registru care, potrivit sursei, seamănă mai degrabă cu o schiță de prospect pentru investitori decât cu o postare obișnuită de blog. Compania afirmă că veniturile lunare au ajuns la 2 mld. dolari și își compară ritmul de creștere cu cel al unor giganți tehnologici. „În această etapă, ritmul nostru de creștere a veniturilor este de patru ori mai mare decât cel al Google, Meta și al altor giganți care au definit era internetului și a mobilului.” Datele prezentate de companie includ și evoluții de produs și monetizare, inclusiv o zonă de publicitate aflată în test, precum și o pondere în creștere a veniturilor din segmentul corporate. OpenAI indică și o accelerare a utilizării funcțiilor de căutare și o extindere a bazei de utilizatori activi și abonați plătitori. Elementele-cheie menționate în materialul sursă sunt: Evaluare: 852 mld. dolari; finanțare atrasă: 122 mld. dolari. Investiții vizate: achiziții de cipuri pentru inteligență artificială, extinderea centrelor de date, recrutare de specialiști. Conducerea rundei: SoftBank, Andreessen Horowitz, D.E. Shaw Ventures, MGX, TPG, T. Rowe Price; participanți: Amazon, Nvidia, Microsoft. Indicatori raportați: venituri lunare de 2 mld. dolari; peste 900 mil. utilizatori activi săptămânal pe zona de consum; peste 50 mil. abonați plătitori; utilizarea căutării aproape s-a dublat în ultimul an; pilotul de publicitate ar fi depășit 100 mil. dolari venit anual recurent în mai puțin de șase săptămâni. Structura veniturilor: segmentul enterprise ar reprezenta 40% (de la circa 30% anul trecut), cu așteptarea de a ajunge la paritate cu zona de consum până la final de 2026. În ansamblu, mesajul transmis de companie prin această rundă și prin modul de prezentare a datelor este că OpenAI își pregătește narativul pentru o eventuală listare, iar finanțarea are rol atât de capitalizare, cât și de ancorare a așteptărilor pieței privind un potențial IPO. [...]

OLX lansează AutoGPT, un chatbot AI pentru căutarea mașinilor, disponibil și în România noul instrument, dezvoltat în parteneriat cu OpenAI , marchează extinderea utilizării inteligenței artificiale în platformele de anunțuri auto operate de grup și promite să simplifice modul în care utilizatorii își aleg vehiculele. AutoGPT funcționează ca un asistent conversațional care permite căutări în limbaj natural, astfel încât utilizatorii pot descrie direct ce tip de mașină își doresc, iar sistemul generează rapid recomandări personalizate. Instrumentul oferă în câteva secunde o listă scurtă de opțiuni, însoțite de informații relevante: caracteristici esențiale ale vehiculelor; tendințe privind valoarea de revânzare; diferențe regionale de preț; istoric verificat al mașinilor, pe baza datelor OLX. AutoGPT este deja disponibil pe platforma Otomoto din Polonia, urmând să fie lansat și pe LaCentrale (Franța), Autovit.ro (România) și Standvirtual (Portugalia). Accesul se face prin ChatGPT, în secțiunea dedicată aplicațiilor. Noul produs vine în completarea AutoIQ, un serviciu dedicat dealerilor auto lansat anterior de OLX, și face parte dintr-o strategie mai amplă a grupului de integrare a inteligenței artificiale în serviciile sale. OLX Group, cu sediul în Amsterdam și deținut de Prosus, operează mai multe platforme cunoscute, inclusiv OLX, Autovit.ro, Storia și Property24. Inițiativa reflectă direcția Prosus de a accelera adoptarea AI în companiile din portofoliu, inclusiv prin parteneriate tehnologice menite să extindă utilizarea acestor soluții la nivel global, inclusiv în Europa. [...]

Google a anunțat Gemma 4, o nouă familie de modele AI open-source cu licență Apache 2.0 , potrivit Neowin . Compania spune că modelele sunt construite pe aceeași bază de cercetare ca Gemini 3 (modelele proprietare ale Google), dar, spre deosebire de acestea, Gemma 4 este publicat ca software cu cod sursă deschis și poate fi folosit comercial fără restricții, printr-o licență permisivă. Un element central al generației Gemma 4 este orientarea către „fluxuri de lucru agentice” (agentic workflows), adică scenarii în care un model poate acționa ca un „agent” care execută sarcini și interacționează cu servicii externe. Toate modelele Gemma 4 includ suport nativ pentru apelarea de funcții (function calling), ieșire JSON structurată și instrucțiuni de sistem, ceea ce ar permite dezvoltatorilor să construiască agenți autonomi care rulează local și pot apela API-uri externe. Google își susține poziționarea și cu rezultate din clasamente publice. Conform Google , varianta Gemma 4 „31B Dense” este pe locul 3 între modelele deschise în clasamentul Arena AI, iar modelul „26B” este pe locul 6, compania afirmând că acesta din urmă depășește competitori de până la 20 de ori mai mari ca dimensiune. Tot Google precizează că „greutățile” necuantizate (parametrii modelului, păstrați la precizie mai mare) pentru 26B și 31B încap pe un singur GPU NVIDIA H100 de 80 GB. Pentru dezvoltare locală, articolul notează și existența unui model 26B de tip „Mixture of Experts” (MoE), optimizat pentru latență. În acest tip de arhitectură, nu toți parametrii sunt folosiți la fiecare răspuns; în cazul de față, sunt activați 3,8 miliarde de parametri în timpul inferenței, ceea ce ar crește viteza de generare a tokenilor și ar ajuta la rularea unor asistenți de programare pe plăci grafice de consum. Pe partea de capabilități, Google pune accent și pe multimodalitate: familia Gemma 4 poate procesa nativ imagini și video la rezoluție înaltă, iar modelele „E2B” și „E4B” pentru dispozitive de tip edge (rulare aproape de utilizator, pe hardware local) adaugă intrare audio pentru recunoaștere vocală cu latență foarte mică. În plus, aceste modele vin cu o „fereastră de context” (context window) de 128.000 de tokeni pentru edge și până la 256.000 pentru variantele 26B/31B, adică pot păstra mai multă informație relevantă în aceeași sesiune. Din perspectiva pieței, Google își diferențiază Gemma 4 de iterațiile anterioare, care aveau termeni de utilizare mai restrictivi și erau contestate ca „open-source” în sens strict. Neowin consemnează că, prin licența Apache 2.0 fără limitări comerciale, Google intră mai direct în competiție cu modelele Llama ale Meta, care folosesc, de asemenea, o licențiere de tip Apache. În zona de distribuție și integrare, Gemma 4 este deja compatibil cu platforme precum Hugging Face, Ollama și vLLM și beneficiază de optimizări hardware de la NVIDIA, AMD, Qualcomm și MediaTek. Pentru dezvoltatorii de aplicații mobile, modelele pot fi testate în AICore Developer Preview, Google indicând și compatibilitate viitoare cu Gemini Nano 4. Principalele noutăți menționate pentru Gemma 4: licență Apache 2.0 permisivă, cu utilizare comercială fără restricții; suport nativ pentru function calling, JSON structurat și instrucțiuni de sistem (orientare către agenți AI); modele 26B/31B care, potrivit Google, încap ca „greutăți” necuantizate pe un GPU NVIDIA H100 de 80 GB; variantă 26B MoE optimizată pentru latență, cu 3,8 miliarde de parametri activați la inferență; multimodalitate (imagini/video), plus intrare audio pe modelele edge E2B/E4B; ferestre de context de 128K tokeni (edge) și până la 256K (26B/31B). [...]

Astera Labs a anunțat că s-a alăturat Arm Total Design pentru a accelera soluțiile personalizate de infrastructură AI. Potrivit Astera Labs , această colaborare vizează cerințele tot mai mari ale infrastructurii la scară de rack, prin arhitecturi de chiplet personalizate pentru conectivitate. Astera Labs, cunoscută pentru soluțiile sale de conectivitate bazate pe semiconductori, va combina ecosistemul său Intelligent Connectivity Platform cu Arm Neoverse Compute Subsystems (CSS). Această integrare va permite dezvoltarea de soluții chiplet care să răspundă cerințelor crescânde ale infrastructurii AI personalizate. De asemenea, abordarea modulară propusă va facilita o lansare mai rapidă pe piață, prin componente validate și reutilizabile. Importanța arhitecturilor chiplet Arhitecturile chiplet devin tot mai relevante pe măsură ce sarcinile de lucru AI necesită capacități de procesare specializate. Designurile tradiționale de cipuri monolitice întâmpină limitări de randament și costuri la noduri de proces avansate. Astfel, arhitecturile chiplet permit dezvoltatorilor de platforme AI să combine unități de procesare diverse, inclusiv subsisteme de calcul Arm, alături de componente de memorie, rețea și accelerare. Astera Labs va oferi capabilități multi-protocol prin platforma sa de conectivitate inteligentă, incluzând soluții de conectivitate PCIe, Ethernet, CXL și UALink. Acestea vor permite clienților să construiască infrastructuri AI personalizate, cu conectivitate validată și interoperabilă încă din prima zi. Colaborarea cu Arm și beneficiile sale Colaborarea cu Arm va combina expertiza în subsisteme de calcul cu leadership-ul Astera Labs în conectivitate. Aceasta are ca scop accelerarea timpului de lansare pe piață și suportul pentru platforme bazate pe standarde deschise, care valorifică inovația largă și lanțurile de aprovizionare multi-vendor. „Evoluția către infrastructura AI la scară de rack necesită soluții personalizate dezvoltate în cadrul unor ecosisteme deschise, iar colaborarea noastră cu Arm exemplifică această abordare,” a declarat Sanjay Gajendra, președintele și directorul operațional al Astera Labs. Mohamed Awad, vicepreședinte senior și director general al Arm, a subliniat importanța conectivității în realizarea potențialului complet al sistemelor integrate și în satisfacerea cerințelor de putere și performanță ale AI. Perspective și provocări Prin Arm Total Design, clienții vor avea acces la un ecosistem cuprinzător care combină expertiza în conectivitate a Astera Labs cu subsistemele de calcul ale Arm. Aceasta poziționează companiile pentru a profita de piața în expansiune rapidă a infrastructurii AI personalizate. Cu toate acestea, există riscuri și incertitudini legate de succesul combinării platformei de conectivitate a Astera Labs cu produsele Neoverse CSS ale Arm. Printre acestea se numără provocările tehnologice, condițiile macroeconomice și restricțiile de reglementare, care ar putea afecta rezultatele așteptate ale colaborării. [...]

AMD a anunțat că evenimentul „Advancing AI 2026” va avea loc pe 22-23 iulie , potrivit Wccftech . Conferința este programată la Moscone Center din San Francisco și va include un discurs principal susținut de directoarea generală a companiei, Dr. Lisa Su, alături de prezentări ale unor executivi AMD și invitați din ecosistem. Evenimentul este prezentat de AMD drept întâlnirea anuală a comunității globale de inteligență artificială, unde dezvoltatori, clienți și parteneri discută infrastructura, arhitectura și instrumentele de dezvoltare pentru implementarea și scalarea sistemelor de AI în mediul de întreprindere și în cloud. Publicația amintește că, la ediția anterioară, AMD a folosit scena „Advancing AI” pentru a prezenta acceleratoarele din seria MI350, platforma software ROCm 7 (ecosistemul AMD pentru dezvoltare și rulare de aplicații AI pe hardware-ul companiei) și un prim indiciu despre rack-ul Helios, care ar urma să includă procesoare EPYC Venice („Zen 6”) și infrastructură Pensando. Pentru 2026, Wccftech anticipează că AMD va pune accent pe tehnologiile de AI pentru segmentul enterprise, inclusiv acceleratoarele Instinct din seria MI450 și procesoarele EPYC Venice („Zen 6”), despre care compania a discutat deja în cadrul unui eveniment pentru analiști financiari. În acest context, publicația sugerează că AMD ar putea folosi conferința nu doar pentru a detalia planurile de produs pentru 2026, ci și pentru a oferi indicii despre generațiile următoare. În plus, articolul leagă calendarul „Advancing AI 2026” de Computex 2026, care are loc cu puțin peste o lună înainte, unde AMD ar putea prezenta noutăți pentru piața de consum, inclusiv un posibil prim indiciu despre viitoarea generație de procesoare Ryzen și actualizări pentru laptopuri. Detaliile oficiale despre eveniment sunt disponibile și pe site-ul AMD, menționează Wccftech. [...]

Nvidia investește 2 miliarde de dolari în Marvell Technology pentru a îmbunătăți tehnologia de rețea care conectează cipurile sale pentru inteligență artificială (AI) în centre de date tot mai mari, potrivit Ziarul Financiar , care citează Financial Times. Cele două companii au anunțat că vor colabora pe zona de „siliciu fotonic” (tehnologie care folosește lumina pentru a transmite date în interiorul echipamentelor), într-un demers de modernizare a centrelor de date utilizate pentru AI. Acordul dintre Nvidia și Marvell ar putea facilita și integrarea cipurilor AI personalizate, într-un context în care tot mai multe companii mari încearcă să-și proiecteze propriile procesoare specializate, ca alternativă la unitățile de procesare grafică (GPU) de uz general ale Nvidia. Marvell lucrează deja cu giganți tehnologici americani, inclusiv Amazon, pentru proiectarea de cipuri dedicate inteligenței artificiale. Companiile susțin că parteneriatul va permite „integrarea fără probleme” între aceste cipuri personalizate și GPU-urile, sistemele de rețea și de stocare ale Nvidia. Miza pentru Nvidia este extinderea dincolo de poziția dominantă în procesoare AI către o ofertă mai largă, de tip platformă, pentru centrele de date dedicate inteligenței artificiale, ceea ce i-ar întări rolul în infrastructura care susține competiția de miliarde de dolari dintre marile companii tehnologice pentru controlul pieței AI. [...]