Știri
Știri din categoria Inteligență artificială

Google își condiționează o investiție totală de până la 40 mld. dolari (aprox. 184 mld. lei) în Anthropic de ținte de performanță, într-o mișcare care ar putea consolida finanțarea pe termen lung a unuia dintre cei mai importanți dezvoltatori de inteligență artificială, potrivit Mediafax.
Google ar urma să investească imediat 10 miliarde de dolari (aprox. 46 mld. lei) în Anthropic, iar alte 30 de miliarde de dolari (aprox. 138 mld. lei) ar putea fi alocate ulterior, dacă startup-ul îndeplinește anumite obiective de performanță. Anthropic a transmis că angajamentul de 10 miliarde de dolari este făcut la o evaluare de 350 de miliarde de dolari, aceeași ca într-o rundă de finanțare din februarie, fără a include fondurile atrase recent, potrivit Bloomberg.
Conform informațiilor prezentate, structura finanțării are două componente:
În paralel, Anthropic a atras recent încă 5 miliarde de dolari de la Amazon și „ar putea primi” alte 20 de miliarde de dolari în viitor, potrivit aceleiași surse.
Anthropic a crescut rapid, în special datorită produsului Claude Code, descris ca un instrument de inteligență artificială care îi ajută pe programatori să lucreze mai eficient. În acest context, condiționarea unei părți mari din investiție de indicatori de performanță sugerează o orientare mai strictă către rezultate măsurabile, nu doar către promisiuni tehnologice.
Compania a fost fondată în 2021 de Dario Amodei, fost cercetător la Google, și ia în calcul o posibilă listare la bursă.
Recomandate

Google mută retușul facial direct în Google Photos , reducând nevoia de aplicații terțe și schimbând așteptările privind „autenticitatea” imaginilor distribuite, potrivit Zonait . Actualizarea adaugă în meniul de editare instrumente bazate pe inteligență artificială pentru ajustări rapide ale trăsăturilor faciale, o zonă unde Google Photos „rămăsese” în urma opțiunilor populare din TikTok sau Instagram. Miza operațională pentru Google este păstrarea utilizatorilor în propria aplicație: dacă fotografiile ajung să fie exportate în alte platforme pentru editare, compania pierde timp de utilizare și, implicit, controlul asupra experienței. Ce se schimbă în editarea din Google Photos Google spune că noile opțiuni sunt gândite pentru „mici îmbunătățiri”, astfel încât fotografiile să reflecte cum se simt utilizatorii în momentul respectiv. În practică, instrumentele vizează intervenții estetice care pot altera percepția asupra unei imagini, mai ales când fotografia este partajată cu persoane care nu cunosc subiectul. Lista de instrumente menționată în material include: Heal (corectarea unor zone/imperfecțiuni) Smooth (netezirea pielii) Under eyes (zona de sub ochi) Irises (irisul ochilor) Teeth (dinți) Eyebrows (sprâncene) Lips (buze) Fiecare instrument are un control al intensității, iar utilizatorul poate selecta o față din imagine și aplica ajustarea la nivelul dorit. Implementare: întâi pe Android , procesare pe serverele Google Funcțiile sunt implementate treptat, începând cu aplicația de Android. Un detaliu important este că procesarea ar urma să fie făcută pe serverele Google, ceea ce înseamnă că nu este necesar un telefon „sofisticat” pentru a rula aceste editări. Condițiile minime menționate sunt Android 9.0 și 4 GB RAM. Pentru iPhone, Google nu indică un calendar, însă materialul notează că opțiunile ar putea ajunge „destul de curând”, având în vedere importanța utilizatorilor iOS pentru companie. [...]

Cipurile TPU ale Google au ajuns la 121 exaflopși, o miză directă pentru costul și viteza rulării modelelor AI : potrivit Google Cloud , cea mai nouă generație de Tensor Processing Units (TPU) poate procesa 121 exaflopși putere de calcul și vine cu o lățime de bandă dublă față de generațiile anterioare, într-un moment în care sarcinile de lucru pentru inteligență artificială devin tot mai „grele”. TPU-urile sunt cipuri specializate, proiectate „pentru un singur job”: efectuarea de calcule matematice la scară foarte mare, necesare pentru antrenarea și rularea modelelor AI. Google spune că le-a proiectat „de la zero” în urmă cu mai bine de un deceniu, tocmai pentru a rula astfel de modele. De ce contează pentru companii: performanță mai mare pe infrastructură dedicată AI În practică, creșterea de putere de calcul și de lățime de bandă are impact operațional: poate reduce timpii de procesare pentru sarcini AI și poate susține modele mai mari sau mai multe cereri simultane, în funcție de modul în care sunt folosite aceste resurse în infrastructură. Google își poziționează TPU-urile ca infrastructură din spatele produselor sale de zi cu zi, subliniind că aceste cipuri sunt construite pentru a accelera calculele care stau la baza funcționării modelelor AI. Ce a comunicat concret Google Din informațiile publicate, elementele tehnice punctuale sunt: TPU = „Tensor Processing Unit”, cip personalizat pentru calcule matematice la scară mare; proiectate de Google de peste un deceniu pentru rularea modelelor AI; cea mai nouă generație: 121 exaflopși și lățime de bandă dublă față de generațiile anterioare. Materialul include și un video explicativ despre modul în care funcționează TPU-urile, fără alte detalii financiare sau de disponibilitate comercială în textul extras. [...]

Anthropic a urcat la o evaluare de aproximativ 1 trilion de dolari (aprox. 4,6 trilioane lei) în tranzacții pe piața secundară , un nivel care o plasează peste OpenAI și arată cât de repede se pot repoziționa așteptările investitorilor în AI, potrivit Mobilissimo . Evaluarea este indicată de platforme precum Forge Global și reflectă tranzacții între investitori pe piețe private, nu o cotație oficială de bursă. Anthropic nu este listată, iar interesul ridicat se traduce prin încercări ale investitorilor de a cumpăra acțiuni de la angajați sau investitori timpurii, într-un context cu puțini vânzători. Ce alimentează saltul de evaluare Creșterea este pusă pe seama cererii foarte mari pentru acțiunile companiei, susținută de interesul pentru produsele sale de inteligență artificială, în special asistentul de programare Claude. În unele cazuri, ofertele ar depăși chiar 1,1 trilioane de dolari (aprox. 5,1 trilioane lei), iar tranzacțiile s-ar închide rapid din cauza disponibilității reduse de acțiuni la vânzare. Un element important de context: în urmă cu doar trei luni, Anthropic era evaluată la aproximativ 380 de miliarde de dolari (aprox. 1,7 trilioane lei) după o rundă de finanțare. Potrivit unor investitori citați în material, pe lângă performanțele companiei, contribuie și fenomenul FOMO („teama de a rata oportunitatea”), care poate împinge prețurile în sus chiar și „indiferent de preț”. Efectul asupra competiției cu OpenAI În paralel, interesul pentru acțiunile OpenAI ar fi scăzut, iar unele tranzacții s-ar fi realizat sub evaluarea anterioară, menționată la circa 852 de miliarde de dolari (aprox. 3,9 trilioane lei). Schimbarea de sentiment sugerează o competiție mai dură în sectorul AI, în care percepția investitorilor poate muta rapid „clasamentul” companiilor, chiar și fără schimbări fundamentale majore. Materialul are ca sursă secundară Business Insider, menționat de Mobilissimo. [...]

Parteneriatul Apple–Google intră în faza operațională: Siri va rula pe Gemini , iar mutarea poate schimba rapid capabilitățile „Apple Intelligence” încă din acest an, cu implicații directe asupra infrastructurii cloud folosite de Apple, potrivit GSMArena . Confirmarea vine de la Google, făcută pe scenă la conferința Cloud Next 2026 din Las Vegas. Thomas Kurian, șeful Google Cloud, a spus că Google colaborează cu Apple „ca furnizor cloud preferat” pentru a dezvolta „următoarea generație de Apple Foundation Models” bazate pe tehnologia Gemini, iar aceste modele „vor alimenta viitoare funcții Apple Intelligence, inclusiv un Siri mai personalizat, care va veni mai târziu în acest an”. Ce se știe despre calendar Informația completează confirmarea anterioară a Apple, care anunțase încă din ianuarie că modelele Gemini vor sta la baza următoarei evoluții Apple Intelligence. Potrivit publicației, Apple ar urma să prezinte noutățile în iunie, la Worldwide Developers Conference (WWDC) , iar lansarea către utilizatori este așteptată în toamnă, odată cu iOS 27 și iPadOS 27. De ce contează: unde va rula, de fapt, AI-ul Rămâne neclar dacă modelele Gemini folosite de Apple vor rula pe serverele Google sau prin Apple Private Cloud Compute (infrastructura proprie Apple pentru procesare în cloud cu accent pe confidențialitate). Această decizie are consecințe practice pentru: dependența operațională de un furnizor extern de cloud (Google) versus rulare în cloud-ul Apple; controlul asupra datelor și procesării , în funcție de arhitectura aleasă; viteza de livrare și scalarea funcțiilor de inteligență artificială în ecosistemul Apple. Context: Siri a fost întârziat din cauza acurateții Siri „revizuit” era inițial așteptat anul trecut, apoi a fost amânat pentru această primăvară, însă Apple ar fi întâmpinat probleme de acuratețe. Clarificările privind implementarea și detaliile tehnice sunt așteptate la începutul lui iunie, odată cu WWDC. [...]

Google își extinde oferta de infrastructură AI către un model „hibrid” (TPU propriu + GPU NVIDIA), prin AI Hypercomputer , o arhitectură de centru de date care combină TPU-uri de generația a 8-a, procesoare Axion și viitoarele acceleratoare NVIDIA Rubin, potrivit Wccftech . Miza operațională este flexibilitatea: clienții pot rula antrenare și inferență (execuția modelului în producție) pe hardware diferit, în același „pachet” de infrastructură, ceea ce poate reduce costul total de operare și timpul de implementare pentru proiecte AI la scară mare. Ce este AI Hypercomputer și de ce contează pentru clienți AI Hypercomputer este prezentat ca un ansamblu integrat de hardware (calcul, stocare, rețea) și software deschis (framework-uri și motoare de inferență), construit pentru „AI agentic” – sisteme care pot executa sarcini în lanț, cu un grad mai mare de autonomie, și care cer atât capacitate mare de antrenare, cât și latență redusă în producție. Din perspectiva utilizatorilor de cloud, elementul practic este că Google încearcă să ofere o infrastructură „cap-coadă” pentru AI, în care: TPU-urile proprii acoperă antrenarea și inferența pe platforma Google; GPU-urile NVIDIA rămân o opțiune majoră pentru clienții care preferă ecosistemul NVIDIA; rețeaua și stocarea sunt optimizate pentru a susține clustere foarte mari. TPU 8t și TPU 8i: două cipuri, două sarcini Google își împarte TPU-urile de generația a 8-a în două variante: TPU 8t (antrenare) : este descris ca un cip orientat spre antrenarea modelelor mari, cu o capacitate totală de calcul FP4 de 121 exaflopși per „pod” , menționată ca fiind de 2,84 ori peste Ironwood. Un „superpod” TPU 8t poate scala la 9.600 de cipuri și 2 PB (petabytes) de memorie partajată cu lățime mare de bandă. TPU 8i (inferință) : orientat spre rularea modelelor în producție, cu 288 GB HBM (memorie cu lățime mare de bandă) și 384 MB SRAM pe cip , adică o creștere de 3 ori față de generația anterioară. Pentru calcul, este indicată o capacitate FP8 de 331,8 exaflopși per pod , menționată ca fiind de 6,74 ori peste Ironwood. Publicația notează și îmbunătățiri „performanță per dolar” față de Ironwood („TPUv7”): 2,7 ori pentru TPU 8t în antrenare la scară mare și +80% pentru TPU 8i în inferență cu latență redusă (ținte MoE – „Mixture of Experts”, o arhitectură de model). Ambele ar livra și de două ori mai bună „performanță per watt”, relevantă pentru costul total de operare (TCO). Rețea, stocare și răcire: infrastructura din jurul cipurilor Pentru scalare, Google introduce Virgo Network , o rețea optimizată pentru AI, menită să conecteze atât sisteme NVIDIA Vera Rubin NVL72, cât și superpoduri TPU 8t în clustere foarte mari. Pe partea de stocare, sunt menționate: Managed Lustre cu 10 TB/s către A5X sau TPU 8t prin RDMA; Rapid Storage, cu un salt de la 6 TB/s la 15 TB/s . La nivel fizic, TPU-urile sunt proiectate să funcționeze cu răcire cu lichid de generația a 4-a , pentru densități de calcul care nu ar fi sustenabile cu răcire pe aer. Unde intră NVIDIA Rubin și Axion în ecuație Google afirmă că va fi „printre primii” furnizori care oferă NVIDIA Vera Rubin NVL72 , alături de instanțe bazate pe Blackwell și Hopper deja disponibile. În paralel, compania își împinge propriile procesoare Axion (Arm), inclusiv instanțele N4A, despre care sursa spune că ar livra 100% mai bun raport preț–performanță decât alternative x86 comparabile. Cine ar urma să folosească platforma Wccftech enumeră câțiva clienți pentru AI Hypercomputer, între care US DOE (Departamentul Energiei al SUA) , Boston Dynamics , Citadel Securities , Thinking Machine Labs și Axia Energy . Materialul nu oferă detalii despre dimensiunea contractelor sau calendarul implementărilor. [...]

Anthropic a urcat la o evaluare de circa 1.000 de miliarde de dolari (aprox. 4.600 de miliarde de lei) pe piețele secundare , depășind OpenAI și alimentând o competiție acută între investitori pentru puținele acțiuni disponibile, potrivit Antena 3 . Mișcarea contează mai ales prin efectul de piață: în lipsa unei listări la bursă, prețul este împins în sus de tranzacții indirecte, iar accesul la acțiuni devine o problemă de lichiditate, nu doar de evaluare. Pe platforma Forge Global , descrisă drept una dintre cele mai importante piețe pentru acțiuni nelistate, Anthropic este evaluată la aproximativ 1.000 de miliarde de dolari, în timp ce OpenAI ar fi în jurul a 880 de miliarde de dolari (aprox. 4.050 de miliarde de lei). Antena 3 notează că, deși ultima rundă de finanțare a OpenAI o evalua la 852 de miliarde de dolari, pe piețele secundare compania este tranzacționată la valori mai mici decât Anthropic. De ce se „blochează” piața: acțiuni puține, cerere mare Pentru că nici Anthropic, nici OpenAI nu sunt listate, investitorii pot cumpăra acțiuni doar indirect, de la angajați sau investitori timpurii care aleg să vândă. În acest context, presiunea pe preț vine dintr-un dezechilibru între cerere și ofertă, iar Antena 3 menționează că niciuna dintre companii nu a comentat evoluțiile. Publicația relatează și despre nivelul ofertelor apărute în piață: un acționar „ar fi” scos la vânzare acțiuni la o evaluare de 1.150 de miliarde de dolari, iar un fond important „ar fi” oferit 1.050 de miliarde de dolari pentru a cumpăra. Sunt informații prezentate ca neconfirmate public (formulare de tip „ar fi”). Ritmul creșterii și motorul: veniturile și produsele AI Cererea pentru acțiunile Anthropic ar fi explodat în doar câteva luni: în urmă cu trei luni, compania era evaluată la 380 de miliarde de dolari, după o rundă de finanțare, potrivit Antena 3. Creșterea rapidă a veniturilor și succesul produselor sale de inteligență artificială, în special asistentul de programare Claude, sunt indicate drept principalele motive pentru interesul investitorilor. „A fost o creștere spectaculoasă pentru Anthropic. Toată lumea vrea să prindă un loc în această zonă a inteligenței artificiale, iar acum Anthropic este în față”, spune Glen Anderson, CEO al Rainmaker Securities. Același Anderson descrie o piață extrem de tensionată, în care ofertele apar și dispar rapid, pe fondul lipsei de vânzători. „Apar oferte și dispar în aceeași zi, pentru că sunt cumpărate imediat. Aproape că nu mai există vânzători”, spune Anderson. Efectul asupra OpenAI: interes mai slab pe secundar În paralel, interesul pentru OpenAI este descris ca fiind mai redus în tranzacțiile de pe piețele secundare. „Piața pentru OpenAI este destul de calmă acum. Interesul s-a mutat clar spre Anthropic”, mai spune Anderson. Pentru investitori, mesajul implicit este că „prețul” acțiunilor nelistate poate ajunge să fie dictat de raritatea pachetelor disponibile și de teama de a rata o oportunitate, nu doar de reperele din rundele oficiale de finanțare. [...]