Știri
Știri din categoria Inteligență artificială

Inteligența artificială ar putea consolida rolul iPhone ca „hub” de date personale, nu să-l înlocuiască, susține CEO-ul Perplexity, Aravind Srinivas, într-o intervenție citată de CNMO. Ideea centrală: pe măsură ce AI devine mai capabilă și are nevoie de „context real”, valoarea datelor personale stocate pe telefon crește, iar dispozitivul care le găzduiește devine mai greu de substituit.
Srinivas folosește metafora „pașaportului digital” pentru a descrie iPhone-ul: un loc unde se adună plăți, identitate, date de sănătate, comunicare, fotografii și amintiri private. În opinia sa, acest tip de date, aflate deja pe dispozitiv, reprezintă un avantaj pe care companii precum OpenAI sau Google nu îl au în aceeași formă, iar evoluția AI amplifică importanța acestui „depozit” personal.
În discuția despre percepția că Apple ar fi în urma OpenAI și Google în cursa AI, Srinivas nu neagă diferența, dar mută accentul pe trei elemente: hardware, confidențialitate și controlul datelor. El indică Apple Silicon drept un „activ subestimat”, care ar deveni tot mai relevant dacă sarcinile de lucru ale AI (workload-uri) se mută treptat local, pe dispozitiv, în loc să fie rulate pe servere.
În acest scenariu, „buclele” de lucru ale unor agenți AI (sisteme care execută sarcini în lanț, semi-autonom) ar ajunge să ruleze local și să se lege direct de resursele din telefon: fișiere, aplicații, mesaje, e-mail, notițe și fotografii. Implicația operațională este că avantajul nu ar mai sta doar în modelul AI „din cloud”, ci și în integrarea strânsă dintre cip, sistemul de operare și datele personale.
O a doua linie de argumentație este confidențialitatea. Srinivas spune că, pentru a oferi ajutor mai „profund”, AI va avea nevoie de acces la date tot mai sensibile, iar reputația Apple construită în jurul protecției vieții private ar putea deveni un avantaj „invizibil” în adoptarea unor astfel de funcții.
El menționează și perspectiva ca John Ternus să devină viitor CEO Apple, apreciind contribuția acestuia în tranziția către Apple Silicon și sugerând că investițiile viitoare în cipuri (inclusiv la 2 nanometri) ar întări poziționarea Apple pentru rularea locală a unor agenți AI „mai privați”.
CNMO notează și o rezervă prezentă în presa internațională: deși Apple are o integrare puternică hardware–software–date personale, compania nu a prezentat până acum un model AI de ultimă generație care să concureze direct cu OpenAI sau Google, iar Siri rămâne în urmă față de noile sisteme conversaționale.
În esență, miza nu este dacă AI „omoară” iPhone-ul, ci dacă Apple poate transforma avantajele de dispozitiv, date și confidențialitate într-o ofertă AI competitivă, pe măsură ce tot mai multe funcții se mută din cloud pe telefon.
Recomandate

Meta taie circa 10% din personal pentru a finanța investițiile masive în infrastructura de inteligență artificială , într-o mișcare de eficientizare care vine pe fondul creșterii accelerate a cheltuielilor de capital ale companiei, potrivit CNN . Compania a transmis că va concedia aproximativ 10% din forța de muncă, adică în jur de 8.000 de oameni. În paralel, Meta închide circa 6.000 de posturi deschise, a scris Janelle Gale, directorul de resurse umane, într-un memo publicat de Bloomberg și confirmat ulterior de Meta pentru CNN. Concedierile urmează să intre în vigoare pe 20 mai. „Facem asta ca parte a efortului nostru continuu de a conduce compania mai eficient și pentru a ne permite să compensăm celelalte investiții pe care le facem”, a scris Gale. De ce contează: costurile cu AI urcă, iar Meta caută spațiu în buget Decizia vine în contextul în care Meta, asemenea altor giganți tech, își majorează puternic bugetele pentru AI. Compania a cheltuit 72,2 miliarde de dolari (aprox. 325 miliarde lei) pe cheltuieli de capital în 2025, în principal pentru centre de date și infrastructură necesară AI. Pentru 2026, Meta a indicat în raportarea din ianuarie că se așteaptă ca suma să crească la cel puțin 115 miliarde de dolari (aprox. 518 miliarde lei). CNN notează și că Meta investește în recrutare pentru laboratorul său de „superinteligență” și a cumpărat startup-uri de AI precum Moltbook și Manus, în încercarea de a concura cu OpenAI și alți jucători. Semnal operațional: AI schimbă structura echipelor Mark Zuckerberg a sugerat la începutul anului că investițiile în AI ar putea aduce modificări ale forței de muncă. În conferința cu investitorii din ianuarie, el a numit 2026 „anul în care AI începe să schimbe dramatic felul în care lucrăm”. „Începem să vedem proiecte care înainte necesitau echipe mari, iar acum pot fi realizate de o singură persoană foarte talentată”, a spus Zuckerberg. Ce primesc angajații afectați și reacția pieței Meta a precizat că angajații din SUA afectați vor primi 16 săptămâni de salariu de bază, plus două săptămâni pentru fiecare an de vechime; pachetele internaționale ar urma să fie similare. Pe bursă, acțiunile Meta (META) erau în scădere cu peste 2% joi după-amiază, potrivit CNN. Context: un nou val de reduceri în tech În ultimul an, tot mai multe companii au redus personalul invocând eficiențe aduse de AI. CNN amintește că Amazon a anunțat în ianuarie concedieri de 16.000 de oameni, iar Block a comunicat în februarie o reducere de 40% a forței de muncă (peste 4.000 de persoane), avertizând că vor urma și alte companii. Meta mai făcuse tăieri masive în 2022 și 2023, după creșterile din perioada pandemiei. Anul trecut, compania a spus că va reduce circa 5% dintre angajați, vizați ca „performeri slabi”, cu intenția de a reangaja pentru multe dintre rolurile respective. [...]

DeepSeek a lansat modelul open-source V4, mizând pe eficiență de cost ca avantaj competitiv , într-un moment în care accesul la cipuri avansate și costurile de antrenare rămân o barieră majoră pentru dezvoltarea de inteligență artificială. Potrivit South China Morning Post , compania spune că noul său model fundamental (foundation model) este „competitiv” cu modele americane închise, precum cele ale OpenAI și Google DeepMind. DeepSeek descrie V4 drept un model „cost-eficient” și cu „eficiență de nivel lider mondial”, poziționându-l ca alternativă la modelele proprietare (closed-source), care nu își publică integral codul și detaliile tehnice. În același timp, faptul că V4 este open-source sugerează o strategie de accelerare a adopției prin comunitate și integrare mai ușoară în produse și servicii. Un element important de context este sprijinul anunțat de Huawei , care, potrivit aceleiași surse, a promis „sprijin total” prin noi cipuri. Mesajul indică o încercare de a consolida un lanț tehnologic intern – modele AI plus hardware – într-o perioadă în care competiția globală se poartă tot mai mult pe costuri, eficiență și disponibilitatea infrastructurii de calcul. De ce contează: costul devine o armă în cursa AI Relevanța economică a anunțului ține de faptul că „eficiența” și „cost-eficiența” sunt prezentate ca diferențiatori principali într-o piață dominată de modele foarte scumpe de antrenat și operat. Dacă afirmațiile DeepSeek privind competitivitatea cu OpenAI și Google DeepMind se confirmă în utilizare, V4 ar putea: reduce costul de intrare pentru companii care vor să construiască aplicații pe modele avansate; crește presiunea concurențială asupra furnizorilor de modele închise, printr-o alternativă open-source; accelera adoptarea în ecosisteme care preferă controlul local asupra tehnologiei și datelor. Ce se știe și ce rămâne neclar Articolul notează că DeepSeek „spune” că V4 este competitiv cu modele de top din SUA, însă în fragmentul disponibil nu apar rezultate detaliate de evaluare (benchmark-uri) sau date tehnice care să permită o comparație independentă. În lipsa acestor informații, impactul real va depinde de performanța în implementări concrete și de cât de repede va fi preluat modelul de dezvoltatori și companii. [...]

Parteneriatul Apple–Google intră în faza operațională: Siri va rula pe Gemini , iar mutarea poate schimba rapid capabilitățile „Apple Intelligence” încă din acest an, cu implicații directe asupra infrastructurii cloud folosite de Apple, potrivit GSMArena . Confirmarea vine de la Google, făcută pe scenă la conferința Cloud Next 2026 din Las Vegas. Thomas Kurian, șeful Google Cloud, a spus că Google colaborează cu Apple „ca furnizor cloud preferat” pentru a dezvolta „următoarea generație de Apple Foundation Models” bazate pe tehnologia Gemini, iar aceste modele „vor alimenta viitoare funcții Apple Intelligence, inclusiv un Siri mai personalizat, care va veni mai târziu în acest an”. Ce se știe despre calendar Informația completează confirmarea anterioară a Apple, care anunțase încă din ianuarie că modelele Gemini vor sta la baza următoarei evoluții Apple Intelligence. Potrivit publicației, Apple ar urma să prezinte noutățile în iunie, la Worldwide Developers Conference (WWDC) , iar lansarea către utilizatori este așteptată în toamnă, odată cu iOS 27 și iPadOS 27. De ce contează: unde va rula, de fapt, AI-ul Rămâne neclar dacă modelele Gemini folosite de Apple vor rula pe serverele Google sau prin Apple Private Cloud Compute (infrastructura proprie Apple pentru procesare în cloud cu accent pe confidențialitate). Această decizie are consecințe practice pentru: dependența operațională de un furnizor extern de cloud (Google) versus rulare în cloud-ul Apple; controlul asupra datelor și procesării , în funcție de arhitectura aleasă; viteza de livrare și scalarea funcțiilor de inteligență artificială în ecosistemul Apple. Context: Siri a fost întârziat din cauza acurateții Siri „revizuit” era inițial așteptat anul trecut, apoi a fost amânat pentru această primăvară, însă Apple ar fi întâmpinat probleme de acuratețe. Clarificările privind implementarea și detaliile tehnice sunt așteptate la începutul lui iunie, odată cu WWDC. [...]

OpenAI lansează GPT-5.5 ca model mai eficient pentru lucru și programare , mizând pe reducerea costului operațional (prin folosirea a mai puțini „tokeni”, unități de text procesate) și pe automatizarea unor sarcini mai complexe în ChatGPT și Codex, potrivit The Verge . Compania spune că GPT-5.5 este „cel mai inteligent și cel mai intuitiv de folosit” model al său și îl prezintă ca un pas spre „un nou mod de a face muncă pe un computer”. După GPT-5.4, lansat luna trecută, OpenAI susține că noul model „excelează” la scriere și depanare de cod, cercetare online, realizarea de foi de calcul și documente, inclusiv atunci când trebuie să lucreze „peste” mai multe instrumente. „În loc să gestionezi cu grijă fiecare pas, îi poți da lui GPT-5.5 o sarcină dezordonată, în mai multe părți, și să ai încredere că va planifica, va folosi instrumente, își va verifica munca, va naviga prin ambiguitate și va continua”, potrivit OpenAI. Un element cu impact direct pentru utilizare și costuri este eficiența: OpenAI afirmă că GPT-5.5 poate folosi „semnificativ mai puțini” tokeni pentru a finaliza sarcini în Codex. Compania mai spune că modelul vine cu „cel mai puternic set de măsuri de siguranță de până acum”, fără a detalia în material ce presupun aceste măsuri. Cum va fi disponibil GPT-5.5 GPT-5.5 începe să fie distribuit începând de joi pentru abonamentele ChatGPT Plus , Pro, Business și Enterprise, precum și în Codex. OpenAI mai precizează că GPT-5.5 Pro va ajunge la utilizatorii Pro, Business și Enterprise. Context: competiția pe piața de cod și instrumente pentru companii Lansarea vine într-un moment de competiție accelerată între OpenAI și Anthropic , pe fondul unei curse spre o posibilă listare publică „mai târziu în acest an”, notează publicația. În acest context, ambele companii încearcă să câștige teren pe segmentul de programare asistată de AI și instrumente pentru companii, iar OpenAI ar fi redus recent așa-numitele „side quests” (proiecte secundare) pentru a se concentra pe surse mai mari de venit. Separat, The Verge menționează că apariția GPT-5.5 are loc cu câteva zile înaintea procesului dintre Elon Musk și executivi OpenAI Sam Altman și Greg Brockman, care ar urma să înceapă luni, într-o instanță federală din Oakland, California. [...]

Google își extinde oferta de infrastructură AI către un model „hibrid” (TPU propriu + GPU NVIDIA), prin AI Hypercomputer , o arhitectură de centru de date care combină TPU-uri de generația a 8-a, procesoare Axion și viitoarele acceleratoare NVIDIA Rubin, potrivit Wccftech . Miza operațională este flexibilitatea: clienții pot rula antrenare și inferență (execuția modelului în producție) pe hardware diferit, în același „pachet” de infrastructură, ceea ce poate reduce costul total de operare și timpul de implementare pentru proiecte AI la scară mare. Ce este AI Hypercomputer și de ce contează pentru clienți AI Hypercomputer este prezentat ca un ansamblu integrat de hardware (calcul, stocare, rețea) și software deschis (framework-uri și motoare de inferență), construit pentru „AI agentic” – sisteme care pot executa sarcini în lanț, cu un grad mai mare de autonomie, și care cer atât capacitate mare de antrenare, cât și latență redusă în producție. Din perspectiva utilizatorilor de cloud, elementul practic este că Google încearcă să ofere o infrastructură „cap-coadă” pentru AI, în care: TPU-urile proprii acoperă antrenarea și inferența pe platforma Google; GPU-urile NVIDIA rămân o opțiune majoră pentru clienții care preferă ecosistemul NVIDIA; rețeaua și stocarea sunt optimizate pentru a susține clustere foarte mari. TPU 8t și TPU 8i: două cipuri, două sarcini Google își împarte TPU-urile de generația a 8-a în două variante: TPU 8t (antrenare) : este descris ca un cip orientat spre antrenarea modelelor mari, cu o capacitate totală de calcul FP4 de 121 exaflopși per „pod” , menționată ca fiind de 2,84 ori peste Ironwood. Un „superpod” TPU 8t poate scala la 9.600 de cipuri și 2 PB (petabytes) de memorie partajată cu lățime mare de bandă. TPU 8i (inferință) : orientat spre rularea modelelor în producție, cu 288 GB HBM (memorie cu lățime mare de bandă) și 384 MB SRAM pe cip , adică o creștere de 3 ori față de generația anterioară. Pentru calcul, este indicată o capacitate FP8 de 331,8 exaflopși per pod , menționată ca fiind de 6,74 ori peste Ironwood. Publicația notează și îmbunătățiri „performanță per dolar” față de Ironwood („TPUv7”): 2,7 ori pentru TPU 8t în antrenare la scară mare și +80% pentru TPU 8i în inferență cu latență redusă (ținte MoE – „Mixture of Experts”, o arhitectură de model). Ambele ar livra și de două ori mai bună „performanță per watt”, relevantă pentru costul total de operare (TCO). Rețea, stocare și răcire: infrastructura din jurul cipurilor Pentru scalare, Google introduce Virgo Network , o rețea optimizată pentru AI, menită să conecteze atât sisteme NVIDIA Vera Rubin NVL72, cât și superpoduri TPU 8t în clustere foarte mari. Pe partea de stocare, sunt menționate: Managed Lustre cu 10 TB/s către A5X sau TPU 8t prin RDMA; Rapid Storage, cu un salt de la 6 TB/s la 15 TB/s . La nivel fizic, TPU-urile sunt proiectate să funcționeze cu răcire cu lichid de generația a 4-a , pentru densități de calcul care nu ar fi sustenabile cu răcire pe aer. Unde intră NVIDIA Rubin și Axion în ecuație Google afirmă că va fi „printre primii” furnizori care oferă NVIDIA Vera Rubin NVL72 , alături de instanțe bazate pe Blackwell și Hopper deja disponibile. În paralel, compania își împinge propriile procesoare Axion (Arm), inclusiv instanțele N4A, despre care sursa spune că ar livra 100% mai bun raport preț–performanță decât alternative x86 comparabile. Cine ar urma să folosească platforma Wccftech enumeră câțiva clienți pentru AI Hypercomputer, între care US DOE (Departamentul Energiei al SUA) , Boston Dynamics , Citadel Securities , Thinking Machine Labs și Axia Energy . Materialul nu oferă detalii despre dimensiunea contractelor sau calendarul implementărilor. [...]

Anthropic a urcat la o evaluare de circa 1.000 de miliarde de dolari (aprox. 4.600 de miliarde de lei) pe piețele secundare , depășind OpenAI și alimentând o competiție acută între investitori pentru puținele acțiuni disponibile, potrivit Antena 3 . Mișcarea contează mai ales prin efectul de piață: în lipsa unei listări la bursă, prețul este împins în sus de tranzacții indirecte, iar accesul la acțiuni devine o problemă de lichiditate, nu doar de evaluare. Pe platforma Forge Global , descrisă drept una dintre cele mai importante piețe pentru acțiuni nelistate, Anthropic este evaluată la aproximativ 1.000 de miliarde de dolari, în timp ce OpenAI ar fi în jurul a 880 de miliarde de dolari (aprox. 4.050 de miliarde de lei). Antena 3 notează că, deși ultima rundă de finanțare a OpenAI o evalua la 852 de miliarde de dolari, pe piețele secundare compania este tranzacționată la valori mai mici decât Anthropic. De ce se „blochează” piața: acțiuni puține, cerere mare Pentru că nici Anthropic, nici OpenAI nu sunt listate, investitorii pot cumpăra acțiuni doar indirect, de la angajați sau investitori timpurii care aleg să vândă. În acest context, presiunea pe preț vine dintr-un dezechilibru între cerere și ofertă, iar Antena 3 menționează că niciuna dintre companii nu a comentat evoluțiile. Publicația relatează și despre nivelul ofertelor apărute în piață: un acționar „ar fi” scos la vânzare acțiuni la o evaluare de 1.150 de miliarde de dolari, iar un fond important „ar fi” oferit 1.050 de miliarde de dolari pentru a cumpăra. Sunt informații prezentate ca neconfirmate public (formulare de tip „ar fi”). Ritmul creșterii și motorul: veniturile și produsele AI Cererea pentru acțiunile Anthropic ar fi explodat în doar câteva luni: în urmă cu trei luni, compania era evaluată la 380 de miliarde de dolari, după o rundă de finanțare, potrivit Antena 3. Creșterea rapidă a veniturilor și succesul produselor sale de inteligență artificială, în special asistentul de programare Claude, sunt indicate drept principalele motive pentru interesul investitorilor. „A fost o creștere spectaculoasă pentru Anthropic. Toată lumea vrea să prindă un loc în această zonă a inteligenței artificiale, iar acum Anthropic este în față”, spune Glen Anderson, CEO al Rainmaker Securities. Același Anderson descrie o piață extrem de tensionată, în care ofertele apar și dispar rapid, pe fondul lipsei de vânzători. „Apar oferte și dispar în aceeași zi, pentru că sunt cumpărate imediat. Aproape că nu mai există vânzători”, spune Anderson. Efectul asupra OpenAI: interes mai slab pe secundar În paralel, interesul pentru OpenAI este descris ca fiind mai redus în tranzacțiile de pe piețele secundare. „Piața pentru OpenAI este destul de calmă acum. Interesul s-a mutat clar spre Anthropic”, mai spune Anderson. Pentru investitori, mesajul implicit este că „prețul” acțiunilor nelistate poate ajunge să fie dictat de raritatea pachetelor disponibile și de teama de a rata o oportunitate, nu doar de reperele din rundele oficiale de finanțare. [...]