Știri
Știri din categoria Inteligență artificială

Meta taie circa 10% din personal pentru a finanța investițiile masive în infrastructura de inteligență artificială, într-o mișcare de eficientizare care vine pe fondul creșterii accelerate a cheltuielilor de capital ale companiei, potrivit CNN.
Compania a transmis că va concedia aproximativ 10% din forța de muncă, adică în jur de 8.000 de oameni. În paralel, Meta închide circa 6.000 de posturi deschise, a scris Janelle Gale, directorul de resurse umane, într-un memo publicat de Bloomberg și confirmat ulterior de Meta pentru CNN. Concedierile urmează să intre în vigoare pe 20 mai.
„Facem asta ca parte a efortului nostru continuu de a conduce compania mai eficient și pentru a ne permite să compensăm celelalte investiții pe care le facem”, a scris Gale.
Decizia vine în contextul în care Meta, asemenea altor giganți tech, își majorează puternic bugetele pentru AI. Compania a cheltuit 72,2 miliarde de dolari (aprox. 325 miliarde lei) pe cheltuieli de capital în 2025, în principal pentru centre de date și infrastructură necesară AI. Pentru 2026, Meta a indicat în raportarea din ianuarie că se așteaptă ca suma să crească la cel puțin 115 miliarde de dolari (aprox. 518 miliarde lei).
CNN notează și că Meta investește în recrutare pentru laboratorul său de „superinteligență” și a cumpărat startup-uri de AI precum Moltbook și Manus, în încercarea de a concura cu OpenAI și alți jucători.
Mark Zuckerberg a sugerat la începutul anului că investițiile în AI ar putea aduce modificări ale forței de muncă. În conferința cu investitorii din ianuarie, el a numit 2026 „anul în care AI începe să schimbe dramatic felul în care lucrăm”.
„Începem să vedem proiecte care înainte necesitau echipe mari, iar acum pot fi realizate de o singură persoană foarte talentată”, a spus Zuckerberg.
Meta a precizat că angajații din SUA afectați vor primi 16 săptămâni de salariu de bază, plus două săptămâni pentru fiecare an de vechime; pachetele internaționale ar urma să fie similare.
Pe bursă, acțiunile Meta (META) erau în scădere cu peste 2% joi după-amiază, potrivit CNN.
În ultimul an, tot mai multe companii au redus personalul invocând eficiențe aduse de AI. CNN amintește că Amazon a anunțat în ianuarie concedieri de 16.000 de oameni, iar Block a comunicat în februarie o reducere de 40% a forței de muncă (peste 4.000 de persoane), avertizând că vor urma și alte companii.
Meta mai făcuse tăieri masive în 2022 și 2023, după creșterile din perioada pandemiei. Anul trecut, compania a spus că va reduce circa 5% dintre angajați, vizați ca „performeri slabi”, cu intenția de a reangaja pentru multe dintre rolurile respective.
Recomandate

Europa riscă să piardă investiții și competențe în inteligența artificială dacă nu accelerează construcția de centre de date și infrastructura conexă, pe fondul costurilor ridicate cu energia și al constrângerilor de reglementare, avertizează CEO-ul Nokia, Justin Hotard , potrivit HotNews . Miza este una economică și operațională: marile companii de tehnologie sunt așteptate să investească „sute de miliarde de dolari” chiar în acest an pentru extinderea infrastructurii legate de inteligența artificială, iar Europa ar putea rămâne în afara acestui val dacă nu poate oferi capacitate suficientă în centrele de date și conectivitate. De ce contează: infrastructura decide unde se mută companiile Într-un interviu acordat Reuters, Hotard spune că problema imediată este lipsa infrastructurii necesare pentru centre de date dedicate AI. Deși a apreciat unele inițiative ale Uniunii Europene – inclusiv proiectele de „gigafabrici” de inteligență artificială – el a pus sub semnul întrebării dacă ritmul investițiilor este suficient. „Dar cred că, dacă ne uităm la ritmul relativ al investițiilor, nu sunt sigur că este suficient. Și nu este vorba doar despre construirea acestor fabrici. Ai nevoie de conectivitate. Ai nevoie de capacitate în centrele de date.” Mesajul central: fără infrastructură, companiile și dezvoltatorii își vor reloca activitatea acolo unde aceasta există deja, în principal în China și SUA. Presiunea pe energie și rețele, un blocaj pentru extindere Centrele de date reprezintă 3% din cererea de electricitate în Uniunea Europeană, însă consumul este așteptat să crească rapid, pe măsură ce aplicațiile de inteligență artificială se extind. În acest context, Amazon a semnalat în februarie că întârzierile îndelungate în obținerea conexiunilor la rețelele electrice îngreunează extinderea centrelor sale de date în Europa, un exemplu al constrângerilor operaționale care pot frâna investițiile. Nokia: AI și cloud, o linie de business în creștere Pentru Nokia, subiectul are și o dimensiune comercială directă. Compania – fost lider global pe piața telefoanelor mobile – obține acum câștiguri din orientarea către inteligența artificială: divizia de AI și cloud computing generează 8% din vânzările grupului. Nokia estimează că piața va crește anual cu 27% până în 2028. Hotard, venit la Nokia anul trecut de la Intel, avertizează că Europa a mai trecut prin astfel de cicluri tehnologice în care infrastructura a decis unde se concentrează investițiile și talentul. „Am mai văzut acest scenariu, nu-i așa? Dacă nu construiești această infrastructură, atunci, în cele din urmă, companiile și dezvoltatorii se vor muta acolo unde ea există.” [...]

Inteligența artificială ar putea consolida rolul iPhone ca „hub” de date personale, nu să-l înlocuiască , susține CEO-ul Perplexity, Aravind Srinivas , într-o intervenție citată de CNMO . Ideea centrală: pe măsură ce AI devine mai capabilă și are nevoie de „context real”, valoarea datelor personale stocate pe telefon crește, iar dispozitivul care le găzduiește devine mai greu de substituit. Srinivas folosește metafora „pașaportului digital” pentru a descrie iPhone-ul: un loc unde se adună plăți, identitate, date de sănătate, comunicare, fotografii și amintiri private. În opinia sa, acest tip de date, aflate deja pe dispozitiv, reprezintă un avantaj pe care companii precum OpenAI sau Google nu îl au în aceeași formă, iar evoluția AI amplifică importanța acestui „depozit” personal. De ce contează: mutarea sarcinilor AI pe dispozitiv poate schimba competiția În discuția despre percepția că Apple ar fi în urma OpenAI și Google în cursa AI, Srinivas nu neagă diferența, dar mută accentul pe trei elemente: hardware, confidențialitate și controlul datelor. El indică Apple Silicon drept un „activ subestimat”, care ar deveni tot mai relevant dacă sarcinile de lucru ale AI (workload-uri) se mută treptat local, pe dispozitiv, în loc să fie rulate pe servere. În acest scenariu, „buclele” de lucru ale unor agenți AI (sisteme care execută sarcini în lanț, semi-autonom) ar ajunge să ruleze local și să se lege direct de resursele din telefon: fișiere, aplicații, mesaje, e-mail, notițe și fotografii. Implicația operațională este că avantajul nu ar mai sta doar în modelul AI „din cloud”, ci și în integrarea strânsă dintre cip, sistemul de operare și datele personale. Confidențialitatea, ca avantaj competitiv acumulat O a doua linie de argumentație este confidențialitatea. Srinivas spune că, pentru a oferi ajutor mai „profund”, AI va avea nevoie de acces la date tot mai sensibile, iar reputația Apple construită în jurul protecției vieții private ar putea deveni un avantaj „invizibil” în adoptarea unor astfel de funcții. El menționează și perspectiva ca John Ternus să devină viitor CEO Apple, apreciind contribuția acestuia în tranziția către Apple Silicon și sugerând că investițiile viitoare în cipuri (inclusiv la 2 nanometri) ar întări poziționarea Apple pentru rularea locală a unor agenți AI „mai privați”. Limita argumentului: Apple nu are încă un model AI de vârf comparabil CNMO notează și o rezervă prezentă în presa internațională: deși Apple are o integrare puternică hardware–software–date personale, compania nu a prezentat până acum un model AI de ultimă generație care să concureze direct cu OpenAI sau Google, iar Siri rămâne în urmă față de noile sisteme conversaționale. În esență, miza nu este dacă AI „omoară” iPhone-ul, ci dacă Apple poate transforma avantajele de dispozitiv, date și confidențialitate într-o ofertă AI competitivă, pe măsură ce tot mai multe funcții se mută din cloud pe telefon. [...]

DeepSeek a lansat modelul open-source V4, mizând pe eficiență de cost ca avantaj competitiv , într-un moment în care accesul la cipuri avansate și costurile de antrenare rămân o barieră majoră pentru dezvoltarea de inteligență artificială. Potrivit South China Morning Post , compania spune că noul său model fundamental (foundation model) este „competitiv” cu modele americane închise, precum cele ale OpenAI și Google DeepMind. DeepSeek descrie V4 drept un model „cost-eficient” și cu „eficiență de nivel lider mondial”, poziționându-l ca alternativă la modelele proprietare (closed-source), care nu își publică integral codul și detaliile tehnice. În același timp, faptul că V4 este open-source sugerează o strategie de accelerare a adopției prin comunitate și integrare mai ușoară în produse și servicii. Un element important de context este sprijinul anunțat de Huawei , care, potrivit aceleiași surse, a promis „sprijin total” prin noi cipuri. Mesajul indică o încercare de a consolida un lanț tehnologic intern – modele AI plus hardware – într-o perioadă în care competiția globală se poartă tot mai mult pe costuri, eficiență și disponibilitatea infrastructurii de calcul. De ce contează: costul devine o armă în cursa AI Relevanța economică a anunțului ține de faptul că „eficiența” și „cost-eficiența” sunt prezentate ca diferențiatori principali într-o piață dominată de modele foarte scumpe de antrenat și operat. Dacă afirmațiile DeepSeek privind competitivitatea cu OpenAI și Google DeepMind se confirmă în utilizare, V4 ar putea: reduce costul de intrare pentru companii care vor să construiască aplicații pe modele avansate; crește presiunea concurențială asupra furnizorilor de modele închise, printr-o alternativă open-source; accelera adoptarea în ecosisteme care preferă controlul local asupra tehnologiei și datelor. Ce se știe și ce rămâne neclar Articolul notează că DeepSeek „spune” că V4 este competitiv cu modele de top din SUA, însă în fragmentul disponibil nu apar rezultate detaliate de evaluare (benchmark-uri) sau date tehnice care să permită o comparație independentă. În lipsa acestor informații, impactul real va depinde de performanța în implementări concrete și de cât de repede va fi preluat modelul de dezvoltatori și companii. [...]

Parteneriatul Apple–Google intră în faza operațională: Siri va rula pe Gemini , iar mutarea poate schimba rapid capabilitățile „Apple Intelligence” încă din acest an, cu implicații directe asupra infrastructurii cloud folosite de Apple, potrivit GSMArena . Confirmarea vine de la Google, făcută pe scenă la conferința Cloud Next 2026 din Las Vegas. Thomas Kurian, șeful Google Cloud, a spus că Google colaborează cu Apple „ca furnizor cloud preferat” pentru a dezvolta „următoarea generație de Apple Foundation Models” bazate pe tehnologia Gemini, iar aceste modele „vor alimenta viitoare funcții Apple Intelligence, inclusiv un Siri mai personalizat, care va veni mai târziu în acest an”. Ce se știe despre calendar Informația completează confirmarea anterioară a Apple, care anunțase încă din ianuarie că modelele Gemini vor sta la baza următoarei evoluții Apple Intelligence. Potrivit publicației, Apple ar urma să prezinte noutățile în iunie, la Worldwide Developers Conference (WWDC) , iar lansarea către utilizatori este așteptată în toamnă, odată cu iOS 27 și iPadOS 27. De ce contează: unde va rula, de fapt, AI-ul Rămâne neclar dacă modelele Gemini folosite de Apple vor rula pe serverele Google sau prin Apple Private Cloud Compute (infrastructura proprie Apple pentru procesare în cloud cu accent pe confidențialitate). Această decizie are consecințe practice pentru: dependența operațională de un furnizor extern de cloud (Google) versus rulare în cloud-ul Apple; controlul asupra datelor și procesării , în funcție de arhitectura aleasă; viteza de livrare și scalarea funcțiilor de inteligență artificială în ecosistemul Apple. Context: Siri a fost întârziat din cauza acurateții Siri „revizuit” era inițial așteptat anul trecut, apoi a fost amânat pentru această primăvară, însă Apple ar fi întâmpinat probleme de acuratețe. Clarificările privind implementarea și detaliile tehnice sunt așteptate la începutul lui iunie, odată cu WWDC. [...]

OpenAI lansează GPT-5.5 ca model mai eficient pentru lucru și programare , mizând pe reducerea costului operațional (prin folosirea a mai puțini „tokeni”, unități de text procesate) și pe automatizarea unor sarcini mai complexe în ChatGPT și Codex, potrivit The Verge . Compania spune că GPT-5.5 este „cel mai inteligent și cel mai intuitiv de folosit” model al său și îl prezintă ca un pas spre „un nou mod de a face muncă pe un computer”. După GPT-5.4, lansat luna trecută, OpenAI susține că noul model „excelează” la scriere și depanare de cod, cercetare online, realizarea de foi de calcul și documente, inclusiv atunci când trebuie să lucreze „peste” mai multe instrumente. „În loc să gestionezi cu grijă fiecare pas, îi poți da lui GPT-5.5 o sarcină dezordonată, în mai multe părți, și să ai încredere că va planifica, va folosi instrumente, își va verifica munca, va naviga prin ambiguitate și va continua”, potrivit OpenAI. Un element cu impact direct pentru utilizare și costuri este eficiența: OpenAI afirmă că GPT-5.5 poate folosi „semnificativ mai puțini” tokeni pentru a finaliza sarcini în Codex. Compania mai spune că modelul vine cu „cel mai puternic set de măsuri de siguranță de până acum”, fără a detalia în material ce presupun aceste măsuri. Cum va fi disponibil GPT-5.5 GPT-5.5 începe să fie distribuit începând de joi pentru abonamentele ChatGPT Plus , Pro, Business și Enterprise, precum și în Codex. OpenAI mai precizează că GPT-5.5 Pro va ajunge la utilizatorii Pro, Business și Enterprise. Context: competiția pe piața de cod și instrumente pentru companii Lansarea vine într-un moment de competiție accelerată între OpenAI și Anthropic , pe fondul unei curse spre o posibilă listare publică „mai târziu în acest an”, notează publicația. În acest context, ambele companii încearcă să câștige teren pe segmentul de programare asistată de AI și instrumente pentru companii, iar OpenAI ar fi redus recent așa-numitele „side quests” (proiecte secundare) pentru a se concentra pe surse mai mari de venit. Separat, The Verge menționează că apariția GPT-5.5 are loc cu câteva zile înaintea procesului dintre Elon Musk și executivi OpenAI Sam Altman și Greg Brockman, care ar urma să înceapă luni, într-o instanță federală din Oakland, California. [...]

Google își extinde oferta de infrastructură AI către un model „hibrid” (TPU propriu + GPU NVIDIA), prin AI Hypercomputer , o arhitectură de centru de date care combină TPU-uri de generația a 8-a, procesoare Axion și viitoarele acceleratoare NVIDIA Rubin, potrivit Wccftech . Miza operațională este flexibilitatea: clienții pot rula antrenare și inferență (execuția modelului în producție) pe hardware diferit, în același „pachet” de infrastructură, ceea ce poate reduce costul total de operare și timpul de implementare pentru proiecte AI la scară mare. Ce este AI Hypercomputer și de ce contează pentru clienți AI Hypercomputer este prezentat ca un ansamblu integrat de hardware (calcul, stocare, rețea) și software deschis (framework-uri și motoare de inferență), construit pentru „AI agentic” – sisteme care pot executa sarcini în lanț, cu un grad mai mare de autonomie, și care cer atât capacitate mare de antrenare, cât și latență redusă în producție. Din perspectiva utilizatorilor de cloud, elementul practic este că Google încearcă să ofere o infrastructură „cap-coadă” pentru AI, în care: TPU-urile proprii acoperă antrenarea și inferența pe platforma Google; GPU-urile NVIDIA rămân o opțiune majoră pentru clienții care preferă ecosistemul NVIDIA; rețeaua și stocarea sunt optimizate pentru a susține clustere foarte mari. TPU 8t și TPU 8i: două cipuri, două sarcini Google își împarte TPU-urile de generația a 8-a în două variante: TPU 8t (antrenare) : este descris ca un cip orientat spre antrenarea modelelor mari, cu o capacitate totală de calcul FP4 de 121 exaflopși per „pod” , menționată ca fiind de 2,84 ori peste Ironwood. Un „superpod” TPU 8t poate scala la 9.600 de cipuri și 2 PB (petabytes) de memorie partajată cu lățime mare de bandă. TPU 8i (inferință) : orientat spre rularea modelelor în producție, cu 288 GB HBM (memorie cu lățime mare de bandă) și 384 MB SRAM pe cip , adică o creștere de 3 ori față de generația anterioară. Pentru calcul, este indicată o capacitate FP8 de 331,8 exaflopși per pod , menționată ca fiind de 6,74 ori peste Ironwood. Publicația notează și îmbunătățiri „performanță per dolar” față de Ironwood („TPUv7”): 2,7 ori pentru TPU 8t în antrenare la scară mare și +80% pentru TPU 8i în inferență cu latență redusă (ținte MoE – „Mixture of Experts”, o arhitectură de model). Ambele ar livra și de două ori mai bună „performanță per watt”, relevantă pentru costul total de operare (TCO). Rețea, stocare și răcire: infrastructura din jurul cipurilor Pentru scalare, Google introduce Virgo Network , o rețea optimizată pentru AI, menită să conecteze atât sisteme NVIDIA Vera Rubin NVL72, cât și superpoduri TPU 8t în clustere foarte mari. Pe partea de stocare, sunt menționate: Managed Lustre cu 10 TB/s către A5X sau TPU 8t prin RDMA; Rapid Storage, cu un salt de la 6 TB/s la 15 TB/s . La nivel fizic, TPU-urile sunt proiectate să funcționeze cu răcire cu lichid de generația a 4-a , pentru densități de calcul care nu ar fi sustenabile cu răcire pe aer. Unde intră NVIDIA Rubin și Axion în ecuație Google afirmă că va fi „printre primii” furnizori care oferă NVIDIA Vera Rubin NVL72 , alături de instanțe bazate pe Blackwell și Hopper deja disponibile. În paralel, compania își împinge propriile procesoare Axion (Arm), inclusiv instanțele N4A, despre care sursa spune că ar livra 100% mai bun raport preț–performanță decât alternative x86 comparabile. Cine ar urma să folosească platforma Wccftech enumeră câțiva clienți pentru AI Hypercomputer, între care US DOE (Departamentul Energiei al SUA) , Boston Dynamics , Citadel Securities , Thinking Machine Labs și Axia Energy . Materialul nu oferă detalii despre dimensiunea contractelor sau calendarul implementărilor. [...]