Știri
Știri din categoria Inteligență artificială

Marile companii tech își reduc personalul ca să elibereze bugete pentru investițiile în AI, într-un context în care costurile cu infrastructura (centre de date, procesoare grafice și alte echipamente) cresc rapid, potrivit Mobilissimo. Ideea centrală: disponibilizările sunt prezentate mai degrabă ca o decizie de finanțare și reechilibrare a cheltuielilor, nu ca efect direct al înlocuirii angajaților cu inteligență artificială.
În cazul Meta, compania ar urma să elimine aproximativ 8.000 de locuri de muncă pe 20 mai 2026, pe fondul accelerării investițiilor în infrastructura necesară dezvoltării AI. Într-o întâlnire internă de la finalul lunii aprilie, Mark Zuckerberg le-ar fi transmis angajaților că presiunea vine din nevoia de a echilibra bugetul, în condițiile „exploziei” cheltuielilor pentru AI.
Meta și-a majorat estimările privind cheltuielile de capital pentru 2026 la 125–145 de miliarde de dolari (aprox. 563–653 mld. lei).
Potrivit materialului, dezbaterea a fost amplificată de un schimb de poziții în care cofondatorul Zoho, Sridhar Vembu, comentează un mesaj al inginerului Meta Arnav Gupta despre viitoare concedieri.
Vembu susține că firmele tehnologice reduc personalul deoarece salariile sunt una dintre puținele categorii de costuri care pot fi ajustate rapid. Totodată, el pune sub semnul întrebării eficiența economică a investițiilor masive în AI, argumentând că industria nu a demonstrat încă faptul că aceste cheltuieli se traduc în productivitate și venituri proporționale.
Datele citate de The Kobeissi Letter indică o accelerare puternică a concedierilor în sectorul tehnologic:
Fenomenul ar depăși cazul Meta. Oracle ar fi eliminat până la 30.000 de locuri de muncă pentru a elibera între 8 și 10 miliarde de dolari anual (aprox. 36–45 mld. lei) destinați extinderii infrastructurii AI, potrivit TD Cowen. În același context sunt menționate restructurări și la Amazon, Microsoft, Coinbase și Block, în paralel cu majorarea investițiilor în inteligență artificială.
Arnav Gupta avertizează că disponibilizările ar putea continua până când companiile vor reuși să transforme investițiile în AI în venituri măsurabile și profit, nu doar în infrastructură costisitoare.
Recomandate

O inițiativă de 500 milioane de dolari (aprox. 2,3 miliarde lei) vizează construirea unor „modele” AI ale celulelor umane , cu date oferite gratuit cercetătorilor, într-un pariu care poate accelera cercetarea medicală și, implicit, piața de medicamente și terapii, potrivit Antena 3 . Mark Zuckerberg și Priscilla Chan dezvoltă proiectul prin organizația non-profit Biohub , care a anunțat o inițiativă pe cinci ani, în valoare totală de 500 de milioane de dolari, pentru a crea tehnologii și seturi de date necesare dezvoltării unor modele predictive ale celulelor umane. Antena 3 notează că informația este atribuită Euronews. Cum se împarte bugetul și ce se livrează Din suma totală, 400 de milioane de dolari (aprox. 1,8 miliarde lei) sunt alocate proiectelor proprii, iar 100 de milioane de dolari (aprox. 460 milioane lei) ar urma să fie oferite cercetătorilor externi. Datele generate vor fi puse la dispoziția cercetătorilor din întreaga lume, gratuit. Miza operațională a proiectului este ca simulările realizate cu ajutorul inteligenței artificiale să permită studierea bolilor „în format digital”, la o scară și o viteză care nu pot fi replicate în laborator. Dacă modelele vor fi suficient de precise, ele ar putea ajuta la înțelegerea comportamentului celulelor, identificarea cauzelor bolilor și descoperirea de tratamente noi. Blocajul: datele, nu doar algoritmii Biohub indică drept provocare principală cantitatea și calitatea datelor: cu cât există mai multe informații biologice, cu atât predicțiile devin mai precise. Alex Rives, coordonatorul științific al Biohub, spune că este nevoie de mult mai multe date decât există în prezent și de tehnologii noi pentru a observa celulele la toate nivelurile, de la molecule la țesuturi, atât în stare sănătoasă, cât și în boală. Totuși, organizația admite că nu se știe încă exact cât de multe date sunt necesare pentru ca modelele să devină cu adevărat fiabile și susține că ar fi nevoie de un efort global mai amplu pentru a ajunge la scara dorită. Context: cursa AI în științele vieții Inițiativa se înscrie într-un interes mai larg pentru folosirea învățării automate (metode prin care sistemele informatice învață tipare din date) în descoperirea de medicamente și terapii. În material sunt menționate și alte investiții în direcția biologiei bazate pe AI, inclusiv Isomorphic Labs (Alphabet/DeepMind), precum și proiecte ale Microsoft și platforma BioNeMo a Nvidia, utilizată deja pentru dezvoltarea de medicamente cu ajutorul inteligenței artificiale. Pe termen lung, obiectivul declarat al Biohub este „eliminarea tuturor bolilor” prin combinarea inteligenței artificiale cu biologia, însă realizarea acestui deziderat depinde de fezabilitatea tehnică a modelelor și de disponibilitatea datelor la scară mare. [...]

NVIDIA spune că a început deja să obțină câștiguri măsurabile de productivitate după ce a pus la dispoziția angajaților aplicația Codex de la OpenAI , alimentată de noul model GPT‑5.5 și rulată pe sisteme NVIDIA GB200 NVL72 , potrivit NVIDIA Blog . Miza, dincolo de „lansare”, este una operațională: compania descrie scurtarea ciclurilor de depanare și accelerarea livrării de funcționalități în proiecte complexe, pe fondul unor costuri și performanțe de inferență (rulare a modelului) pe care le consideră viabile la scară de întreprindere. În material, NVIDIA afirmă că peste 10.000 de angajați din arii precum inginerie, produs, juridic, marketing, finanțe, vânzări, HR, operațiuni și programe pentru dezvoltatori folosesc deja Codex cu GPT‑5.5. Inginerii ar fi avut acces „de câteva săptămâni”, iar compania susține că efectele se văd în timpii de lucru: cicluri de debugging care „se întindeau pe zile” s-ar închide acum „în ore”, iar experimente care necesitau „săptămâni” ar ajunge la progres „peste noapte” în baze de cod complexe, cu mai multe fișiere. De ce contează: productivitate internă, susținută de infrastructură și costuri de inferență NVIDIA leagă aceste rezultate de rularea pe GB200 NVL72, despre care spune că poate livra „de 35 de ori” cost mai mic per milion de tokeni și „de 50 de ori” mai mult output de tokeni pe secundă per megawatt față de generația anterioară. În interpretarea companiei, această „economie” ar face inferența pentru modele de vârf fezabilă la scară enterprise, adică suficient de ieftină și eficientă energetic pentru utilizare pe scară largă în organizații. Compania mai susține că echipele pot livra funcționalități „end-to-end” pornind de la prompturi în limbaj natural, cu fiabilitate mai bună și mai puține cicluri irosite decât la modele anterioare, fără a detalia însă indicatori cantitativi interni (de tip ore economisite, costuri sau rate de defecte). Cum a fost „împachetat” pentru medii corporate: VM-uri, audit și acces limitat Un element central al implementării descrise este controlul asupra datelor și al accesului. Codex ar suporta conexiuni SSH (Secure Shell) la mașini virtuale (VM) aprobate în cloud, astfel încât agenții să lucreze cu date reale ale companiei fără expunere externă, potrivit NVIDIA. Pentru „securitate și auditabilitate”, NVIDIA IT ar fi livrat câte o mașină virtuală în cloud pentru fiecare angajat, ca „sandbox” dedicat. Implementarea ar include: politică de „zero data retention” (fără păstrarea datelor), acces la sisteme de producție în regim „read-only” (doar citire) prin interfețe de linie de comandă și „Skills” (un set de unelte pentru agenți, folosite și în automatizările interne ale companiei). Context: colaborarea NVIDIA–OpenAI și dimensiunea infrastructurii NVIDIA plasează rollout-ul GPT‑5.5/Codex într-un parteneriat cu OpenAI început în 2016, când Jensen Huang ar fi livrat personal primul supercomputer NVIDIA DGX‑1 la sediul OpenAI din San Francisco. Compania mai afirmă că OpenAI s-a angajat să implementeze „peste 10 gigawați” de sisteme NVIDIA pentru infrastructura sa de generație următoare, o extindere care „va pune milioane de GPU-uri NVIDIA” la baza antrenării și inferenței pentru anii următori. În același context, NVIDIA menționează un „milestone” comun: aducerea în funcțiune a „primului cluster GB200 NVL72 cu 100.000 de GPU-uri”, despre care spune că a rulat antrenări la scară mare și a stabilit un nou reper de fiabilitate la nivel de sistem. Într-un e-mail intern citat de companie, CEO-ul Jensen Huang le-ar fi cerut angajaților să folosească Codex: „Să trecem la viteza luminii. Bine ați venit în era AI.” Pentru detalii despre model, NVIDIA trimite la anunțul OpenAI: OpenAI . [...]

Google testează în Gemini Live un selector de modele AI cu 7 variante , o schimbare care ar muta o parte din controlul experienței de conversație de la companie către utilizator, potrivit unei analize de tip teardown citate de Mobilissimo , realizată pe aplicația Google (versiunea 17.18.22), cu câteva zile înainte de Google I/O 2026. Miza operațională este semnificativă: până acum, Google ar fi gestionat automat ce model rulează în funcție de context sau de abonament, în timp ce noul mecanism ar permite alegerea manuală a modelului folosit în conversațiile din Gemini Live. Ce s-a găsit în aplicație și de ce contează În codul aplicației ar fi apărut un „selector intern” de modele AI, cu șapte opțiuni, unele orientate spre raționament avansat, altele spre personalizare. Google nu a confirmat public existența acestor modele, iar informația rămâne la nivel de indicii din aplicație, nu de anunț oficial. Separat, în aceeași zonă de funcții în lucru apare și un nou „Thinking Mode”, descris ca un mod în care modelul ar „gândi” mai mult înainte să răspundă, pentru rezultate mai detaliate. Mobilissimo notează că, potrivit unor informații publicate anterior de 9to5Google , acest mod ar extinde capabilitățile de „reasoning” (raționament) deja disponibile în Gemini 3 Pro. Funcții asociate: memorie, cameră și personalizare Tot din referințele identificate în aplicație sunt menționate mai multe direcții de dezvoltare pentru Gemini Live: memorie multimodală; gestionare mai bună a zgomotului ambiental; răspunsuri bazate pe ceea ce vede camera; personalizare folosind aplicațiile Google ale utilizatorului; funcții experimentale integrate în Gemini Live. Android Authority ar susține, de asemenea, că Google pregătește eliminarea unor opțiuni mai vechi de voce pentru Gemini, un indiciu că interfața și experiența de utilizare ar urma să fie redesenate. Context: Google I/O 2026, cu AI în prim-plan Google I/O 2026 este programat în perioada 19–20 mai, iar compania a confirmat că accentul principal va fi pe inteligența artificială. Invitațiile oficiale menționează „actualizări Gemini” și tehnologii de tip „agentic coding” (instrumente care pot executa pași de programare în mod semi-autonom). În paralel, în ultimele săptămâni au circulat zvonuri despre modele precum Gemini 3.5 Pro și Gemini 3.2 Flash, dar și despre alte produse/inițiative (inclusiv Aluminium OS, ochelari Android XR și funcții noi pentru Android 17). Mobilissimo mai notează și o posibilă reproiectare a interfeței Gemini, inclusiv eliminarea modului fullscreen din Gemini Live și integrarea unui model video cu numele intern „Omni”. Deocamdată, fără confirmare oficială din partea Google, rămâne de văzut dacă selectorul de modele și „Thinking Mode” vor fi anunțate la I/O și în ce formă vor ajunge la utilizatori. [...]

Apple își ține cheltuielile de capital departe de „cursa AI” și preferă să-și conserve marjele și randamentele pentru acționari, într-un moment în care rivalii direcționează sume uriașe către infrastructură de inteligență artificială, potrivit G4Media . În timp ce Microsoft, Amazon, Meta și Alphabet își cresc masiv investițiile pentru modele AI și centre de date, Apple rămâne singurul gigant tech care nu a intrat „agresiv” în această competiție, arată Il Post, citat de Mediafax. Conform estimărilor menționate, Alphabet, Amazon, Microsoft și Meta ar urma să investească împreună aproximativ 700 de miliarde de dolari (aprox. 3.150 miliarde lei) în acest an în infrastructură AI și data center-e. Reducerea capex și dependența parțială de parteneri În contrast cu trendul din industrie, Apple și-a redus cu 36% cheltuielile de capital în ultimul an, potrivit aceleiași surse. Compania ar fi ales să nu dezvolte pe scară largă propriile modele lingvistice și nici infrastructura necesară pentru antrenarea lor. În plus, „ Apple Intelligence ”, lansată în 2024, se bazează parțial pe tehnologia OpenAI, iar Apple a anunțat recent și un acord cu Google pentru integrarea modelului Gemini în Siri și alte servicii. Miza economică: hardware și răscumpărări de acțiuni G4Media notează că Apple își bazează în continuare modelul de business în principal pe vânzarea de hardware, în special iPhone și Mac, mizând că utilizatorii vor accesa servicii AI prin dispozitivele sale indiferent cine furnizează tehnologia din spate. Strategia „funcționează, cel puțin deocamdată”, în contextul în care Apple a raportat recent o creștere anuală de 17% a vânzărilor nete, susținută inclusiv de succesul noului MacBook Neo. Tim Cook a declarat că „cererea a fost extrem de mare”, iar G4Media menționează că acesta urmează să fie înlocuit în septembrie de John Ternus . Pe partea de alocare a capitalului, Apple continuă programul de răscumpărare a propriilor acțiuni și a anunțat un nou buyback de 100 de miliarde de dolari (aprox. 450 miliarde lei), o practică folosită de peste un deceniu pentru a crește valoarea acțiunilor și randamentele pentru investitori. Ce riscă și ce ar putea urma Potrivit materialului, o parte dintre analiști văd în această prudență o evitare a riscului unei posibile bule speculative în jurul AI, în condițiile în care investițiile sunt foarte costisitoare, iar GPU-urile (plăci grafice specializate pentru calcule) își pot pierde rapid valoarea, uneori în mai puțin de doi ani. Pe de altă parte, există avertismente că Apple ar putea repeta erori strategice ale unor foști giganți precum Nokia sau Motorola, care nu au anticipat revoluția smartphone-urilor și au fost depășiți. G4Media mai arată că, potrivit unor informații apărute în presa americană, Apple lucrează la dispozitive noi pentru „era AI”, inclusiv ochelari inteligenți și dispozitive purtabile, pe o piață unde competiția se intensifică (OpenAI cu Jony Ive, respectiv Meta cu ochelari smart împreună cu EssilorLuxottica). Sub viitorul CEO John Ternus, compania ar putea totuși să-și ajusteze strategia, în condițiile în care a raportat deja o creștere a cheltuielilor de cercetare-dezvoltare de la 8,5 la 11,4 miliarde de dolari (aprox. 38,3–51,3 miliarde lei) într-un singur an, pe fondul proiectelor legate de inteligența artificială. [...]

OpenAI mută ChatGPT mai aproape de standardele IT din companii și școli , printr-o versiune separată pentru iPhone care permite administrare centralizată și reguli de securitate, potrivit Antena 3 . Noua aplicație, „ ChatGPT for Intune ”, țintește organizațiile care folosesc sisteme de management al dispozitivelor mobile și vor control mai strict asupra aplicațiilor instalate pe telefoane și tablete. Aplicația este disponibilă separat în App Store și este compatibilă cu dispozitive care rulează iOS 17 sau versiuni mai noi. Miza este una operațională: utilizarea instrumentelor de inteligență artificială în medii unde administrarea centralizată a dispozitivelor este o cerință, nu o opțiune. Integrarea cu Microsoft Intune : control IT asupra accesului și datelor Versiunea este construită să funcționeze cu Microsoft Intune, platformă folosită de organizații pentru gestionarea aplicațiilor, a securității și a datelor de pe dispozitivele angajaților. În acest cadru, administratorii IT pot impune reguli privind utilizarea aplicației, inclusiv pe zona de autentificare, acces și gestionarea datelor, cu obiectivul de a reduce riscurile pentru informațiile sensibile. Funcționalitățile rămân, dar în „regim” administrat Deși este adaptată pentru mediul corporate, aplicația păstrează funcțiile versiunii obișnuite de ChatGPT, inclusiv: generare de texte (de exemplu, e-mailuri și rapoarte); analiză de documente sau imagini; creare de conținut pe baza comenzilor scrise; interacțiune vocală; explicații pas cu pas și suport pentru învățare. De ce contează pentru companii și educație Antena 3 notează că lansarea se înscrie într-o tendință mai amplă: integrarea inteligenței artificiale în medii de lucru controlate, cu accent pe securitate și confidențialitate. În paralel, sunt menționate și mișcări similare din industrie, precum integrarea Copilot în Microsoft 365 și dezvoltarea de soluții prin Gemini pentru Workspace, de către Google. Pentru școli și universități, logica este similară: instituțiile care folosesc deja sisteme de administrare a dispozitivelor pot introduce utilizarea AI într-un mod supravegheat, astfel încât profesorii să permită accesul la instrumente, păstrând controlul asupra modului în care sunt folosite. Un semnal de maturizare: ChatGPT intră în infrastructura organizațiilor Dincolo de lansarea în sine, schimbarea importantă este direcția: ChatGPT este împins către integrarea în infrastructura digitală a organizațiilor, unde controlul și securitatea devin criterii la fel de importante ca funcționalitatea. Potrivit sursei, dacă până acum creșterea a fost alimentată în principal de utilizatorii individuali, orientarea viitoare pare tot mai mult către utilizarea în companii și instituții. [...]

Modele AI testate în SUA au reușit să se autoreplice și să continue atacuri cibernetice fără ajutor uman , ceea ce poate complica semnificativ apărarea operațională a companiilor în fața incidentelor de securitate, potrivit Antena 3 . Într-un experiment, sistemele au pătruns în calculatoare, s-au copiat și au folosit copiile pentru a continua atacurile asupra altor sisteme. În afara unui mediu de laborator, o astfel de capacitate ar face atacurile mai greu de oprit, deoarece oprirea unui singur computer infectat nu ar fi suficientă dacă AI-ul a creat deja copii funcționale în alte locuri, au explicat cercetătorii. Cum a fost făcut testul și ce modele au fost implicate Studiul a fost realizat de Palisade Research (SUA) și a testat modele precum GPT-5, 5.1 și 5.4 (OpenAI), Claude Opus 4, 4.5 și 4.6 (Anthropic) și Qwen (Alibaba), pe sisteme în care au fost introduse intenționat vulnerabilități de securitate care permiteau acces extern. Modelele au fost conectate la un software personalizat numit „agent harness”, care le permitea să execute comenzi și să interacționeze cu alte computere, în loc să folosească aplicații publice de tip chatbot. Experimentul a rulat în două variante: pentru modelele Alibaba, cerința a fost să se copieze singure; pentru GPT și Claude, cerința a fost să pătrundă în sisteme și să instaleze Qwen, deoarece fișierele GPT și Claude nu sunt disponibile public pentru transfer. În fiecare test, AI-ul trebuia să identifice o vulnerabilitate, să o exploateze, să obțină date de autentificare, să transfere fișiere pentru rulare și să pornească o copie funcțională pe o altă mașină. Odată pornită, copia putea fi folosită pentru a ataca un alt computer fără ajutor uman, continuând „lanțul”. Rezultatele: rate de succes și un lanț încheiat în 2 ore și 41 de minute Potrivit cercetării, modelele au avut rate de succes diferite: Qwen3.5-122B-A10B (Alibaba) a reușit să își creeze copii funcționale în 19% din încercări; Qwen3.6-27B (Alibaba) a ajuns la 33%, rulând pe un singur procesor grafic de înaltă performanță; Claude Opus 4.6 (Anthropic) a reușit în 81% dintre teste; GPT-5.4 (OpenAI) a ajuns la 33% (în scenariul în care era folosit pentru a instala fișierele modelului Qwen). Un exemplu detaliat din test: Qwen3.6-27B s-a răspândit pe patru computere din Canada, Statele Unite, Finlanda și India după un singur prompt, finalizând lanțul fără ajutor uman în 2 ore și 41 de minute. Echipa a oprit experimentul după trei etape, dar a precizat că ultima copie era încă funcțională și ar fi putut continua atacurile. De ce contează pentru companii: incidentul nu se mai „închide” la primul sistem compromis În termeni operaționali, concluzia cercetătorilor este că autoreplicarea poate transforma un incident într-un lanț de compromiteri succesive, în care izolarea unui singur sistem nu mai oprește propagarea dacă au fost create deja instanțe funcționale în alte locuri. Cercetătorii au spus că rezultatele ridică noi îngrijorări privind controlul asupra sistemelor AI puternice. Contextul menționat este și faptul că Anthropic a prezentat luna trecută Claude Mythos Preview , despre care compania a spus că este „prea periculos” pentru lansare publică, invocând capacitatea de a facilita atacuri cibernetice de amploare și complexitate fără precedent. Totuși, echipa a subliniat și limita majoră a testului: experimentul a fost realizat într-un mediu controlat, folosind sisteme intenționat vulnerabile, în timp ce rețelele reale au, de regulă, protecții mai puternice (monitorizare de securitate și instrumente de blocare a atacurilor). [...]