Știri
Știri din categoria Inteligență artificială

Inteligența artificială mută presiunea de pe „numărul de joburi” pe „conținutul joburilor”, iar companiile care o adoptă ajung să automatizeze sarcini, nu să elimine profesii întregi, susține CEO-ul Nvidia, Jensen Huang, într-o intervenție citată de Economedia. Mesajul are relevanță economică directă: dacă AI crește productivitatea, cererea se poate muta către competențe noi, nu neapărat către mai puțini angajați.
Huang a făcut declarațiile la Stanford Graduate School of Business, în contextul unei discuții mai largi despre temerile legate de impactul AI asupra pieței muncii, potrivit Fortune (sursă citată de Economedia). În opinia lui, „narațiunea” conform căreia AI distruge locuri de muncă este greșită și contraproductivă, pentru că tehnologia schimbă activitățile zilnice, dar nu „elimină pur și simplu” joburile.
Pentru a-și susține argumentul, CEO-ul Nvidia a invocat radiologia. În 2016, informaticianul Geoffrey Hinton estima că radiologii vor fi înlocuiți de AI, pe fondul progreselor în analiza imaginilor medicale. Huang spune că, la aproape un deceniu distanță, predicția s-a confirmat doar parțial: AI a ajuns să asiste practic fiecare investigație, însă numărul radiologilor a crescut.
Cheia, în explicația lui, este diferența dintre „sarcinile” unui job și „scopul” lui. În radiologie, rolul nu se reduce la interpretarea imaginilor, ci include diagnosticarea și colaborarea cu pacienții și cu alți medici. Cu AI, radiologii pot procesa mai multe cazuri și trata mai mulți pacienți, ceea ce poate alimenta cererea pentru specialiști.
Potrivit estimărilor citate, domeniul radiologiei ar urma să crească cu aproximativ 25% până în 2055.
În România, impactul AI asupra locurilor de muncă este descris ca moderat, pe fondul unei implementări încă limitate în companii. Un sondaj eJobs menționat de Economedia arată că 8 din 10 angajatori nu se așteaptă ca AI să reducă volumul de recrutare în următorii doi ani, însă anticipează schimbări în competențele cerute candidaților.
În același timp, articolul notează că, deși AI începe să automatizeze sarcini repetitive și să crească productivitatea, majoritatea companiilor nu au integrat încă tehnologia la nivel strategic.
În contrast cu mesajul că profesiile nu dispar, Economedia amintește că mari companii tech au început concedieri. Meta Platforms ar urma să reducă 10% din personal (aproximativ 8.000 de angajați) în luna mai, în încercarea de a-și eficientiza operațiunile și de a finanța investiții masive în inteligența artificială.
Pentru piața muncii, concluzia practică din aceste exemple este că AI tinde să redistribuie munca: automatizează activități, ridică așteptările de productivitate și mută competiția către calificări, chiar dacă, în unele sectoare, poate coexista cu creșterea cererii de specialiști.
Recomandate

Nvidia își extinde utilizarea internă a OpenAI Codex , iar peste 10.000 de angajați folosesc deja varianta bazată pe GPT-5.5 , într-o mișcare care indică o accelerare a automatizării muncii de programare și a fluxurilor conexe la scară de companie, potrivit IT之家 . Conform informațiilor, Nvidia a transmis printr-un comunicat oficial că Codex este alimentat de cel mai nou model „de frontieră” al OpenAI, GPT-5.5, și rulează pe sistemul de tip rack GB200 NVL72 al Nvidia. În interiorul companiei, utilizarea Codex s-a extins dincolo de echipele de inginerie, acoperind și produs, juridic, marketing, financiar, vânzări, resurse umane, operațiuni și programe pentru dezvoltatori. De ce contează: costul și eficiența fac posibilă rularea la scară „enterprise” Articolul indică faptul că inginerii Nvidia folosesc Codex cu GPT-5.5 de câteva săptămâni, iar creșterea de eficiență „poate fi cuantificată”. Nvidia leagă această scalare de infrastructura GB200 NVL72, despre care afirmă că, față de generația anterioară: reduce costul pe un milion de tokeni (unități de text procesate de modele) de 35 de ori ; crește „outputul” de tokeni pe megawatt pe secundă cu 50 de ori . În logica prezentată, avantajul combinat de cost și eficiență energetică ar fi elementul care face fezabilă inferența (rularea modelului pentru a genera rezultate) la nivel de companie, nu doar în proiecte punctuale. Impact operațional: timpi mai scurți de depanare și livrare de funcționalități În exemplele oferite, sarcini care anterior necesitau zile pentru depanare ar putea fi închise în câteva ore, iar experimente în baze de cod complexe, care durau săptămâni, ar putea produce rezultate „peste noapte”. Textul mai susține că echipele pot livra funcționalități „cap-coadă” prin instrucțiuni în limbaj natural, cu o fiabilitate mai bună decât la modelele mai vechi și cu mai puțin „timp mort” și refaceri. Mesaj intern: Jensen Huang cere adoptare generalizată IT之家 notează că Jensen Huang, fondator și CEO al Nvidia, le-a cerut angajaților într-un e-mail intern să folosească Codex. „Să trecem la viteza luminii, bine ați venit în era AI.” [...]

Administrația SUA spune că analizează măsuri de răspundere după ce a acuzat entități din China că desfășoară operațiuni „la scară industrială” pentru a copia sisteme avansate de inteligență artificială dezvoltate în Statele Unite, potrivit news.ro . Miza pentru companiile americane de profil este una operațională și de securitate: protejarea informațiilor proprietare și a mecanismelor de siguranță ale modelelor. Acuzațiile au fost formulate de Michael Kratsios , principalul consilier pentru știință și tehnologie al președintelui, care a susținut că aceste operațiuni ar implica extragerea sistematică de informații și replicarea modelelor americane. „Nu este nimic inovator în a copia în mod organizat inovațiile industriei americane.” Cum ar funcționa copierea: conturi proxy, „ jailbreaking ” și „distilare” Oficialii americani afirmă că aceste campanii ar fi derulate în principal de entități cu baza în China și ar folosi zeci de mii de conturi proxy, precum și tehnici de ocolire a restricțiilor („jailbreaking”) pentru a accesa informații proprietare despre modelele de inteligență artificială. În acest context este menționat și procesul numit „distilare”, adică antrenarea unor modele mai mici pe baza unor sisteme mai mari și mai performante. Deși practica poate avea utilizări legitime, autoritățile americane avertizează că folosirea neautorizată poate afecta securitatea și integritatea modelelor. De ce contează pentru industrie: produse mai ieftine, dar cu riscuri de siguranță Kratsios a susținut că astfel de metode nu pot reproduce complet performanța sistemelor originale, însă pot permite dezvoltarea unor produse mai ieftine, care pot părea comparabile în anumite teste. În același timp, aceste modele ar putea elimina protocoale de siguranță sau mecanisme menite să asigure neutralitatea și acuratețea informațiilor. Ce urmează: informarea companiilor și opțiuni de contracarare Administrația americană intenționează să informeze companiile americane din domeniul inteligenței artificiale despre aceste practici, inclusiv despre tacticile și actorii implicați, și spune că explorează o gamă largă de măsuri pentru a contracara astfel de activități. În material nu sunt detaliate, deocamdată, ce măsuri concrete ar putea fi adoptate sau un calendar. [...]

Google mută masiv munca de programare către IA, iar inginerii ajung să supervizeze codul : în prezent, 75% din codul scris pentru propriile produse este generat de inteligența artificială, potrivit Profit . Schimbarea contează operațional pentru o companie care dezvoltă la scară globală, pentru că redefinește rolul echipelor tehnice și ritmul de livrare al produselor. În acest model, inginerii software care nu mai scriu efectiv cod au rolul de a superviza codul produs de IA, pe măsură ce tehnologia „devine din ce în ce mai bună la programare”, notează publicația. Un exemplu invocat de CEO-ul Google, Sundar Pichai , indică impactul asupra vitezei de execuție: o migrare de cod „deosebit de complexă”, realizată cu „agenți” (instrumente software bazate pe IA care execută sarcini) și ingineri lucrând împreună, ar fi fost finalizată de șase ori mai repede decât era posibil cu un an în urmă, când procesul se baza doar pe ingineri. „Recent, o migrare de cod deosebit de complexă, realizată de agenți și ingineri care au lucrat împreună, a fost finalizată de șase ori mai repede decât era posibil acum un an doar cu ingineri”, spune Sundar Pichai. Ce se schimbă în practică Din informațiile prezentate, tranziția are două efecte directe în organizație: o parte semnificativă din scrierea codului este transferată către IA (75% din total, conform Google); rolul inginerilor se mută spre control, verificare și coordonare a codului generat automat, nu doar spre implementare manuală. Articolul nu oferă detalii despre ce produse sau ce tipuri de proiecte sunt incluse în acest procent și nici despre modul în care Google măsoară „codul scris” de IA, astfel că amploarea exactă pe echipe și arii rămâne neprecizată în materialul citat. [...]

Senatoarea democrată Elizabeth Warren avertizează că finanțarea tot mai îndatorată și mai puțin transparentă a companiilor de inteligență artificială ar putea transforma o eventuală „spargere” a bulei AI într-un șoc cu efecte sistemice, comparabil cu 2008 , potrivit IT Home . Warren a vorbit miercuri, la Washington, în cadrul unui eveniment organizat de Vanderbilt Policy Accelerator , unde a spus că vede „asemănări uimitoare” între dinamica actuală din AI și mecanismele care au precedat criza financiară din 2008. Ea a amintit că, după criza de atunci, a avut un rol în promovarea înființării unei noi agenții de supraveghere a protecției consumatorilor în zona financiară. De ce contează: datoria și finanțarea „în umbră” pot amplifica riscul În evaluarea senatoarei, deși AI are „un potențial uriaș”, multe companii din sector „ard” capital și își cresc expunerea prin îndatorare, împingând industria spre o zonă de risc. Problema centrală, în logica ei, este decalajul dintre ritmul de creștere și ritmul cheltuielilor: veniturile nu țin pasul cu investițiile, iar companiile ajung să caute bani în canale mai puțin transparente. Warren a indicat explicit orientarea către fonduri de credit privat (private credit) ca alternativă la finanțarea bancară tradițională, subliniind că aceste surse nu sunt supravegheate la fel de strict ca băncile. Într-un astfel de cadru, dacă firmele din AI nu reușesc „foarte rapid” să-și crească veniturile, ar putea să nu poată susține povara datoriilor, iar „unele practici contabile discutabile” ar putea accelera pierderea încrederii. Mecanismul de contagiune invocat: legături cu bănci locale, asigurări și pensii Un element pe care Warren îl consideră și mai periculos este interconectarea finanțării AI cu alte surse de capital din economie. Ea a spus că modul de finanțare a ajuns să lege soarta companiilor de AI de actori precum: bănci locale; fonduri de asigurări; fonduri de pensii. În această analogie, dacă „alpinistul” (sectorul AI) cade, poate trage după el și alte părți conectate prin aceeași „coardă”, ceea ce ar putea destabiliza piețele financiare și, în scenariul ei, ar putea duce la o criză de tip 2008. Ce cere Warren: intervenție rapidă a Congresului și un nou regulator digital Senatoarea a susținut că Congresul ar trebui să intervină rapid și a propus înființarea unui nou organism de reglementare digitală, cu atribuții în aplicarea legislației privind concurența (antitrust), confidențialitatea și protecția consumatorilor. Totodată, Warren a cerut ca, în cazul în care sectorul AI intră în dificultate, Congresul să nu intervină cu măsuri de salvare (bailout), insistând asupra ideii de responsabilizare. „Tăiați coarda. Nu lăsați AI să se lege de această coardă.” [...]

Anthropic a urcat la o evaluare de aproximativ 1 trilion de dolari (aprox. 4,6 trilioane lei) în tranzacții pe piața secundară , un nivel care o plasează peste OpenAI și arată cât de repede se pot repoziționa așteptările investitorilor în AI, potrivit Mobilissimo . Evaluarea este indicată de platforme precum Forge Global și reflectă tranzacții între investitori pe piețe private, nu o cotație oficială de bursă. Anthropic nu este listată, iar interesul ridicat se traduce prin încercări ale investitorilor de a cumpăra acțiuni de la angajați sau investitori timpurii, într-un context cu puțini vânzători. Ce alimentează saltul de evaluare Creșterea este pusă pe seama cererii foarte mari pentru acțiunile companiei, susținută de interesul pentru produsele sale de inteligență artificială, în special asistentul de programare Claude. În unele cazuri, ofertele ar depăși chiar 1,1 trilioane de dolari (aprox. 5,1 trilioane lei), iar tranzacțiile s-ar închide rapid din cauza disponibilității reduse de acțiuni la vânzare. Un element important de context: în urmă cu doar trei luni, Anthropic era evaluată la aproximativ 380 de miliarde de dolari (aprox. 1,7 trilioane lei) după o rundă de finanțare. Potrivit unor investitori citați în material, pe lângă performanțele companiei, contribuie și fenomenul FOMO („teama de a rata oportunitatea”), care poate împinge prețurile în sus chiar și „indiferent de preț”. Efectul asupra competiției cu OpenAI În paralel, interesul pentru acțiunile OpenAI ar fi scăzut, iar unele tranzacții s-ar fi realizat sub evaluarea anterioară, menționată la circa 852 de miliarde de dolari (aprox. 3,9 trilioane lei). Schimbarea de sentiment sugerează o competiție mai dură în sectorul AI, în care percepția investitorilor poate muta rapid „clasamentul” companiilor, chiar și fără schimbări fundamentale majore. Materialul are ca sursă secundară Business Insider, menționat de Mobilissimo. [...]

Inteligența artificială ar putea consolida rolul iPhone ca „hub” de date personale, nu să-l înlocuiască , susține CEO-ul Perplexity, Aravind Srinivas , într-o intervenție citată de CNMO . Ideea centrală: pe măsură ce AI devine mai capabilă și are nevoie de „context real”, valoarea datelor personale stocate pe telefon crește, iar dispozitivul care le găzduiește devine mai greu de substituit. Srinivas folosește metafora „pașaportului digital” pentru a descrie iPhone-ul: un loc unde se adună plăți, identitate, date de sănătate, comunicare, fotografii și amintiri private. În opinia sa, acest tip de date, aflate deja pe dispozitiv, reprezintă un avantaj pe care companii precum OpenAI sau Google nu îl au în aceeași formă, iar evoluția AI amplifică importanța acestui „depozit” personal. De ce contează: mutarea sarcinilor AI pe dispozitiv poate schimba competiția În discuția despre percepția că Apple ar fi în urma OpenAI și Google în cursa AI, Srinivas nu neagă diferența, dar mută accentul pe trei elemente: hardware, confidențialitate și controlul datelor. El indică Apple Silicon drept un „activ subestimat”, care ar deveni tot mai relevant dacă sarcinile de lucru ale AI (workload-uri) se mută treptat local, pe dispozitiv, în loc să fie rulate pe servere. În acest scenariu, „buclele” de lucru ale unor agenți AI (sisteme care execută sarcini în lanț, semi-autonom) ar ajunge să ruleze local și să se lege direct de resursele din telefon: fișiere, aplicații, mesaje, e-mail, notițe și fotografii. Implicația operațională este că avantajul nu ar mai sta doar în modelul AI „din cloud”, ci și în integrarea strânsă dintre cip, sistemul de operare și datele personale. Confidențialitatea, ca avantaj competitiv acumulat O a doua linie de argumentație este confidențialitatea. Srinivas spune că, pentru a oferi ajutor mai „profund”, AI va avea nevoie de acces la date tot mai sensibile, iar reputația Apple construită în jurul protecției vieții private ar putea deveni un avantaj „invizibil” în adoptarea unor astfel de funcții. El menționează și perspectiva ca John Ternus să devină viitor CEO Apple, apreciind contribuția acestuia în tranziția către Apple Silicon și sugerând că investițiile viitoare în cipuri (inclusiv la 2 nanometri) ar întări poziționarea Apple pentru rularea locală a unor agenți AI „mai privați”. Limita argumentului: Apple nu are încă un model AI de vârf comparabil CNMO notează și o rezervă prezentă în presa internațională: deși Apple are o integrare puternică hardware–software–date personale, compania nu a prezentat până acum un model AI de ultimă generație care să concureze direct cu OpenAI sau Google, iar Siri rămâne în urmă față de noile sisteme conversaționale. În esență, miza nu este dacă AI „omoară” iPhone-ul, ci dacă Apple poate transforma avantajele de dispozitiv, date și confidențialitate într-o ofertă AI competitivă, pe măsură ce tot mai multe funcții se mută din cloud pe telefon. [...]