Știri
Știri din categoria Inteligență artificială

Elon Musk avertizează că SUA riscă să rămână în urma Chinei în cursa pentru inteligenţă artificială, roboţi şi energie regenerabilă, într-un mesaj publicat pe platforma X şi relatat de Firstpost. Antreprenorul susţine că ritmul accelerat al investiţiilor chineze în tehnologie şi infrastructură energetică ar putea repoziţiona echilibrul global de putere în următorii ani.
Musk a redistribuit un grafic care arată că producţia de energie electrică a Chinei creşte rapid, iar energia solară este principalul motor al extinderii. Potrivit acestuia, capacitatea energetică a Chinei ar putea depăşi-o pe cea a Statelor Unite de trei ori chiar în 2026 sau 2027. El a criticat în repetate rânduri taxele vamale ridicate pentru panourile solare importate în SUA, considerând că acestea frânează tranziţia energetică şi competitivitatea americană.
Creşterea este susţinută de:
Deşi continuă să utilizeze cărbune, China instalează anual mai multă capacitate solară şi eoliană decât orice alt stat, consolidându-şi poziţia de lider în domeniul energiei curate.
În cadrul prezentării rezultatelor financiare Tesla, Musk a declarat că Beijingul ar putea domina şi piaţa roboţilor umanoizi, mizând pe avantajele sale în producţie şi scalare. El a avertizat că, deşi Tesla şi SpaceX sunt în prezent în frunte, următorii competitori importanţi ar putea proveni aproape exclusiv din China.
Un raport al firmei de cercetare Omdia arată că producătorul chinez AgiBot a livrat peste 5.000 de roboţi umanoizi în 2025, reprezentând aproape 40% din piaţa globală.
Avertismente similare vin şi din partea lui Yann LeCun, considerat unul dintre pionierii inteligenţei artificiale, care apreciază că abordarea pragmatică a Chinei – orientată spre aplicaţii industriale – ar putea oferi un avantaj strategic pe termen lung.
Mesajul lui Musk reflectă o preocupare mai amplă privind competitivitatea economică a SUA, într-un moment în care tranziţia energetică şi dezvoltarea tehnologiilor avansate devin elemente centrale ale influenţei globale.
Recomandate

Administrația SUA spune că analizează măsuri de răspundere după ce a acuzat entități din China că desfășoară operațiuni „la scară industrială” pentru a copia sisteme avansate de inteligență artificială dezvoltate în Statele Unite, potrivit news.ro . Miza pentru companiile americane de profil este una operațională și de securitate: protejarea informațiilor proprietare și a mecanismelor de siguranță ale modelelor. Acuzațiile au fost formulate de Michael Kratsios , principalul consilier pentru știință și tehnologie al președintelui, care a susținut că aceste operațiuni ar implica extragerea sistematică de informații și replicarea modelelor americane. „Nu este nimic inovator în a copia în mod organizat inovațiile industriei americane.” Cum ar funcționa copierea: conturi proxy, „ jailbreaking ” și „distilare” Oficialii americani afirmă că aceste campanii ar fi derulate în principal de entități cu baza în China și ar folosi zeci de mii de conturi proxy, precum și tehnici de ocolire a restricțiilor („jailbreaking”) pentru a accesa informații proprietare despre modelele de inteligență artificială. În acest context este menționat și procesul numit „distilare”, adică antrenarea unor modele mai mici pe baza unor sisteme mai mari și mai performante. Deși practica poate avea utilizări legitime, autoritățile americane avertizează că folosirea neautorizată poate afecta securitatea și integritatea modelelor. De ce contează pentru industrie: produse mai ieftine, dar cu riscuri de siguranță Kratsios a susținut că astfel de metode nu pot reproduce complet performanța sistemelor originale, însă pot permite dezvoltarea unor produse mai ieftine, care pot părea comparabile în anumite teste. În același timp, aceste modele ar putea elimina protocoale de siguranță sau mecanisme menite să asigure neutralitatea și acuratețea informațiilor. Ce urmează: informarea companiilor și opțiuni de contracarare Administrația americană intenționează să informeze companiile americane din domeniul inteligenței artificiale despre aceste practici, inclusiv despre tacticile și actorii implicați, și spune că explorează o gamă largă de măsuri pentru a contracara astfel de activități. În material nu sunt detaliate, deocamdată, ce măsuri concrete ar putea fi adoptate sau un calendar. [...]

Inteligența artificială mută presiunea de pe „numărul de joburi” pe „conținutul joburilor” , iar companiile care o adoptă ajung să automatizeze sarcini, nu să elimine profesii întregi, susține CEO-ul Nvidia, Jensen Huang , într-o intervenție citată de Economedia . Mesajul are relevanță economică directă: dacă AI crește productivitatea, cererea se poate muta către competențe noi, nu neapărat către mai puțini angajați. Huang a făcut declarațiile la Stanford Graduate School of Business, în contextul unei discuții mai largi despre temerile legate de impactul AI asupra pieței muncii, potrivit Fortune (sursă citată de Economedia). În opinia lui, „narațiunea” conform căreia AI distruge locuri de muncă este greșită și contraproductivă, pentru că tehnologia schimbă activitățile zilnice, dar nu „elimină pur și simplu” joburile. Exemplul radiologilor: automatizare a sarcinilor, creștere a cererii Pentru a-și susține argumentul, CEO-ul Nvidia a invocat radiologia. În 2016, informaticianul Geoffrey Hinton estima că radiologii vor fi înlocuiți de AI, pe fondul progreselor în analiza imaginilor medicale. Huang spune că, la aproape un deceniu distanță, predicția s-a confirmat doar parțial: AI a ajuns să asiste practic fiecare investigație, însă numărul radiologilor a crescut. Cheia, în explicația lui, este diferența dintre „sarcinile” unui job și „scopul” lui. În radiologie, rolul nu se reduce la interpretarea imaginilor, ci include diagnosticarea și colaborarea cu pacienții și cu alți medici. Cu AI, radiologii pot procesa mai multe cazuri și trata mai mulți pacienți, ceea ce poate alimenta cererea pentru specialiști. Potrivit estimărilor citate, domeniul radiologiei ar urma să crească cu aproximativ 25% până în 2055. România: adopție încă limitată, dar presiune pe competențe În România, impactul AI asupra locurilor de muncă este descris ca moderat, pe fondul unei implementări încă limitate în companii. Un sondaj eJobs menționat de Economedia arată că 8 din 10 angajatori nu se așteaptă ca AI să reducă volumul de recrutare în următorii doi ani, însă anticipează schimbări în competențele cerute candidaților. În același timp, articolul notează că, deși AI începe să automatizeze sarcini repetitive și să crească productivitatea, majoritatea companiilor nu au integrat încă tehnologia la nivel strategic. Concedieri în tech: eficientizare și finanțarea investițiilor în AI În contrast cu mesajul că profesiile nu dispar, Economedia amintește că mari companii tech au început concedieri. Meta Platforms ar urma să reducă 10% din personal (aproximativ 8.000 de angajați) în luna mai, în încercarea de a-și eficientiza operațiunile și de a finanța investiții masive în inteligența artificială. Pentru piața muncii, concluzia practică din aceste exemple este că AI tinde să redistribuie munca: automatizează activități, ridică așteptările de productivitate și mută competiția către calificări, chiar dacă, în unele sectoare, poate coexista cu creșterea cererii de specialiști. [...]

OpenAI lansează GPT-5.5 ca model mai eficient pentru lucru și programare , mizând pe reducerea costului operațional (prin folosirea a mai puțini „tokeni”, unități de text procesate) și pe automatizarea unor sarcini mai complexe în ChatGPT și Codex, potrivit The Verge . Compania spune că GPT-5.5 este „cel mai inteligent și cel mai intuitiv de folosit” model al său și îl prezintă ca un pas spre „un nou mod de a face muncă pe un computer”. După GPT-5.4, lansat luna trecută, OpenAI susține că noul model „excelează” la scriere și depanare de cod, cercetare online, realizarea de foi de calcul și documente, inclusiv atunci când trebuie să lucreze „peste” mai multe instrumente. „În loc să gestionezi cu grijă fiecare pas, îi poți da lui GPT-5.5 o sarcină dezordonată, în mai multe părți, și să ai încredere că va planifica, va folosi instrumente, își va verifica munca, va naviga prin ambiguitate și va continua”, potrivit OpenAI. Un element cu impact direct pentru utilizare și costuri este eficiența: OpenAI afirmă că GPT-5.5 poate folosi „semnificativ mai puțini” tokeni pentru a finaliza sarcini în Codex. Compania mai spune că modelul vine cu „cel mai puternic set de măsuri de siguranță de până acum”, fără a detalia în material ce presupun aceste măsuri. Cum va fi disponibil GPT-5.5 GPT-5.5 începe să fie distribuit începând de joi pentru abonamentele ChatGPT Plus , Pro, Business și Enterprise, precum și în Codex. OpenAI mai precizează că GPT-5.5 Pro va ajunge la utilizatorii Pro, Business și Enterprise. Context: competiția pe piața de cod și instrumente pentru companii Lansarea vine într-un moment de competiție accelerată între OpenAI și Anthropic , pe fondul unei curse spre o posibilă listare publică „mai târziu în acest an”, notează publicația. În acest context, ambele companii încearcă să câștige teren pe segmentul de programare asistată de AI și instrumente pentru companii, iar OpenAI ar fi redus recent așa-numitele „side quests” (proiecte secundare) pentru a se concentra pe surse mai mari de venit. Separat, The Verge menționează că apariția GPT-5.5 are loc cu câteva zile înaintea procesului dintre Elon Musk și executivi OpenAI Sam Altman și Greg Brockman, care ar urma să înceapă luni, într-o instanță federală din Oakland, California. [...]

Google mută masiv munca de programare către IA, iar inginerii ajung să supervizeze codul : în prezent, 75% din codul scris pentru propriile produse este generat de inteligența artificială, potrivit Profit . Schimbarea contează operațional pentru o companie care dezvoltă la scară globală, pentru că redefinește rolul echipelor tehnice și ritmul de livrare al produselor. În acest model, inginerii software care nu mai scriu efectiv cod au rolul de a superviza codul produs de IA, pe măsură ce tehnologia „devine din ce în ce mai bună la programare”, notează publicația. Un exemplu invocat de CEO-ul Google, Sundar Pichai , indică impactul asupra vitezei de execuție: o migrare de cod „deosebit de complexă”, realizată cu „agenți” (instrumente software bazate pe IA care execută sarcini) și ingineri lucrând împreună, ar fi fost finalizată de șase ori mai repede decât era posibil cu un an în urmă, când procesul se baza doar pe ingineri. „Recent, o migrare de cod deosebit de complexă, realizată de agenți și ingineri care au lucrat împreună, a fost finalizată de șase ori mai repede decât era posibil acum un an doar cu ingineri”, spune Sundar Pichai. Ce se schimbă în practică Din informațiile prezentate, tranziția are două efecte directe în organizație: o parte semnificativă din scrierea codului este transferată către IA (75% din total, conform Google); rolul inginerilor se mută spre control, verificare și coordonare a codului generat automat, nu doar spre implementare manuală. Articolul nu oferă detalii despre ce produse sau ce tipuri de proiecte sunt incluse în acest procent și nici despre modul în care Google măsoară „codul scris” de IA, astfel că amploarea exactă pe echipe și arii rămâne neprecizată în materialul citat. [...]

Tehnologia cu inteligență artificială intră în deminarea din Ucraina prin drone și roboți folosiți pentru detectarea și cartografierea dispozitivelor explozive, într-un context în care contaminarea cu muniții neexplodate rămâne o problemă operațională majoră. Potrivit Agerpres , prințul Harry a participat vineri, la Bucea, la o sesiune de instruire în tehnici de deminare care includ utilizarea dronelor și a roboților, în cadrul unei vizite în Ucraina. În a doua zi a vizitei sale, ducele de Sussex a pilotat o dronă echipată cu inteligență artificială, descrisă de organizația caritabilă Halo Trust ca având rolul de a detecta și cartografia dispozitive explozive. În paralel, el a manevrat și un robot – inclusiv un „câine robotizat”, conform fotografiilor publicate – construit pentru recuperarea obiectelor periculoase de la sol. Ce se schimbă în teren: de la căutare manuală la cartografiere asistată de AI Prințul Harry a spus că a fost „impresionat” de contribuția tehnologiei la o deminare „mai inteligentă, mai rapidă și mai sigură”, comparând metodele actuale cu cele de acum aproape 30 de ani, când, potrivit declarației sale, geniștii lucrau „în genunchi” pentru a găsi explozibilii ascunși. „Astăzi, ei utilizează drone, inteligența artificială și roboți pentru mai multă precizie și siguranță.” În aceeași declarație, el a adăugat că această evoluție „salvează și vieți”. Contextul vizitei: Bucea și mesajul politic de la Kiev Vizita la Bucea a inclus și un omagiu adus victimelor masacrelor atribuite armatei Moscovei la începutul invaziei ruse, orașul fiind situat la aproximativ 30 de kilometri nord-vest de Kiev. Agerpres amintește că zeci de civili au fost găsiți decedați în localitate după eliberarea ei de către armata ucraineană, la sfârșitul lunii martie 2022. Cu o zi înainte, la Kiev, prințul Harry i-a cerut public președintelui rus Vladimir Putin să pună capăt războiului și a îndemnat Statele Unite să se implice în negocierile de pace, conflictul fiind descris ca intrat în al cincilea an. [...]

Un nou mod de a antrena roboți să învețe singuri din demonstrații umane ar putea accelera folosirea lor în gospodării și la locul de muncă, dar mută discuția spre reguli de siguranță și responsabilitate. Într-un material publicat de NPR , o echipă de cercetători din Elveția descrie un progres care permite roboților să execute sarcini mai complexe după ce „privesc” oameni, fără a fi programați pas cu pas pentru fiecare situație. Cercetarea este realizată la École Polytechnique Fédérale de Lausanne (EPFL) și a fost publicată în revista Science Robotics . Ideea centrală: roboții pot folosi „învățarea automată” (o ramură a inteligenței artificiale) împreună cu ceea ce autorii numesc „inteligență cinematică” – adică o „înțelegere” internă a modului în care propriul corp se poate mișca în siguranță în spațiu – pentru a adapta o acțiune văzută la un om la propriile constrângeri fizice. Ce s-a demonstrat și de ce contează operațional Într-o demonstrație video descrisă în material, roboți cu un singur braț, fixați pe o bază, urmăresc un instructor uman care aruncă o minge într-un recipient. Apoi, roboții repetă sarcina, ajustându-se la poziția lor și la faptul că nu au „corp” uman. Mai mult, abilitățile învățate pot fi transferate către alți roboți. Miza practică este depășirea unei limite vechi în robotică: multe sisteme pot repeta impecabil o mișcare în condiții identice, dar eșuează când se schimbă contextul (poziția obiectelor, lumina, mediul). Cercetătorul Sthithpragya Gupta explică problema printr-un exemplu din tenis: robotul poate învăța un backhand, dar dacă se schimbă condițiile, performanța „se prăbușește”. „Conștienți de sine” sau doar mai buni la auto-corectare? Materialul folosește termenul „self-aware” („conștient de sine”) într-un sens tehnic, legat de capacitatea robotului de a se auto-corecta și de a-și folosi modelul intern al mișcării pentru a învăța. Susan Schneider, cercetătoare în inteligență artificială la Florida Atlantic University, atrage însă atenția că asta nu înseamnă conștiință în sens uman. Diferența, spune ea, este „simțirea” – experiența subiectivă. Cu alte cuvinte, un robot poate învăța și ajusta comportamente fără să aibă trăiri interioare. Implicația-cheie: nevoia de „garduri” și reguli pentru operare Tocmai această capacitate de învățare mai autonomă ridică întrebări de siguranță. Schneider spune că astfel de evoluții „ridică imediat semnale de alarmă” pentru cercetătorii din zona de siguranță a AI, inclusiv prin posibilitatea ca versiuni viitoare să fie folosite ca arme împotriva oamenilor. Cercetătorii afirmă că au inclus protocoale de siguranță pentru a se asigura că roboții nu pot răni oameni, dar recunosc că dezvoltarea ulterioară va avea nevoie de „garduri de protecție”. Gupta indică explicit necesitatea unor cadre de reglementare privind cine operează un robot și în ce condiții. Cât de repede ajung astfel de roboți în case și companii Robert Platt, profesor care studiază ingineria și robotica la Northeastern University, numește rezultatul un posibil „punct de cotitură” și un „progres major”, dar evită să avanseze un calendar pentru adoptarea pe scară largă a roboților în gospodării. Argumentul lui: ritmul schimbării este foarte rapid, iar exemplul modelelor lingvistice mari (chatboți de tip ChatGPT sau Claude) arată cât de repede se poate comprima distanța dintre „suntem departe” și „deja se întâmplă”. În esență, progresul descris sugerează o accelerare a capabilităților operaționale ale roboților în medii variabile – iar asta mută presiunea spre standarde de siguranță, reguli de utilizare și responsabilitate pentru cei care îi pun în funcțiune. [...]