Știri
Știri din categoria Inteligență artificială

Elon Musk, cunoscut critic al Forumului Economic Mondial de la Davos, a prezis că roboții vor depăși numeric oamenii în cadrul primei sale apariții la acest eveniment, informează CBS News. Musk, care a criticat anterior forumul ca fiind o "guvernare mondială nealeasă", a discutat despre impactul viitor al roboticii și inteligenței artificiale asupra economiei globale.
Într-un interviu cu Larry Fink, CEO al BlackRock și co-președinte al Forumului Economic Mondial, Musk a subliniat că misiunea Tesla include acum crearea unei "abundențe sustenabile" prin dezvoltarea roboticii. Tesla lucrează la un robot umanoid numit Optimus și la robotaxiuri automate. Musk a afirmat că această tehnologie este esențială pentru a asigura un nivel de trai ridicat pentru toți oamenii și a prezis că roboții vor deveni omniprezenți, stimulând astfel economia globală.
Musk a menționat că robotul Optimus ar putea fi disponibil pe piață în 2027. În prezent, acești roboți efectuează sarcini simple în fabricile Tesla, dar Musk estimează că până la sfârșitul anului viitor, aceștia ar putea fi vânduți publicului larg, având o fiabilitate ridicată. Potrivit analiștilor de la Barclays, piața roboților umanoizi este evaluată acum între 2 și 3 miliarde de dolari, dar se așteaptă să crească semnificativ până în 2035.
În ceea ce privește conducerea autonomă, Musk a declarat că problema mașinilor autonome este "practic rezolvată" și că Tesla a lansat deja robotaxiuri în câteva orașe din SUA. El a adăugat că speră să obțină aprobarea pentru conducerea complet autonomă supravegheată în Europa și China în viitorul apropiat.
Recomandate

Elon Musk a admis că xAI a folosit modele OpenAI pentru a antrena Grok , o recunoaștere care împinge în prim-plan „zona gri” a industriei AI privind distilarea modelelor și riscurile de încălcare a proprietății intelectuale, potrivit G4Media . Declarația a fost făcută într-un proces din California , în timpul unei audieri în care Musk a fost întrebat despre practicile de antrenare a modelelor de inteligență artificială. Discuția s-a concentrat pe „distilare” – o metodă prin care un model mai mare și mai performant este folosit pentru a antrena unul mai mic, transferându-i din capabilități. Întrebat direct dacă xAI a folosit tehnologia OpenAI în acest mod, Musk a evitat inițial un răspuns tranșant, spunând că „în general, toate companiile de AI” recurg la astfel de practici. Presat să clarifice, el a răspuns: „Parțial”. De ce contează: distilarea, între practică uzuală și dispută de proprietate intelectuală Distilarea este descrisă ca fiind larg utilizată în industrie, mai ales pentru a obține versiuni mai eficiente și mai accesibile ale unor sisteme complexe. În același timp, metoda a devenit controversată pe fondul disputelor legate de proprietatea intelectuală și de respectarea termenilor de utilizare. În acest context, articolul menționează mai multe poziții și reacții din industrie: Anthropic și OpenAI au atras atenția asupra riscurilor ca distilarea să fie folosită pentru a replica performanțele unor modele concurente fără a parcurge întregul proces de dezvoltare. Unele firme din China au fost acuzate că folosesc astfel de metode pentru a reduce costurile și timpul de dezvoltare. Google a anunțat măsuri pentru a limita ceea ce numește „atacuri de distilare”, pe care le consideră o posibilă formă de încălcare a proprietății intelectuale. Reprezentanții Anthropic au spus, într-o analiză publicată anterior, că distilarea este în esență o metodă legitimă și frecvent folosită pentru optimizarea modelelor proprii, dar care poate fi exploatată pentru avantaje competitive „discutabile”. Ce susține Musk Ulterior, Musk a spus că este „o practică standard” ca modelele de inteligență artificială să fie validate sau îmbunătățite cu ajutorul altor sisteme similare. Declarațiile vin pe fondul intensificării competiției în AI, într-un moment în care delimitarea dintre inovație, colaborare și utilizare controversată a tehnologiei devine tot mai dificilă, mai notează articolul. [...]

Elon Musk a recunoscut în instanță că xAI a folosit „distilarea” pe modele OpenAI pentru a antrena Grok , o practică ce poate eroda avantajul competitiv al laboratoarelor care investesc masiv în infrastructură de calcul și care, în același timp, ridică mizele privind aplicarea termenilor de utilizare ai modelelor, potrivit TechCrunch . Mărturia a fost dată joi, într-o instanță federală din California, în procesul în care Musk dă în judecată OpenAI , pe CEO-ul Sam Altman și pe Greg Brockman. Întrebat dacă xAI a folosit tehnici de distilare pe modele OpenAI pentru a antrena Grok, Musk a spus că este o practică generală în industrie, iar când i s-a cerut să confirme dacă răspunsul este „da”, a răspuns: „Parțial”. De ce contează: distilarea reduce bariera de cost și apasă pe regulile de utilizare Distilarea (în contextul modelelor de inteligență artificială) este o metodă prin care un model nou este antrenat să reproducă comportamentul unuia mai performant, prin interogări sistematice ale chatboturilor sau ale interfețelor de programare (API) puse la dispoziție public. Miza economică este că astfel pot fi obținute modele „aproape la fel de capabile” la costuri mai mici, subminând avantajul construit de jucătorii mari prin investiții în capacitate de calcul. TechCrunch notează că nu este clar dacă distilarea este explicit ilegală; mai degrabă, ar putea încălca termenii de utilizare impuși de companii pentru produsele lor. Reacția industriei: încercări de a bloca interogările „suspecte” În paralel, OpenAI, Anthropic și Google ar fi lansat, prin Frontier Model Forum, o inițiativă de schimb de informații despre cum pot fi combătute încercările de distilare, în special din China. Abordarea descrisă se bazează pe identificarea și prevenirea interogărilor în masă care pot „cartografia” comportamentul intern al modelelor. OpenAI nu a răspuns solicitării de comentariu privind declarația lui Musk, la momentul publicării articolului. Context din proces: poziționarea xAI în cursa globală În aceeași mărturie, Musk a fost întrebat despre o afirmație făcută vara trecută, potrivit căreia xAI ar urma să depășească în curând orice companie, cu excepția Google. El a clasat furnizorii de top astfel: Anthropic pe primul loc, urmată de OpenAI, Google și modele chinezești cu cod deschis, caracterizând xAI drept o companie mult mai mică, cu „câteva sute” de angajați. [...]

Procesul dintre Elon Musk și Sam Altman riscă să complice traseul OpenAI către o listare și să amplifice presiunea juridică asupra modelului său hibrid (nonprofit–profit), într-un moment în care compania este descrisă ca fiind „pregătită” pentru un IPO, potrivit Al Jazeera . Într-un proces federal din California , Musk – cofondator OpenAI – a depus mărturie pentru a doua zi, susținând că Altman a „trădat” promisiunile inițiale de a păstra organizația ca nonprofit „dedicată beneficiului umanității”. Litigiul pornește de la înființarea OpenAI în 2015 ca nonprofit și transformarea ulterioară într-o structură orientată spre profit. Musk a declarat în fața juraților că și-a pierdut încrederea că Altman va menține misiunea nonprofit și a spus că, spre finalul lui 2022, se temea că Altman încerca să „fure caritatea”, afirmând că „s-a dovedit a fi adevărat”. Altman a fost prezent în sală, dar nu a depus mărturie, conform relatării. Miza economică: IPO și modelul de finanțare Avocații OpenAI au respins acuzațiile și au susținut că nu a existat niciodată un angajament de a rămâne nonprofit. Compania afirmă că a creat o componentă cu scop lucrativ pentru a finanța nevoile mari de putere de calcul și pentru a atrage talente. În același timp, OpenAI ar fi „pregătită” pentru o ofertă publică inițială care ar putea evalua compania la 1.000 de miliarde de dolari, potrivit Reuters, citată de Al Jazeera. În acest context, disputa privind guvernanța și misiunea inițială poate deveni un factor de risc reputațional și juridic, cu potențiale efecte asupra investitorilor și structurii de control. Ce cere Musk în instanță Musk a investit aproximativ 38 de milioane de dolari (aprox. 174 milioane lei) în OpenAI între 2015 și 2017 și a părăsit organizația în 2018. În proces, el solicită: 150 de miliarde de dolari (aprox. 690 miliarde lei) despăgubiri de la OpenAI și Microsoft , cu orice sumă acordată direcționată către brațul caritabil al OpenAI; obligarea OpenAI să revină la statutul de nonprofit; înlăturarea lui Sam Altman și a cofondatorului Greg Brockman din conducere. Musk a mai susținut că organizația a fost „capturată” și a descris o ofertă de a investi, venită din partea lui Altman, ca părând „ca o mită”. Apărarea OpenAI: competiția cu xAI Echipa juridică a OpenAI afirmă că acțiunea lui Musk urmărește să submineze compania în favoarea propriei sale inițiative, xAI. OpenAI, organizată acum ca „public benefit corporation” (o formă corporativă care combină obiective comerciale cu o misiune de interes public), susține că demersul este alimentat de competiție și notează că xAI este în urma OpenAI la adopția de către utilizatori. Context suplimentar despre proces apare într-un material anterior al publicației, „stand for a second day”, disponibil aici: Al Jazeera . [...]

Noile teste arată că GPT-5.5 ajunge din urmă Mythos Preview la capabilități relevante pentru securitate cibernetică , ceea ce pune sub semnul întrebării argumentul comercial al lansărilor „cu acces limitat” vândute ca măsură de siguranță, potrivit Ars Technica . În evaluarea AISI (instituția nu este detaliată în fragmentul furnizat), rezultatele pentru GPT-5.5 sugerează că Mythos Preview probabil nu a fost „un progres specific unui singur model”, ci mai degrabă un efect al îmbunătățirilor generale în autonomie pe termen lung, raționament și programare — adică exact tipul de evoluții care pot ridica simultan și utilitatea, și riscul în zona de „cyber”. De ce contează pentru companii și piața de securitate Dacă performanța „de vârf” în scenarii de securitate cibernetică nu mai este un diferențiator exclusiv al unui model foarte mediatizat, atunci: justificarea pentru prețuri premium și poziționare bazată pe „pericol” devine mai greu de susținut; presiunea se mută pe guvernanță (cine primește acces, în ce condiții) și pe control operațional, nu pe „unicitatea” tehnologică a unui singur produs; organizațiile care evaluează astfel de modele pentru apărare trebuie să trateze riscul ca fiind mai „generalizat” în generațiile noi de modele, nu ca o excepție. „Marketing bazat pe frică” și accesul limitat, în centrul discuției Într-un interviu recent acordat podcastului Core Memory , Sam Altman, CEO OpenAI, a criticat promovarea lansărilor limitate prin ceea ce el numește „marketing bazat pe frică”. El a comparat retorica din jurul unor modele cu un mesaj de tipul „am construit o bombă” urmat de vânzarea unui „adăpost anti-bombă” pentru 100 de milioane de dolari. „Va exista mult mai multă retorică despre modele prea periculoase pentru a fi lansate. Vor exista și modele foarte periculoase care vor trebui lansate în moduri diferite.” Interviul este disponibil aici: Core Memory . Cum își structurează OpenAI accesul la modelele „cyber” OpenAI a introdus în februarie un program-pilot numit „ Trusted Access for Cyber ”, prin care cercetători în securitate și companii își pot verifica identitatea și își pot înregistra interesul pentru a studia modele de frontieră în scopuri defensive: Trusted Access for Cyber și pagina de verificare: chatgpt.com/cyber . Luna trecută, compania a spus că folosește această listă pentru a controla lansarea limitată a GPT-5.4-Cyber, o variantă „ajustată intenționat” pentru capabilități suplimentare în zona cyber și cu mai puține restricții: OpenAI . Iar joi, Altman a afirmat pe rețele sociale că lansarea inițială a GPT-5.5-Cyber va fi, la rândul ei, limitată „în următoarele zile” la „apărători critici” din zona cyber: X . Ce urmează Pe termen scurt, miza se mută pe criteriile de acces și pe modul în care astfel de programe „cu identitate verificată” vor deveni un standard de piață pentru utilizarea defensivă. În același timp, dacă îmbunătățirile care cresc riscul sunt „mai generale”, cum sugerează AISI, presiunea pentru reguli și proceduri de lansare diferențiate (nu doar pentru un singur model „special”) ar putea crește. Limitarea importantă: fragmentul furnizat nu include detalii despre metodologie, seturi de teste sau scoruri, deci comparația rămâne la nivelul concluziei prezentate. [...]

Departamentul american al Apărării își extinde rapid accesul la instrumente de inteligență artificială pe rețele militare clasificate , după ce Amazon Web Services (AWS) , Microsoft și NVIDIA au semnat acorduri care permit Pentagonului utilizarea tehnologiilor lor „pentru utilizare operațională legală”, potrivit Engadget . Informația este relatată inițial de Bloomberg , care notează că, alături de cele trei companii, și Reflection AI a încheiat un acord similar. Pentagonul a transmis, într-o declarație citată de Bloomberg, că aceste acorduri „accelerează transformarea” către un model în care armata SUA devine o „forță de luptă AI-first” (orientată în primul rând către folosirea inteligenței artificiale). Ce se schimbă operațional: AI pe rețele clasificate Elementul cu impact direct este faptul că instrumentele de AI ale companiilor vor putea fi folosite pe rețele militare clasificate , ceea ce ridică miza față de utilizări comerciale sau administrative. Formularea „pentru utilizare operațională legală” indică un cadru de utilizare în interiorul regulilor și procedurilor militare, fără ca materialul citat să detalieze ce tipuri de aplicații vor fi implementate efectiv. Lista furnizorilor se lărgește; Anthropic rămâne în afara acordurilor Engadget arată că AWS, Microsoft și NVIDIA se alătură altor companii care au semnat acorduri similare cu Departamentul Apărării, între care xAI, OpenAI și Google. În acest context, Anthropic este prezentată drept singurul furnizor major de AI din SUA care nu are un acord funcțional cu Pentagonul. Materialul descrie și tensiunile dintre administrația Trump și Anthropic: în februarie, secretarul apărării Pete Hegseth ar fi amenințat că va eticheta compania drept „risc pentru lanțul de aprovizionare” dacă nu renunță la măsuri de protecție care împiedică folosirea chatbotului Claude pentru supraveghere în masă a americanilor sau în arme complet autonome. După refuzul companiei, președintele Trump a ordonat agențiilor federale să înceteze utilizarea produselor Anthropic în termen de șase luni, iar disputa a ajuns în instanță. Reacție publică: semnal de risc reputațional pentru furnizori Engadget notează că ritmul de adopție al AI în apărare și viteza cu care marile companii americane „se aliniază” pentru a vinde către administrația Trump ar trebui să fie un motiv de îngrijorare pentru cetățenii SUA. Ca indiciu al sensibilității publice, publicația citează date ale firmei de inteligență de piață Sensor Tower: OpenAI ar fi înregistrat o creștere cu 413% de la an la an a dezinstalărilor aplicației ChatGPT în februarie, după acordul companiei cu Departamentul Apărării. Ce urmează, pe baza informațiilor disponibile, este extinderea acestui tip de parteneriate în zona militară, cu o presiune tot mai mare pe furnizorii care nu acceptă condițiile Pentagonului și cu posibile costuri de imagine pentru cei care intră în astfel de acorduri. [...]

Meta își consolidează strategia de „platformă” în robotica umanoidă prin achiziția startupului Assured Robot Intelligence (ARI) , într-o mișcare care sugerează că grupul vrea să devină furnizorul „stratului de inteligență” pentru roboți, nu neapărat un producător de hardware, potrivit The Next Web . Tranzacția a fost închisă în aceeași zi în care a fost anunțată, iar termenii financiari nu au fost făcuți publici. Cei doi cofondatori ARI — Lerrel Pinto (fost cofondator Fauna Robotics) și Xiaolong Wang (fost cercetător Nvidia și profesor asociat la UC San Diego) — au intrat în Meta Superintelligence Labs. De ce contează: Meta pariază pe „Android-ul” roboților umanoizi Miza nu este doar o achiziție de talent, ci întărirea unei strategii explicite: Meta vrea să reproducă în robotica umanoidă modelul prin care Android și cipurile Qualcomm au devenit fundația industriei smartphone-urilor. În această logică, Meta ar furniza senzori, software și modele de inteligență artificială (IA) pe care să le poată folosi și producători pe care compania nu îi deține și nu îi controlează. Publicația notează că Meta a lansat anul trecut Meta Robotics Studio , l-a recrutat pe fostul CEO Cruise Marc Whitten pentru a conduce efortul și a început să atragă aproximativ 100 de ingineri pentru a dezvolta atât hardware umanoid intern, cât și modelele IA care îl susțin. CTO-ul Andrew Bosworth a comparat pariul pe roboți umanoizi ca amploare cu cel pe realitate augmentată, domeniu în care Meta a cheltuit deja „zeci de miliarde” prin Reality Labs. Ce aduce ARI: control „whole-body” și senzori tactili Contribuția ARI este descrisă ca un set de capabilități pentru „inteligență robotică” menită să ajute roboții să înțeleagă, să anticipeze și să se adapteze comportamentului uman în medii neorganizate. Practic, este vorba despre: modele de control pentru întregul corp (coordonarea membrelor, echilibru, mișcare), pe baza inputului senzorial în timp real; e-Flesh , un senzor tactil care măsoară deformări în microstructuri imprimabile 3D folosind magneți și magnetometre, într-o zonă pe care sursa o descrie drept una dintre problemele încă nerezolvate ale roboticii umanoide: „simțul tactil”; cercetare relevantă pentru optimizarea și comprimarea modelelor IA , astfel încât să ruleze eficient pe resursele limitate de calcul dintr-un robot, fără a depinde de conexiuni permanente la centre de date. Context: piața se aglomerează, iar Meta alege „al doilea eșalon” The Next Web descrie o piață care a trecut rapid „de la speculativ la competitiv” și enumeră mai mulți jucători și ținte de producție, de la Tesla (Optimus) la 1X, Apptronik, Amazon și Unitree. În acest peisaj, analiza împarte competiția în trei categorii: producători integrați vertical (care proiectează și vând robotul complet), furnizori de platformă (stratul de inteligență/sistemul de operare/componente-cheie), furnizori de componente (cipuri, senzori). Meta se poziționează în categoria a doua, iar sursa notează că o strategie similară este urmărită și de Google, prin programul Gemini Robotics al DeepMind și parteneriatul cu Apptronik. Ce urmează: pariul depinde de cum se structurează industria Diferența față de pariurile anterioare pe hardware este că Meta nu încearcă, în această etapă, să producă hardware la scară mare, ci să ofere „creierul” — modelele, senzorii și stiva software — pentru ca alții să construiască „corpul”. Publicația subliniază însă că modelul „Android” funcționează doar dacă piața ajunge să aibă mulți producători care au nevoie de o platformă comună; dacă industria se consolidează în jurul câtorva jucători integrați vertical, cu IA proprietară, spațiul pentru o platformă neutră se îngustează. În acest cadru, achiziția ARI este prezentată ca o investiție pentru ca, atunci când vor apărea „echivalenții Samsung/Xiaomi” ai roboticii umanoide, să aibă deja la îndemână tehnologia Meta ca opțiune implicită. [...]