Știri
Știri din categoria Inteligență artificială

Un robot umanoid care poate manipula coordonat două mâini pentru o sarcină fină, precum descojirea unui măr, împinge mai aproape automatizarea unor activități casnice și industriale care până acum cereau îndemânare umană, potrivit Antena 3. Demonstrația vine de la Sharpa, o companie de robotică din Singapore, care a prezentat robotul umanoid „North”, echipat cu inteligență artificială.
Robotul ține mărul într-o mână și îl rotește treptat, în timp ce cu cealaltă mână folosește un curățător pentru a îndepărta coaja până la final. Compania susține că exercițiul arată depășirea unei bariere importante: manipularea coordonată cu două mâini independente, dincolo de prinderile simple.
La baza performanței este sistemul MoDE-VLA (Mixture of Dexterous Experts), care combină viziunea computerizată (interpretarea imaginilor), limbajul, simțul tactil și detectarea forței pentru a executa mișcări complexe. În loc ca un operator să controleze fiecare mișcare a degetelor, oamenii oferă instrucțiuni generale, iar sistemul de inteligență artificială gestionează detaliile execuției.
Tehnologia este completată de IMCopilot, descris ca un set de micro-sisteme antrenate prin „învățare prin întărire” (metodă prin care un sistem învață prin încercări repetate și feedback), pentru a simplifica mișcările fine ale degetelor și a permite ajustări în timp real la contact, presiune sau alunecare.
În testul de descojire, robotul ar fi atins un procent de 73% de curățare completă, reușind cicluri repetate de rotație și descojire. Sistemul a fost testat și în alte scenarii, inclusiv asamblarea de componente.
Pe lângă măr, articolul menționează și alte sarcini casnice care implică precizie și coordonare fină, precum:
Un element hardware asociat este mâna robotică SharpaWave, aflată în producție de serie, cu 22 de grade de libertate și senzori de forță și feedback tactil în toate cele zece degete.
Sharpa afirmă că această combinație de tehnologii ar putea permite, în viitor, roboților să execute sarcini casnice delicate sau operațiuni industriale complexe cu o precizie apropiată de cea umană. Articolul nu oferă un calendar de comercializare pentru robotul umanoid „North” și nici detalii despre implementări în companii.
Recomandate

Rusia își leagă strategia AI de suveranitate tehnologică și pregătește o lege dedicată , într-un efort de a accelera dezvoltarea de modele „de bază” (foundation models) competitive la nivel global și de a trece la soluții interne în economie și apărare, potrivit ithome.com , care citează relatări ale presei de stat din Rusia și China despre o reuniune prezidată de Vladimir Putin pe 10 aprilie. Mesajul central al lui Putin este că modelele lingvistice mari (LLM) devin infrastructură critică pentru autonomie economică și militară, iar ciclul complet de dezvoltare și antrenare trebuie realizat de companii rusești, astfel încât inginerii locali să poată controla „toți parametrii” sistemelor. În aceeași logică, el a cerut „trecerea completă” la tehnologie autohtonă, cu accent pe utilizarea pe scară largă a soluțiilor AI în administrație, industrie și domeniul de securitate. Ce cere Kremlinul până în 2030: implementare pe scară largă Putin a indicat că, până în 2030, tehnologiile bazate pe AI ar trebui să fie folosite activ în lanțul de producție, logistică, energie, guvernare și educație. În plus, el a enumerat un set de priorități operaționale, de la planificare până la export: elaborarea unor planuri pentru introducerea accelerată a AI în industrii-cheie, domenii sociale și în sistemul de guvernanță; adaptarea întregului sistem de formare a resursei umane (de la școală la piața muncii) la utilizarea pe scară largă a AI, inclusiv recalificare; identificarea riscurilor și a „modelelor de amenințări” asociate utilizării AI și stabilirea de măsuri preventive; dezvoltarea de soluții AI autohtone pentru apărare și securitate națională; construirea unui sistem de promovare externă a sistemelor și serviciilor AI rusești și extinderea cooperării cu parteneri din CSI, Organizația de Cooperare de la Shanghai și BRICS. Reglementare: lege pentru AI și reguli care „să accelereze”, nu să frâneze Pe partea de reglementare, Putin a cerut ajustarea cadrului legal astfel încât acesta să nu blocheze dezvoltarea, ci să stimuleze cercetarea și implementarea avansată. În paralel, guvernul lucrează la un proiect de lege privind inteligența artificială, menit să definească noțiunile, să stabilească responsabilități pentru participanții din piață, să creeze reguli-cadru pentru utilizare și să reducă riscurile în domenii „deosebit de sensibile”, conform informațiilor citate în material. Dimensiunea economică: cheltuieli de 257 mld. ruble în 2025 Un indicator al ritmului investițional este suma comunicată de vicepremierul Dmitri Grigorenko: în 2025, companiile rusești ar fi cheltuit 257 miliarde ruble pentru implementarea și utilizarea tehnologiilor AI. Sursa citată de ithome.com oferă și o conversie în yuani, însă articolul nu detaliază distribuția pe sectoare sau ponderea finanțării publice versus private. Ce urmează Din informațiile disponibile, următoarele repere sunt: accelerarea implementării soluțiilor AI „made in Russia” în sectoare civile și militare, construirea unei arhitecturi de finanțare care să implice statul, companiile private și întreprinderile de stat, respectiv avansarea proiectului de lege pentru AI. Materialul nu precizează un calendar legislativ sau bugete asumate pentru programul național. [...]

Apple își expune la CHI 2026 cercetarea din spatele AirPods Pro 3, un semnal că funcțiile bazate pe inteligență artificială devin tot mai mult un diferențiator de produs . Potrivit neowin.net , compania va prezenta la conferința CHI 2026 (una dintre cele mai importante întâlniri din zona interacțiunii om–calculator) lucrări de cercetare legate de AirPods Pro 3, alături de alte proiecte din aria AI. Miza, dincolo de componenta academică, este una operațională și de produs: Apple indică faptul că își fundamentează noile funcții (inclusiv cele din audio) pe cercetare publicabilă, ceea ce poate accelera adoptarea unor tehnologii în ecosistemul său și poate influența ritmul în care astfel de capabilități ajung în produse comerciale. Ce va prezenta Apple și unde se încadrează AirPods Pro 3 Conform materialului, Apple va folosi CHI 2026 ca platformă pentru a „prezenta cercetările” din spatele AirPods Pro 3 și pentru a expune „alte lucrări AI”. Sursa nu detaliază în fragmentul disponibil titlurile lucrărilor, autorii sau rezultatele tehnice, astfel că nu este posibil de stabilit din acest text ce funcții concrete sau ce metodologii sunt vizate. De ce contează pentru piață Prezența la CHI 2026 sugerează o direcție: competiția pe dispozitive personale (precum căștile) se mută tot mai mult spre algoritmi și modele de învățare automată, nu doar spre hardware. Pentru utilizatori și pentru industrie, asta poate însemna: mai multă diferențiere prin software (funcții care se îmbunătățesc în timp); presiune crescută pe integrarea AI „pe dispozitiv” (procesare locală), acolo unde este posibil; un ciclu mai rapid de transfer din cercetare în produse, dacă rezultatele sunt suficient de mature. Ce urmează Următorul reper este conferința CHI 2026, unde Apple ar urma să își prezinte lucrările. Până atunci, din informațiile furnizate de sursă nu reiese un calendar de lansare pentru AirPods Pro 3 și nici ce elemente din cercetare vor ajunge efectiv în produs. [...]

Deși IA accelerează masiv etapa de „triere” în descoperirea de medicamente, rezultatul nu se vede încă în aprobări și tratamente noi , iar diferența dintre promisiuni și livrabile începe să conteze direct în deciziile de investiții și în modul în care sistemele medicale gestionează riscul, potrivit thenextweb.com . Un exemplu invocat este din Novartis: la final de 2025, o echipă care lucrează pe boala Huntington a folosit IA generativă pentru a proiecta computațional 15 milioane de compuși potențiali (pentru un tip de moleculă numită „molecular glue degrader”, capabilă să traverseze bariera hemato-encefalică). Din acest volum, cercetătorii au sintetizat în laborator aproximativ 60 de candidați și au ajuns la o structură promițătoare („scaffold”) care intră în optimizare ulterioară. Performanța e remarcabilă ca viteză de selecție, dar nu echivalează cu un tratament. Descoperirea de medicamente: timp câștigat, fără dovada că scade rata de eșec Argumentul economic pentru IA în cercetare rămâne puternic: dezvoltarea tradițională a unui medicament durează 10–15 ani și costă, în medie, 2,5 miliarde dolari (aprox. 11,5 miliarde lei) pentru fiecare compus de succes, iar circa 90% dintre candidați eșuează în studiile clinice. În acest cadru, analiza notează că IA poate scurta etapele timpurii cu 30–40% și poate reduce dezvoltarea preclinică a unui candidat de la 3–4 ani la 13–18 luni. Sursa dă și un reper operațional: Insilico Medicine a dus un medicament descoperit cu IA pentru fibroza pulmonară idiopatică de la identificarea țintei la studii de fază II în mai puțin de 30 de luni, față de un interval tradițional de 6–8 ani. Totuși, „linia de sosire” rămâne neatinsă: până în decembrie 2025, niciun medicament descoperit cu IA nu primise aprobare de la FDA, iar rata de eșec în clinică nu ar fi arătat o îmbunătățire demonstrabilă. În termeni de business, asta înseamnă că IA poate reduce costul și timpul până la intrarea în clinică, dar nu există încă dovada că îmbunătățește probabilitatea de aprobare — variabila care decide, în final, randamentul investiției. Biologia și reglementarea nu pot fi „comprimate” de calcul Analiza insistă că blocajul major nu a fost viteza de „screening” (testare computațională a multor molecule), ci complexitatea biologiei umane, limitele modelelor animale și durata inevitabilă a studiilor clinice. IA nu poate transforma un studiu clinic de cinci ani într-unul de cinci luni și nu poate înlocui cerințele de siguranță și eficacitate care se validează în timp. Novartis ar fi recunoscut această limită la Forumul Economic Mondial din ianuarie 2026, subliniind că IA este un instrument, nu o „baghetă magică”, iar pentru multe boli sunt necesare în continuare studii lungi și riguroase. Chatboții medicali: risc operațional pentru pacienți, fără „plasă” de reglementare Pe partea de utilizare directă de către public, materialul descrie o problemă de siguranță: organizația ECRI a clasat în ianuarie 2026 folosirea greșită a chatboților IA în sănătate drept cel mai mare risc („hazard”) de tehnologie medicală al anului, invocând faptul că aceste instrumente nu sunt reglementate ca dispozitive medicale, nu sunt validate pentru uz clinic și ajung să fie folosite de pacienți și personal medical. ECRI a documentat situații în care chatboții au sugerat diagnostice greșite, au recomandat testări inutile, au promovat consumabile medicale sub standard și, într-un caz, au „inventat” o parte a corpului. În paralel, sursa citează date din analiza OpenAI: peste 40 de milioane de oameni ar apela zilnic la ChatGPT pentru informații de sănătate, iar un sfert din cei 800 de milioane de utilizatori regulați ar pune întrebări medicale săptămânal. Testul din lumea reală: performanța scade când utilizatorul e pacientul Un studiu randomizat controlat publicat în februarie 2026 în Nature Medicine (Universitatea Oxford, 1.298 participanți) a găsit o diferență mare între performanța modelelor testate „singure” și performanța atunci când sunt folosite de oameni pentru propriile simptome. În scenarii medicale, modelele ar fi identificat corect afecțiunile în 94,9% din cazuri; când participanții au folosit aceleași modele pentru auto-evaluare, identificarea condițiilor relevante a coborât sub 34,5%, iar alegerea corectă a acțiunii sub 44,2% — rezultate similare cu grupul de control (căutări pe web și judecată proprie). „În ciuda întregului val de promovare, IA pur și simplu nu este pregătită să preia rolul medicului.” Ce urmează: presiune pe „dovada clinică”, nu pe demonstrații de viteză Concluzia practică a materialului este că IA își arată utilitatea mai ales ca instrument de asistență (inclusiv în sarcini administrative și în unele aplicații de imagistică), în timp ce promisiunea de „transformare” în descoperirea de medicamente rămâne condiționată de date de fază III și de aprobări. Pentru industrie și investitori, miza se mută de la câte molecule pot fi analizate pe zi la întrebarea mai incomodă: dacă IA poate crește rata de succes în clinică — singurul indicator care schimbă cu adevărat economia dezvoltării de medicamente. [...]

Meta AI actualizat mizează pe „tendințe” și recomandări ferme, ceea ce îl face util operațional în sarcini locale și creative, dar mai puțin neutru decât ChatGPT. Într-un test comparativ publicat de techradar.com , diferența majoră dintre cele două chatboți apare când utilizatorul cere mai mult decât fapte: Meta AI, bazat pe noul model Muse Spark, „trage” spre stratul social (opinii, trenduri, context local), în timp ce ChatGPT rămâne mai rezervat și mai echilibrat. Ce se schimbă, practic, pentru utilizatori Testele descrise indică o orientare mai „decisivă” a Meta AI: oferă sugestii concrete, ancorate în ideea de ce „se poartă” sau ce e „în discuție”, și își asumă mai ușor o recomandare finală. ChatGPT, în aceeași comparație, tinde să livreze răspunsuri mai generale, cu argumente pro și contra, evitând să împingă utilizatorul într-o direcție. Din perspectivă operațională, asta contează în special pentru sarcini unde utilizatorul vrea: idei locale și actuale (ce e „în trend” într-o zonă); inspirație creativă (stiluri, personaje, povești); un „imbold” către o decizie (nu doar opțiuni). Exemplele din test: local, stil, decizie Într-o întrebare despre activități „în trend” în zona utilizatorului, Meta AI a răspuns cu recomandări foarte specifice (inclusiv evenimente cu zi și oră), în timp ce ChatGPT a rămas la categorii generale și a indicat o pagină de turism local, fără să pretindă că știe ce discută oamenii „acum”. La o cerere de generare de imagine pornind de la o fotografie („cum ar arăta un look de vară pe mine”), diferența a fost mai ales de justificare: Meta AI a legat propunerea de trenduri discutate pe social media (de tip „Tenniscore” și „old money summer”), pe când ChatGPT a produs o imagine și o descriere, dar cu mai puțină explicație despre de ce acel stil ar fi „al verii”. Într-un scenariu de alegere între lucrat de acasă sau mers la cafenea, ChatGPT a livrat o listă clasică de avantaje/dezavantaje și a recomandat testare pe cont propriu. Meta AI, în schimb, a combinat argumente despre productivitate cu verificarea vremii și a dat o concluzie tranșantă: „azi câștigă cafeneaua”, plus sugestii de locuri din apropiere. Unde diferențele se estompează: sarcini tehnice La o cerere de a construi o mică aplicație web pentru urmărirea somnului și a consumului de cofeină, rezultatele au fost descrise ca fiind similare: ambele au generat o soluție comparabilă ca structură și utilitate, fără un avantaj net pentru Meta AI, în pofida poziționării sale. Ce urmează și cum ar trebui interpretat Concluzia testului este că alegerea devine una de „stil de asistență”: Meta AI pare mai potrivit când ai nevoie de sensibilitate la trenduri, localizare și o recomandare mai fermă, iar ChatGPT când vrei raționament mai neutru, fără „împingeri”. Publicația sugerează chiar o utilizare combinată, în funcție de tipul de sarcină. Limitare importantă: comparația este un test practic, realizat de un singur autor, pe un set de prompturi; articolul nu oferă o evaluare standardizată sau măsurători cantitative ale performanței. [...]

Comisia Europeană evaluează dacă ChatGPT intră sub regimul DSA pentru „platforme online foarte mari” , ceea ce ar putea aduce obligații suplimentare de conformitate pentru OpenAI în UE, pe fondul unei baze de utilizatori care depășește pragul legal, potrivit ithome.com . Evaluarea vizează aplicarea standardelor din Legea serviciilor digitale (DSA) pentru „platforme online foarte mari” (VLOP), categorie care se activează atunci când un serviciu depășește 45 de milioane de utilizatori activi lunar în Uniunea Europeană. Un purtător de cuvânt al Comisiei, Thomas Regnier, a declarat că numărul utilizatorilor ChatGPT a trecut acest prag, iar instituția verifică și evaluează datele raportate. În același timp, oficialul a indicat că, pe viitor, modelele mari de inteligență artificială ar putea fi incluse în cadrul DSA, însă aplicarea ar urma să fie decisă „de la caz la caz”, fără a rezulta automat că toate astfel de servicii vor intra sub același regim. OpenAI a transmis că datele publicate se referă la utilizatorii activi lunar ai funcției de căutare din ChatGPT în UE, calculați ca medie pe ultimele șase luni, în linie cu obligațiile actuale de raportare. Pentru perioada de șase luni încheiată în septembrie 2025, ChatGPT ar fi avut în UE aproximativ 120,4 milioane de utilizatori activi lunar, conform informațiilor prezentate în material. De ce contează pentru OpenAI și pentru piață Dacă ChatGPT este încadrat oficial ca „platformă online foarte mare” în sensul DSA, OpenAI ar putea intra într-un regim de supraveghere și conformitate mai strict în UE, cu efecte directe asupra modului în care serviciul este operat și raportat în spațiul comunitar. În acest moment, Comisia se află în etapa de verificare a datelor, iar concluzia evaluării nu este încă anunțată. Ce urmează Pe termen scurt, decizia depinde de validarea de către Comisie a indicatorilor de utilizare comunicați. Separat, discuția despre includerea modelelor mari de inteligență artificială în sfera DSA rămâne deschisă, dar, din informațiile disponibile, nu există încă o regulă generală, ci doar posibilitatea unei evaluări punctuale. [...]

OpenAI își întărește măsurile de securitate după atacul cu un dispozitiv incendiar asupra locuinței lui Sam Altman , iar compania le-a transmis angajaților că birourile din San Francisco rămân deschise, cu prezență sporită a forțelor de ordine în zonă. Incidentul a avut loc la locuința din San Francisco a CEO-ului OpenAI, Sam Altman . Conform unui memorandum intern citat în material, un suspect ar fi aruncat un dispozitiv incendiar în jurul orei 3:45 (ora locală), acesta căzând lângă poarta exterioară și stingându-se de la sine. Au fost raportate doar pagube minore, fără răniți. La scurt timp după atac, o persoană care corespundea descrierii suspectului a apărut în apropierea sediului OpenAI de pe Third Street 1455 și ar fi amenințat că va distruge clădirea companiei. Poliția din San Francisco l-a reținut rapid, iar compania a informat personalul că a suplimentat paza și prezența de securitate în jurul clădirii, menținând totuși programul normal de lucru pentru ziua de vineri. Ce spun autoritățile și ce se știe despre suspect Poliția a transmis că a ajuns la fața locului la 4:12, după un apel privind un incendiu, și a confirmat că un bărbat a aruncat dispozitivul incendiar și a provocat un incendiu. Aproximativ o oră mai târziu, suspectul a fost găsit în zona Third Street (segmentul 1400), în fața unui spațiu comercial, fiind recunoscut ca persoana implicată în incidentul anterior. Autoritățile spun că este vorba despre un bărbat de 20 de ani; identitatea nu a fost făcută publică, iar acuzațiile sunt în curs de analiză în instanță. Reacția lui Altman: îngrijorările despre AI nu justifică violența Altman a publicat vineri pe blogul personal o fotografie de familie, afirmând că speră ca gestul să descurajeze atacuri similare. El a recunoscut că există îngrijorări legate de inteligența artificială, dar a insistat că dezbaterea nu trebuie să degenereze în violență și a cerut reducerea confruntării în discurs și acțiuni, inclusiv a „explozilor” reale sau simbolice. Pentru OpenAI , episodul mută discuția despre riscurile AI și tensiunile publice într-o zonă operațională imediată: continuitatea activității și protecția angajaților, în condițiile unei securități întărite la sediul din San Francisco. [...]