Inteligență artificială25 apr. 2026
Cercetătorii elvețieni dezvoltă roboți capabili să învețe sarcini complexe prin observarea oamenilor - Implicații etice și riscuri în utilizarea acestor tehnologii avansate
Un nou mod de a antrena roboți să învețe singuri din demonstrații umane ar putea accelera folosirea lor în gospodării și la locul de muncă, dar mută discuția spre reguli de siguranță și responsabilitate. Într-un material publicat de NPR , o echipă de cercetători din Elveția descrie un progres care permite roboților să execute sarcini mai complexe după ce „privesc” oameni, fără a fi programați pas cu pas pentru fiecare situație. Cercetarea este realizată la École Polytechnique Fédérale de Lausanne (EPFL) și a fost publicată în revista Science Robotics . Ideea centrală: roboții pot folosi „învățarea automată” (o ramură a inteligenței artificiale) împreună cu ceea ce autorii numesc „inteligență cinematică” – adică o „înțelegere” internă a modului în care propriul corp se poate mișca în siguranță în spațiu – pentru a adapta o acțiune văzută la un om la propriile constrângeri fizice. Ce s-a demonstrat și de ce contează operațional Într-o demonstrație video descrisă în material, roboți cu un singur braț, fixați pe o bază, urmăresc un instructor uman care aruncă o minge într-un recipient. Apoi, roboții repetă sarcina, ajustându-se la poziția lor și la faptul că nu au „corp” uman. Mai mult, abilitățile învățate pot fi transferate către alți roboți. Miza practică este depășirea unei limite vechi în robotică: multe sisteme pot repeta impecabil o mișcare în condiții identice, dar eșuează când se schimbă contextul (poziția obiectelor, lumina, mediul). Cercetătorul Sthithpragya Gupta explică problema printr-un exemplu din tenis: robotul poate învăța un backhand, dar dacă se schimbă condițiile, performanța „se prăbușește”. „Conștienți de sine” sau doar mai buni la auto-corectare? Materialul folosește termenul „self-aware” („conștient de sine”) într-un sens tehnic, legat de capacitatea robotului de a se auto-corecta și de a-și folosi modelul intern al mișcării pentru a învăța. Susan Schneider, cercetătoare în inteligență artificială la Florida Atlantic University, atrage însă atenția că asta nu înseamnă conștiință în sens uman. Diferența, spune ea, este „simțirea” – experiența subiectivă. Cu alte cuvinte, un robot poate învăța și ajusta comportamente fără să aibă trăiri interioare. Implicația-cheie: nevoia de „garduri” și reguli pentru operare Tocmai această capacitate de învățare mai autonomă ridică întrebări de siguranță. Schneider spune că astfel de evoluții „ridică imediat semnale de alarmă” pentru cercetătorii din zona de siguranță a AI, inclusiv prin posibilitatea ca versiuni viitoare să fie folosite ca arme împotriva oamenilor. Cercetătorii afirmă că au inclus protocoale de siguranță pentru a se asigura că roboții nu pot răni oameni, dar recunosc că dezvoltarea ulterioară va avea nevoie de „garduri de protecție”. Gupta indică explicit necesitatea unor cadre de reglementare privind cine operează un robot și în ce condiții. Cât de repede ajung astfel de roboți în case și companii Robert Platt, profesor care studiază ingineria și robotica la Northeastern University, numește rezultatul un posibil „punct de cotitură” și un „progres major”, dar evită să avanseze un calendar pentru adoptarea pe scară largă a roboților în gospodării. Argumentul lui: ritmul schimbării este foarte rapid, iar exemplul modelelor lingvistice mari (chatboți de tip ChatGPT sau Claude) arată cât de repede se poate comprima distanța dintre „suntem departe” și „deja se întâmplă”. În esență, progresul descris sugerează o accelerare a capabilităților operaționale ale roboților în medii variabile – iar asta mută presiunea spre standarde de siguranță, reguli de utilizare și responsabilitate pentru cei care îi pun în funcțiune. [...]