Știri
Știri din categoria Inteligență artificială

Un robot umanoid a însoțit-o pe Melania Trump la Casa Albă la un eveniment despre folosirea inteligenței artificiale în educație, relatează Reuters. Robotul, care s-a prezentat drept „Figure 03”, a mers pe un hol acoperit cu covor roșu și a intrat alături de Prima Doamnă în East Room, unde a avut loc summitul „Fostering the Future Together”.
Potrivit Reuters, la reuniune au participat zeci de „first spouses” din întreaga lume, iar robotul a salutat invitații în 11 limbi. Melania Trump a spus că „Figure 03” este primul robot umanoid produs în SUA care participă ca invitat la Casa Albă și a folosit momentul pentru a cere o cooperare mai strânsă între guverne și marile companii de tehnologie, astfel încât inteligența artificială să fie utilizată mai mult în instruirea elevilor.
Robotul a transmis și un mesaj despre obiectivele inițiativei, consemnează Reuters: „Misiunea coaliției noastre este de a îi împuternici pe copii, prin oferirea unui acces mai bun la tehnologie și educație. Este un moment istoric.” În același context, Melania Trump a afirmat că „foarte curând” inteligența artificială va trece „de pe telefoanele mobile” către roboți umanoizi „care oferă utilitate”.
Prima Doamnă a descris un scenariu în care un profesor umanoid ar putea accesa rapid studii clasice, matematică și alte discipline pentru a livra educație personalizată, adaptată ritmului de învățare și „stării emoționale” a elevilor. În sală s-a aflat și secretarul american al Educației, Linda McMahon, care, potrivit Reuters, implementează agenda președintelui Donald Trump de reducere a dimensiunii departamentului federal al educației.
În același timp, Melania Trump a avertizat asupra riscurilor tehnologice, iar Brigitte Macron, Prima Doamnă a Franței, a vorbit despre măsuri de limitare a timpului petrecut de copii în fața ecranelor și pe rețelele sociale, notează Reuters. La eveniment a participat și Mirabela Grădinaru, partenera președintelui Nicușor Dan, care a susținut și ea un discurs.
Reuters mai consemnează că, mai devreme în aceeași zi, președintele Donald Trump i-a numit pe Mark Zuckerberg (Meta), Larry Ellison (Oracle) și Jensen Huang (Nvidia) într-un consiliu care va oferi recomandări privind politica de inteligență artificială și alte teme. În acest context, Melania Trump a invocat competiția globală pentru proprietate intelectuală și a susținut că adoptarea învățării ghidate de inteligența artificială ar putea contribui la „superioritatea economică pe termen lung” a Statelor Unite.
Recomandate

Administrația Trump a prezentat un cadru pentru o politică națională unică privind IA , potrivit CNBC . Documentul urmărește reguli uniforme de siguranță și securitate pentru inteligența artificială și limitarea posibilității statelor americane de a adopta reglementări proprii. Planul este structurat în șase direcții principale și include reguli pentru produse și infrastructură bazate pe inteligență artificială. Printre propuneri se află norme privind protecția copiilor online, standardizarea procedurilor de autorizare și a consumului energetic pentru centrele de date dedicate IA. Documentul solicită, de asemenea, Congresului să lămurească aspecte legate de drepturile de proprietate intelectuală și să elaboreze reguli care să împiedice utilizarea sistemelor de inteligență artificială pentru limitarea exprimării politice legale sau a opiniilor disidente. Administraţia speră ca legislaţia să fie adoptată chiar în acest an şi consideră că ar putea obţine sprijin bipartizan. Casa Albă a anunțat că vrea să colaboreze cu Congresul pentru a transforma cadrul într-un proiect de lege care să poată fi promulgat de președintele Donald Trump . În context, sunt amintite inițiative recente din state precum New York și California, care au încercat să introducă propriile reguli, dar care au întâmpinat opoziția liderilor industriei tehnologice, pe motiv că un „mozaic” de legislații între state ar putea frâna inovația și ar avantaja competitori globali, în special China. Principalele elemente menționate în plan includ: reguli uniforme de siguranță și securitate pentru inteligența artificială, la nivel național; limitarea reglementărilor separate adoptate de statele americane; norme pentru protecția copiilor online; standardizarea autorizării și a consumului energetic pentru centrele de date dedicate IA; clarificări privind proprietatea intelectuală; măsuri împotriva folosirii IA pentru „a reduce la tăcere” exprimarea politică legală sau opiniile disidente. [...]

Studenții de la AC Iași testează un câine-robot numit GrivAI , potrivit Euronews , care ar urma să fie făcut treptat mai independent cu ajutorul algoritmilor de inteligență artificială. Deocamdată, robotul este controlat prin comenzi și se plimbă în laboratoarele Facultății de Automatică și Calculatoare din Iași. GrivAI este folosit ca platformă practică pentru dezvoltarea și testarea algoritmilor, după o perioadă în care lucrul s-a făcut mai ales în simulatoare. Asistentul Alexandru Brașoveanu spune: „Scopul lui este să ne ajute sa dezvoltăm și să testam algortimul de inteligență artificială.” Prof. Robert Gabriel, prodecanul Facultății de Automatică și Calculatoare, UTI Iași: „Este foarte important deoarece, până acum, s-a lucrat la nivel de simulator. Acum, folosind acest câine GrivAI, cum a fost el numit, avem posibilitatea de a permite testarea acestor algoritmi de AI în vederea deplasării autonome a unui dispozitiv din punctul A în punctul B." Din punct de vedere tehnic, GrivAI are opt camere și o rețea de senzori, este rezistent la șocuri și poate ridica aproximativ 20 de kilograme. Potrivit inventatorilor, are și funcții de localizare în spațiu care nu necesită control uman, inclusiv capacitatea de a se amplasa singur. Studenții și profesorii văd proiectul ca pe un instrument de învățare și un pas spre aplicații în teren. Un student, Robert, consideră că robotul ar putea fi folosit „în misiuni de salvare în zone cu risc seismic”, iar conducerea facultății ia în calcul și implicarea persoanelor nevăzătoare, pentru a testa dacă „cățelul electronic” le poate ajuta să se deplaseze în siguranță. Robotul a costat peste 100.000 de euro și a fost achiziționat într-un proiect de cercetare, prin Hubul Român de Inteligență Artificială. [...]

Armata germană vrea să folosească AI pentru a analiza mai rapid datele de pe front , potrivit HotNews.ro , care citează Reuters. Miza, spune un general de top al Bundeswehr, este să țină pasul cu adversarul într-un context în care volumul de informații din teren a crescut puternic. Generalul-locotenent Christian Freuding, coordonator al livrărilor de armament către Kiev, afirmă că dronele și senzorii moderni generează cantități foarte mari de date, greu de procesat în timp util prin metode tradiționale. În acest cadru, Ucraina ar folosi datele acumulate în patru ani de război, iar inteligența artificială ar putea identifica tipare despre modul de acțiune al inamicului și ar putea recomanda contramăsuri. Freuding susține că activități care astăzi ar necesita sute de oameni și zile întregi ar putea fi accelerate semnificativ cu ajutorul AI. În opinia sa, metodele convenționale, singure, nu ar fi suficiente pentru a „rupe ciclul decizional al adversarului”, adică pentru a scurta timpul dintre observare, analiză și reacție. Generalul propune ca noile sisteme să fie „instruite” atât cu date reale de pe frontul din Ucraina, cât și cu informații din exercițiile militare ale Germaniei, astfel încât algoritmii să ofere recomandări în linie cu regulile și strategiile de luptă ale Bundeswehr. În același timp, el spune că AI ar urma să aibă un rol consultativ, iar decizia finală să rămână la om, invocând considerente etice. Un alt punct este compatibilitatea cu standardele NATO, aflate în evoluție. Freuding nu exclude un sistem dezvoltat la nivel european, însă indică faptul că soluțiile americane ar putea avea avantaje practice datorită stadiului avansat de implementare, cu condiția ca suveranitatea și securitatea datelor să fie luate în calcul. În acest context, armata SUA folosește instrumentul de AI Maven, creat de Palantir, pentru procesarea datelor de pe câmpul de luptă, inclusiv imagini și videoclipuri, în vederea accelerării deciziilor. [...]

eMAG a lansat oficial iZi , un agent de cumpărături bazat pe inteligență artificială , care îl descrie drept primul astfel de instrument dezvoltat în România pentru shopping online. iZi este gândit să ajute clienții să ia decizii de cumpărare mai rapid și mai informat, pe baza unor informații oferite de utilizator în conversație, precum bugetul, categoria și specificațiile dorite. Instrumentul este disponibil 24/7 și urmărește trecerea de la un model de cumpărături bazat preponderent pe căutare la unul bazat pe conversație. eMAG a testat anterior iZi cu 50.000 de utilizator i. În acest test, utilizatorii au adresat în medie 2,6 întrebări într-o conversație, iar evaluările pozitive au depășit 90%. În prezent, 5% dintre cei care folosesc iZi ar alege să plaseze comanda direct din chat, conform aceleiași surse. Din descrierea eMAG, iZi nu funcționează ca un motor de căutare care întoarce o listă de produse, ci ca un agent conversațional care încearcă să înțeleagă nevoia clientului, să compare opțiuni și să construiască recomandări „argumentate” și adaptate contextului. Pentru a genera recomandări, iZi combină analiza produselor disponibile pe eMAG, nevoia exprimată în conversație și context adițional din web. Agentul este util în special în categorii cu multe specificații, precum Electro și Auto , unde cumpărătorii cer frecvent explicații suplimentare în magazin. În această logică, iZi este poziționat ca un „consultant online” care poate fi folosit direct în interfața de chat a platformei. Îl puteți testa aici . [...]

„Un sfert dintre români folosesc zilnic inteligența artificială, însă peste 40% nu o utilizează deloc” potrivit INSCOP Research , în „Barometrul Informat.ro”, realizat în perioada 2-6 martie 2026, care evidențiază diferențe sociale și politice clare în adopția tehnologiei. Sondajul, realizat pe un eșantion de 1.100 de persoane, arată că 24,8% dintre români folosesc zilnic aplicații bazate pe inteligență artificială, 17% le utilizează de câteva ori pe săptămână, iar 15,7% lunar. În schimb, 41,6% declară că nu folosesc deloc astfel de tehnologii. Diferențe clare inclusiv pe criterii politice Datele relevă o polarizare nu doar socială, ci și politică: Nu folosesc deloc AI mai ales votanții PSD, persoanele de peste 60 de ani, cei cu educație primară și locuitorii din mediul rural Folosesc zilnic AI în special votanții USR, persoanele între 18 și 44 de ani, cei cu studii superioare și locuitorii din București și urbanul mare Utilizare săptămânală – mai frecventă tot în rândul votanților USR și al angajaților din sectorul privat Utilizare lunară – mai ales în rândul tinerilor sub 30 de ani și al angajaților din sectorul public Încrederea în AI rămâne redusă Per ansamblu, încrederea în informațiile generate de AI este scăzută: 2,9% – foarte multă încredere 21,4% – destul de multă 44,1% – puțină 26,7% – deloc Și aici apar diferențe politice: încrederea mai ridicată este asociată în special cu votanții PNL și USR, în timp ce neîncrederea este mai frecventă inclusiv în rândul votanților PNL și AUR, dar și al persoanelor mai în vârstă sau din mediul rural. Temeri privind locurile de muncă În ceea ce privește impactul asupra pieței muncii: 19,1% sunt foarte îngrijorați 14,6% destul de îngrijorați 49,4% puțin sau deloc îngrijorați Îngrijorarea este mai prezentă în rândul votanților AUR, al persoanelor peste 60 de ani și al celor din mediul rural, în timp ce votanții PNL și USR, tinerii și utilizatorii activi de AI sunt cei mai puțin îngrijorați. România, între adopție și scepticism Directorul INSCOP, Remus Ștefureac, descrie situația ca fiind una a „două lumi digitale distincte”: o minoritate urbană, educată și activă digital, și o majoritate care rămâne în afara utilizării AI. Relația generală cu această tehnologie este definită de „utilitate prudentă”, unde interesul crește, dar este însoțit de rezerve și neîncredere. În concluzie, inteligența artificială câștigă teren în România, însă utilizarea și percepția asupra ei sunt puternic influențate nu doar de vârstă și educație, ci și de opțiunile politice ale respondenților. [...]

Un dezvoltator Mozilla a lansat „cq”, un fel de Stack Overflow pentru agenți . Proiectul, anunțat pe blogul Mozilla.ai de Peter Wilson , își propune să atenueze o slăbiciune frecventă a instrumentelor de programare bazate pe inteligență artificială: folosirea de informații învechite și lipsa unui mecanism standard de împărtășire a „lecțiilor” învățate după momentul în care a fost antrenat modelul. Conform descrierii, agenții de programare ajung adesea să ia decizii pe baza unor date depășite, de exemplu să încerce apeluri către interfețe (API) care au fost între timp retrase. Cauza ține de „tăietura” temporală a datelor de antrenare și de absența unui acces fiabil și structurat la contextul curent de rulare. Uneori se folosește RAG (generare augmentată cu regăsire, adică aducerea de informații recente din surse externe în timpul execuției), dar nu constant și nici complet, mai ales în situațiile în care agentul nu știe că îi lipsește o informație relevantă. O a doua problemă vizată este duplicarea efortului: mai mulți agenți ajung să rezolve aceleași blocaje în mod repetat, fără să existe un canal comun de reutilizare a soluțiilor apărute după data-limită a antrenării. Rezultatul este consum de resurse (inclusiv „jetoane” de procesare, adică unități de calcul facturate de furnizorii de modele) și energie pentru probleme care, în practică, au fost deja rezolvate de alții. cq încearcă să creeze un „bun comun” de cunoștințe: înainte să abordeze o sarcină necunoscută (o integrare de API, o configurație CI/CD sau un cadru software nou), agentul interoghează „cq commons”; dacă alt agent a întâlnit deja situația, informația poate fi reutilizată înainte de a se scrie cod. Când un agent descoperă ceva nou, propune acea cunoaștere înapoi, iar alți agenți confirmă ce funcționează și semnalează ce a devenit depășit, într-un model în care încrederea se acumulează prin utilizare, nu prin autoritate. Ars Technica notează însă că, pentru adopție la scară, proiectul va trebui să gestioneze riscuri precum securitatea, „otrăvirea” datelor (introducerea intenționată de informații false) și acuratețea, în condițiile în care cq vrea să depășească soluțiile curente de tip fișiere.md (precum claude.md sau agents.md) în care dezvoltatorii adaugă manual instrucțiuni pe baza încercărilor și erorilor. [...]