Știri
Știri din categoria Inteligență artificială

eMAG a lansat oficial iZi, un agent de cumpărături bazat pe inteligență artificială, care îl descrie drept primul astfel de instrument dezvoltat în România pentru shopping online.
iZi este gândit să ajute clienții să ia decizii de cumpărare mai rapid și mai informat, pe baza unor informații oferite de utilizator în conversație, precum bugetul, categoria și specificațiile dorite. Instrumentul este disponibil 24/7 și urmărește trecerea de la un model de cumpărături bazat preponderent pe căutare la unul bazat pe conversație.
eMAG a testat anterior iZi cu 50.000 de utilizatori. În acest test, utilizatorii au adresat în medie 2,6 întrebări într-o conversație, iar evaluările pozitive au depășit 90%. În prezent, 5% dintre cei care folosesc iZi ar alege să plaseze comanda direct din chat, conform aceleiași surse.
Din descrierea eMAG, iZi nu funcționează ca un motor de căutare care întoarce o listă de produse, ci ca un agent conversațional care încearcă să înțeleagă nevoia clientului, să compare opțiuni și să construiască recomandări „argumentate” și adaptate contextului. Pentru a genera recomandări, iZi combină analiza produselor disponibile pe eMAG, nevoia exprimată în conversație și context adițional din web.
Agentul este util în special în categorii cu multe specificații, precum Electro și Auto, unde cumpărătorii cer frecvent explicații suplimentare în magazin. În această logică, iZi este poziționat ca un „consultant online” care poate fi folosit direct în interfața de chat a platformei. Îl puteți testa aici.
Recomandate

„Un sfert dintre români folosesc zilnic inteligența artificială, însă peste 40% nu o utilizează deloc” potrivit INSCOP Research , în „Barometrul Informat.ro”, realizat în perioada 2-6 martie 2026, care evidențiază diferențe sociale și politice clare în adopția tehnologiei. Sondajul, realizat pe un eșantion de 1.100 de persoane, arată că 24,8% dintre români folosesc zilnic aplicații bazate pe inteligență artificială, 17% le utilizează de câteva ori pe săptămână, iar 15,7% lunar. În schimb, 41,6% declară că nu folosesc deloc astfel de tehnologii. Diferențe clare inclusiv pe criterii politice Datele relevă o polarizare nu doar socială, ci și politică: Nu folosesc deloc AI mai ales votanții PSD, persoanele de peste 60 de ani, cei cu educație primară și locuitorii din mediul rural Folosesc zilnic AI în special votanții USR, persoanele între 18 și 44 de ani, cei cu studii superioare și locuitorii din București și urbanul mare Utilizare săptămânală – mai frecventă tot în rândul votanților USR și al angajaților din sectorul privat Utilizare lunară – mai ales în rândul tinerilor sub 30 de ani și al angajaților din sectorul public Încrederea în AI rămâne redusă Per ansamblu, încrederea în informațiile generate de AI este scăzută: 2,9% – foarte multă încredere 21,4% – destul de multă 44,1% – puțină 26,7% – deloc Și aici apar diferențe politice: încrederea mai ridicată este asociată în special cu votanții PNL și USR, în timp ce neîncrederea este mai frecventă inclusiv în rândul votanților PNL și AUR, dar și al persoanelor mai în vârstă sau din mediul rural. Temeri privind locurile de muncă În ceea ce privește impactul asupra pieței muncii: 19,1% sunt foarte îngrijorați 14,6% destul de îngrijorați 49,4% puțin sau deloc îngrijorați Îngrijorarea este mai prezentă în rândul votanților AUR, al persoanelor peste 60 de ani și al celor din mediul rural, în timp ce votanții PNL și USR, tinerii și utilizatorii activi de AI sunt cei mai puțin îngrijorați. România, între adopție și scepticism Directorul INSCOP, Remus Ștefureac, descrie situația ca fiind una a „două lumi digitale distincte”: o minoritate urbană, educată și activă digital, și o majoritate care rămâne în afara utilizării AI. Relația generală cu această tehnologie este definită de „utilitate prudentă”, unde interesul crește, dar este însoțit de rezerve și neîncredere. În concluzie, inteligența artificială câștigă teren în România, însă utilizarea și percepția asupra ei sunt puternic influențate nu doar de vârstă și educație, ci și de opțiunile politice ale respondenților. [...]

Un dezvoltator Mozilla a lansat „cq”, un fel de Stack Overflow pentru agenți . Proiectul, anunțat pe blogul Mozilla.ai de Peter Wilson , își propune să atenueze o slăbiciune frecventă a instrumentelor de programare bazate pe inteligență artificială: folosirea de informații învechite și lipsa unui mecanism standard de împărtășire a „lecțiilor” învățate după momentul în care a fost antrenat modelul. Conform descrierii, agenții de programare ajung adesea să ia decizii pe baza unor date depășite, de exemplu să încerce apeluri către interfețe (API) care au fost între timp retrase. Cauza ține de „tăietura” temporală a datelor de antrenare și de absența unui acces fiabil și structurat la contextul curent de rulare. Uneori se folosește RAG (generare augmentată cu regăsire, adică aducerea de informații recente din surse externe în timpul execuției), dar nu constant și nici complet, mai ales în situațiile în care agentul nu știe că îi lipsește o informație relevantă. O a doua problemă vizată este duplicarea efortului: mai mulți agenți ajung să rezolve aceleași blocaje în mod repetat, fără să existe un canal comun de reutilizare a soluțiilor apărute după data-limită a antrenării. Rezultatul este consum de resurse (inclusiv „jetoane” de procesare, adică unități de calcul facturate de furnizorii de modele) și energie pentru probleme care, în practică, au fost deja rezolvate de alții. cq încearcă să creeze un „bun comun” de cunoștințe: înainte să abordeze o sarcină necunoscută (o integrare de API, o configurație CI/CD sau un cadru software nou), agentul interoghează „cq commons”; dacă alt agent a întâlnit deja situația, informația poate fi reutilizată înainte de a se scrie cod. Când un agent descoperă ceva nou, propune acea cunoaștere înapoi, iar alți agenți confirmă ce funcționează și semnalează ce a devenit depășit, într-un model în care încrederea se acumulează prin utilizare, nu prin autoritate. Ars Technica notează însă că, pentru adopție la scară, proiectul va trebui să gestioneze riscuri precum securitatea, „otrăvirea” datelor (introducerea intenționată de informații false) și acuratețea, în condițiile în care cq vrea să depășească soluțiile curente de tip fișiere.md (precum claude.md sau agents.md) în care dezvoltatorii adaugă manual instrucțiuni pe baza încercărilor și erorilor. [...]

Apple pregătește un Siri complet nou ca aplicație separată , potrivit unor informații publicate de Bloomberg , schimbarea urmând să fie prezentată oficial la WWDC 2026, pe 8 iunie, odată cu lansarea iOS 27 și macOS 27. Noua versiune transformă asistentul într-un „agent AI” integrat la nivelul întregului sistem, capabil să interacționeze mai profund cu aplicațiile și să execute sarcini folosind date personale din e-mailuri, mesaje sau notițe, într-o încercare clară a Apple de a recupera terenul pierdut în fața unor soluții precum Google Gemini sau Perplexity . Una dintre cele mai importante schimbări este apariția unei aplicații dedicate Siri, testată intern de Apple. Aceasta va introduce o interfață de tip chat, similară aplicației Mesaje, și va permite: acces la istoricul conversațiilor cu Siri; căutarea în interacțiunile anterioare; alternarea între comenzi vocale și text; încărcarea de documente și imagini pentru analiză. Pe lângă funcțiile conversaționale extinse, Siri va putea genera răspunsuri mai detaliate, inclusiv rezumate, liste și conținut vizual extras de pe web. De asemenea, Apple lucrează la integrarea asistentului în interfața iPhone, inclusiv prin Dynamic Island, unde utilizatorii ar putea primi sugestii de tip „Caută sau întreabă”. Schimbarea indică o repoziționare majoră a Siri, care nu mai este doar un asistent vocal pasiv, ci devine un instrument central în ecosistemul Apple Intelligence. Miza este clară: transformarea Siri într-un concurent real pentru noile motoare de căutare și asistenți bazați pe inteligență artificială, într-un moment în care interfața conversațională devine standardul în tehnologie. Apple nu a confirmat oficial toate detaliile, însă prezentarea de la WWDC 2026 este așteptată să clarifice direcția companiei și nivelul real de integrare al noii generații Siri în produsele sale. [...]

OpenAI renunță la platforma video Sora , iar Disney abandonează investiția de 1 miliard de dolari potrivit Variety , într-o mișcare care schimbă brusc direcția uneia dintre cele mai ambițioase inițiative din zona inteligenței artificiale generative. Decizia vine fără explicații oficiale din partea companiei conduse de Sam Altman , dar are efecte imediate: parteneriatul strategic cu Disney este încheiat, iar planurile gigantului media de a investi masiv în OpenAI sunt abandonate. Platforma Sora, lansată inițial la finalul lui 2024 și actualizată în 2025, permitea generarea de videoclipuri realiste pe baza comenzilor text. Tehnologia a atras rapid atenția industriei de divertisment, dar și critici legate de drepturile de autor și utilizarea conținutului protejat. Ce pierde Disney odată cu oprirea Sora Disney semnase un acord pe trei ani cu OpenAI, care prevedea integrarea a peste 200 de personaje din universurile sale – inclusiv Marvel, Pixar și Star Wars – în videoclipuri generate de utilizatori. Planurile includeau: crearea de videoclipuri „inspirate de fani” folosind personaje licențiate selecții de conținut generate de Sora în platforma Disney+ o investiție de aproximativ 1 miliard de dolari în OpenAI După anunțul retragerii Sora, compania a confirmat că renunță la investiție, dar va continua să exploreze alte tehnologii AI. Context tensionat în industrie Decizia apare într-un climat tot mai tensionat între studiourile de la Hollywood și companiile AI. Mai multe inițiative similare au fost contestate în instanță sau prin notificări legale, pe fondul acuzațiilor de încălcare a drepturilor de autor. Printre cazurile recente: acțiuni ale Disney împotriva Google, Meta și Character.AI procese împotriva Midjourney și Minimax presiuni asupra ByteDance pentru sistemele sale AI În paralel, organizații din industria creativă, inclusiv grupuri japoneze precum CODA, au cerut limitarea utilizării conținutului protejat în antrenarea modelelor AI. Ce urmează pentru utilizatori OpenAI a transmis că va reveni cu detalii privind calendarul închiderii aplicației și API-ului Sora, precum și despre modalitățile prin care utilizatorii își pot salva proiectele. În lipsa unor explicații oficiale, decizia sugerează o repoziționare strategică a companiei în domeniul inteligenței artificiale. Pentru industrie, însă, mesajul este clar: dezvoltarea AI video rămâne promițătoare, dar confruntarea cu regulile drepturilor de autor devine inevitabilă. [...]

Tecno pregătește EllaClaw, un asistent AI cu acțiuni autonome , potrivit Mobilissimo , într-o mișcare prin care compania încearcă să intre mai serios în zona inteligenței artificiale de pe smartphone-uri și să concureze cu soluțiile dezvoltate de Google și Samsung. Noul sistem ar urma să integreze platforma OpenClaw în asistentul virtual Ella, sub numele „EllaClaw”. Conceptul este cel al unui „agent” care poate executa sarcini fără intervenția constantă a utilizatorului, într-o direcție similară cu funcții precum Magic Cue de pe Pixel 10, menționată ca reper în material. Concret, EllaClaw este prezentat ca un instrument care poate automatiza activități uzuale și poate oferi recomandări în funcție de context, folosind informații din aplicațiile de pe telefon. Exemplele de utilizare indicate includ: programarea întâlnirilor gestionarea fișierelor sugestii contextuale pe baza datelor din SMS, galerie sau calendar Un element cheie este controlul utilizatorului asupra autonomiei: sistemul ar funcționa pe mai multe niveluri de permisiune, astfel încât proprietarul telefonului să poată decide cât de mult acces și inițiativă primește asistentul. În plus, pe măsură ce este folosit, EllaClaw ar urma să „învețe” preferințele utilizatorului pentru a automatiza mai eficient sarcinile zilnice. Rămâne însă deschisă o întrebare importantă pentru astfel de funcții: unde sunt procesate datele, local pe dispozitiv sau în cloud (infrastructură la distanță). Mobilissimo notează, de asemenea, că Tecno ar putea lansa inițial funcția într-un program beta, pentru un număr limitat de utilizatori, înainte de o disponibilitate mai largă. [...]

Anthropic a lansat o funcție prin care Claude poate controla computerul pentru a executa sarcini , potrivit CNET . Anunțul a fost făcut luni și vine pe fondul competiției tot mai intense pe zona de „agenți” AI, adică modele care nu doar răspund la întrebări, ci pot acționa în numele utilizatorului. Funcția permite ca Claude să preia controlul asupra unui computer pentru a realiza acțiuni precum găsirea și trimiterea unui fișier de pe hard disk. Pentru a folosi opțiunea, utilizatorul trebuie să aibă un abonament eligibil, iar disponibilitatea este, deocamdată, sub forma unui „research preview” (o versiune de test pentru colectarea de feedback). Contextul este legat de apariția și popularizarea OpenClaw, un cadru open-source care a generat un ecosistem de instrumente numite „claws”, capabile să execute comenzi relativ autonom pe computer sau în diverse sisteme. În acest peisaj, Nvidia a prezentat recent NemoClaw, un cadru pentru configurarea și instalarea OpenClaw, cu unele setări de securitate, notează sursa. Cum funcționează, în linii mari, noua capabilitate a lui Claude: caută instrumentele potrivite pentru sarcină prin „conectori” către aplicații precum Google Calendar sau Slack; dacă nu există un instrument sau un conector disponibil, poate executa manual pașii, tastând și mișcând cursorul ca un utilizator; poate folosi browserul web, instrumente pentru dezvoltatori și fișiere deschise, inclusiv prin derulare și clicuri; cere permisiunea înainte de a acționa, iar utilizatorul poate opri oricând execuția unei sarcini. CNET arată că această abordare ridică și riscuri: acordarea accesului unui chatbot la controlul computerului poate expune utilizatorul la atacuri, iar o îngrijorare majoră legată de AI „agentic” este capacitatea de a lua acțiuni mari rapid și cu puțin preaviz. În plus, astfel de instrumente pot fi deturnate de actori malițioși pentru a accesa date personale și sisteme în mod nedorit. Anthropic spune că a introdus măsuri de protecție pentru a reduce riscuri precum „prompt injection” (o tehnică prin care un atacator încearcă să manipuleze modelul prin instrucțiuni ascunse în conținut). Sistemul ar urma să scaneze automat pentru astfel de vulnerabilități pe măsură ce sunt implementate, însă compania avertizează că funcția este nouă și poate avea erori și recomandă evitarea aplicațiilor care gestionează date sensibile, unele fiind dezactivate implicit. În forma actuală, previzualizarea este disponibilă pentru abonații Claude Pro și Claude Max și este limitată la computere cu MacOS. Anthropic mai spune că funcția se combină cu Dispatch, care permite atribuirea de sarcini lui Claude de pe telefon, inclusiv verificarea e-mailului dimineața sau deschiderea unei sesiuni Claude Cowork ori Claude Code. Compania susține că, împreună, aceste opțiuni pot automatiza activități precum un rezumat de dimineață sau rularea unor teste, dar avertizează că sarcinile mai complexe pot să nu reușească din prima, motiv pentru care lansarea este tratată ca o etapă de testare. [...]