Știri
Știri din categoria Inteligență artificială

„Un sfert dintre români folosesc zilnic inteligența artificială, însă peste 40% nu o utilizează deloc” potrivit INSCOP Research, în „Barometrul Informat.ro”, realizat în perioada 2-6 martie 2026, care evidențiază diferențe sociale și politice clare în adopția tehnologiei.
Sondajul, realizat pe un eșantion de 1.100 de persoane, arată că 24,8% dintre români folosesc zilnic aplicații bazate pe inteligență artificială, 17% le utilizează de câteva ori pe săptămână, iar 15,7% lunar. În schimb, 41,6% declară că nu folosesc deloc astfel de tehnologii.
Datele relevă o polarizare nu doar socială, ci și politică:
Per ansamblu, încrederea în informațiile generate de AI este scăzută:
Și aici apar diferențe politice: încrederea mai ridicată este asociată în special cu votanții PNL și USR, în timp ce neîncrederea este mai frecventă inclusiv în rândul votanților PNL și AUR, dar și al persoanelor mai în vârstă sau din mediul rural.
În ceea ce privește impactul asupra pieței muncii:
Îngrijorarea este mai prezentă în rândul votanților AUR, al persoanelor peste 60 de ani și al celor din mediul rural, în timp ce votanții PNL și USR, tinerii și utilizatorii activi de AI sunt cei mai puțin îngrijorați.
Directorul INSCOP, Remus Ștefureac, descrie situația ca fiind una a „două lumi digitale distincte”: o minoritate urbană, educată și activă digital, și o majoritate care rămâne în afara utilizării AI. Relația generală cu această tehnologie este definită de „utilitate prudentă”, unde interesul crește, dar este însoțit de rezerve și neîncredere.
În concluzie, inteligența artificială câștigă teren în România, însă utilizarea și percepția asupra ei sunt puternic influențate nu doar de vârstă și educație, ci și de opțiunile politice ale respondenților.
Recomandate

Un dezvoltator Mozilla a lansat „cq”, un fel de Stack Overflow pentru agenți . Proiectul, anunțat pe blogul Mozilla.ai de Peter Wilson , își propune să atenueze o slăbiciune frecventă a instrumentelor de programare bazate pe inteligență artificială: folosirea de informații învechite și lipsa unui mecanism standard de împărtășire a „lecțiilor” învățate după momentul în care a fost antrenat modelul. Conform descrierii, agenții de programare ajung adesea să ia decizii pe baza unor date depășite, de exemplu să încerce apeluri către interfețe (API) care au fost între timp retrase. Cauza ține de „tăietura” temporală a datelor de antrenare și de absența unui acces fiabil și structurat la contextul curent de rulare. Uneori se folosește RAG (generare augmentată cu regăsire, adică aducerea de informații recente din surse externe în timpul execuției), dar nu constant și nici complet, mai ales în situațiile în care agentul nu știe că îi lipsește o informație relevantă. O a doua problemă vizată este duplicarea efortului: mai mulți agenți ajung să rezolve aceleași blocaje în mod repetat, fără să existe un canal comun de reutilizare a soluțiilor apărute după data-limită a antrenării. Rezultatul este consum de resurse (inclusiv „jetoane” de procesare, adică unități de calcul facturate de furnizorii de modele) și energie pentru probleme care, în practică, au fost deja rezolvate de alții. cq încearcă să creeze un „bun comun” de cunoștințe: înainte să abordeze o sarcină necunoscută (o integrare de API, o configurație CI/CD sau un cadru software nou), agentul interoghează „cq commons”; dacă alt agent a întâlnit deja situația, informația poate fi reutilizată înainte de a se scrie cod. Când un agent descoperă ceva nou, propune acea cunoaștere înapoi, iar alți agenți confirmă ce funcționează și semnalează ce a devenit depășit, într-un model în care încrederea se acumulează prin utilizare, nu prin autoritate. Ars Technica notează însă că, pentru adopție la scară, proiectul va trebui să gestioneze riscuri precum securitatea, „otrăvirea” datelor (introducerea intenționată de informații false) și acuratețea, în condițiile în care cq vrea să depășească soluțiile curente de tip fișiere.md (precum claude.md sau agents.md) în care dezvoltatorii adaugă manual instrucțiuni pe baza încercărilor și erorilor. [...]

Apple pregătește un Siri complet nou ca aplicație separată , potrivit unor informații publicate de Bloomberg , schimbarea urmând să fie prezentată oficial la WWDC 2026, pe 8 iunie, odată cu lansarea iOS 27 și macOS 27. Noua versiune transformă asistentul într-un „agent AI” integrat la nivelul întregului sistem, capabil să interacționeze mai profund cu aplicațiile și să execute sarcini folosind date personale din e-mailuri, mesaje sau notițe, într-o încercare clară a Apple de a recupera terenul pierdut în fața unor soluții precum Google Gemini sau Perplexity . Una dintre cele mai importante schimbări este apariția unei aplicații dedicate Siri, testată intern de Apple. Aceasta va introduce o interfață de tip chat, similară aplicației Mesaje, și va permite: acces la istoricul conversațiilor cu Siri; căutarea în interacțiunile anterioare; alternarea între comenzi vocale și text; încărcarea de documente și imagini pentru analiză. Pe lângă funcțiile conversaționale extinse, Siri va putea genera răspunsuri mai detaliate, inclusiv rezumate, liste și conținut vizual extras de pe web. De asemenea, Apple lucrează la integrarea asistentului în interfața iPhone, inclusiv prin Dynamic Island, unde utilizatorii ar putea primi sugestii de tip „Caută sau întreabă”. Schimbarea indică o repoziționare majoră a Siri, care nu mai este doar un asistent vocal pasiv, ci devine un instrument central în ecosistemul Apple Intelligence. Miza este clară: transformarea Siri într-un concurent real pentru noile motoare de căutare și asistenți bazați pe inteligență artificială, într-un moment în care interfața conversațională devine standardul în tehnologie. Apple nu a confirmat oficial toate detaliile, însă prezentarea de la WWDC 2026 este așteptată să clarifice direcția companiei și nivelul real de integrare al noii generații Siri în produsele sale. [...]

OpenAI renunță la platforma video Sora , iar Disney abandonează investiția de 1 miliard de dolari potrivit Variety , într-o mișcare care schimbă brusc direcția uneia dintre cele mai ambițioase inițiative din zona inteligenței artificiale generative. Decizia vine fără explicații oficiale din partea companiei conduse de Sam Altman , dar are efecte imediate: parteneriatul strategic cu Disney este încheiat, iar planurile gigantului media de a investi masiv în OpenAI sunt abandonate. Platforma Sora, lansată inițial la finalul lui 2024 și actualizată în 2025, permitea generarea de videoclipuri realiste pe baza comenzilor text. Tehnologia a atras rapid atenția industriei de divertisment, dar și critici legate de drepturile de autor și utilizarea conținutului protejat. Ce pierde Disney odată cu oprirea Sora Disney semnase un acord pe trei ani cu OpenAI, care prevedea integrarea a peste 200 de personaje din universurile sale – inclusiv Marvel, Pixar și Star Wars – în videoclipuri generate de utilizatori. Planurile includeau: crearea de videoclipuri „inspirate de fani” folosind personaje licențiate selecții de conținut generate de Sora în platforma Disney+ o investiție de aproximativ 1 miliard de dolari în OpenAI După anunțul retragerii Sora, compania a confirmat că renunță la investiție, dar va continua să exploreze alte tehnologii AI. Context tensionat în industrie Decizia apare într-un climat tot mai tensionat între studiourile de la Hollywood și companiile AI. Mai multe inițiative similare au fost contestate în instanță sau prin notificări legale, pe fondul acuzațiilor de încălcare a drepturilor de autor. Printre cazurile recente: acțiuni ale Disney împotriva Google, Meta și Character.AI procese împotriva Midjourney și Minimax presiuni asupra ByteDance pentru sistemele sale AI În paralel, organizații din industria creativă, inclusiv grupuri japoneze precum CODA, au cerut limitarea utilizării conținutului protejat în antrenarea modelelor AI. Ce urmează pentru utilizatori OpenAI a transmis că va reveni cu detalii privind calendarul închiderii aplicației și API-ului Sora, precum și despre modalitățile prin care utilizatorii își pot salva proiectele. În lipsa unor explicații oficiale, decizia sugerează o repoziționare strategică a companiei în domeniul inteligenței artificiale. Pentru industrie, însă, mesajul este clar: dezvoltarea AI video rămâne promițătoare, dar confruntarea cu regulile drepturilor de autor devine inevitabilă. [...]

Tecno pregătește EllaClaw, un asistent AI cu acțiuni autonome , potrivit Mobilissimo , într-o mișcare prin care compania încearcă să intre mai serios în zona inteligenței artificiale de pe smartphone-uri și să concureze cu soluțiile dezvoltate de Google și Samsung. Noul sistem ar urma să integreze platforma OpenClaw în asistentul virtual Ella, sub numele „EllaClaw”. Conceptul este cel al unui „agent” care poate executa sarcini fără intervenția constantă a utilizatorului, într-o direcție similară cu funcții precum Magic Cue de pe Pixel 10, menționată ca reper în material. Concret, EllaClaw este prezentat ca un instrument care poate automatiza activități uzuale și poate oferi recomandări în funcție de context, folosind informații din aplicațiile de pe telefon. Exemplele de utilizare indicate includ: programarea întâlnirilor gestionarea fișierelor sugestii contextuale pe baza datelor din SMS, galerie sau calendar Un element cheie este controlul utilizatorului asupra autonomiei: sistemul ar funcționa pe mai multe niveluri de permisiune, astfel încât proprietarul telefonului să poată decide cât de mult acces și inițiativă primește asistentul. În plus, pe măsură ce este folosit, EllaClaw ar urma să „învețe” preferințele utilizatorului pentru a automatiza mai eficient sarcinile zilnice. Rămâne însă deschisă o întrebare importantă pentru astfel de funcții: unde sunt procesate datele, local pe dispozitiv sau în cloud (infrastructură la distanță). Mobilissimo notează, de asemenea, că Tecno ar putea lansa inițial funcția într-un program beta, pentru un număr limitat de utilizatori, înainte de o disponibilitate mai largă. [...]

Anthropic a lansat o funcție prin care Claude poate controla computerul pentru a executa sarcini , potrivit CNET . Anunțul a fost făcut luni și vine pe fondul competiției tot mai intense pe zona de „agenți” AI, adică modele care nu doar răspund la întrebări, ci pot acționa în numele utilizatorului. Funcția permite ca Claude să preia controlul asupra unui computer pentru a realiza acțiuni precum găsirea și trimiterea unui fișier de pe hard disk. Pentru a folosi opțiunea, utilizatorul trebuie să aibă un abonament eligibil, iar disponibilitatea este, deocamdată, sub forma unui „research preview” (o versiune de test pentru colectarea de feedback). Contextul este legat de apariția și popularizarea OpenClaw, un cadru open-source care a generat un ecosistem de instrumente numite „claws”, capabile să execute comenzi relativ autonom pe computer sau în diverse sisteme. În acest peisaj, Nvidia a prezentat recent NemoClaw, un cadru pentru configurarea și instalarea OpenClaw, cu unele setări de securitate, notează sursa. Cum funcționează, în linii mari, noua capabilitate a lui Claude: caută instrumentele potrivite pentru sarcină prin „conectori” către aplicații precum Google Calendar sau Slack; dacă nu există un instrument sau un conector disponibil, poate executa manual pașii, tastând și mișcând cursorul ca un utilizator; poate folosi browserul web, instrumente pentru dezvoltatori și fișiere deschise, inclusiv prin derulare și clicuri; cere permisiunea înainte de a acționa, iar utilizatorul poate opri oricând execuția unei sarcini. CNET arată că această abordare ridică și riscuri: acordarea accesului unui chatbot la controlul computerului poate expune utilizatorul la atacuri, iar o îngrijorare majoră legată de AI „agentic” este capacitatea de a lua acțiuni mari rapid și cu puțin preaviz. În plus, astfel de instrumente pot fi deturnate de actori malițioși pentru a accesa date personale și sisteme în mod nedorit. Anthropic spune că a introdus măsuri de protecție pentru a reduce riscuri precum „prompt injection” (o tehnică prin care un atacator încearcă să manipuleze modelul prin instrucțiuni ascunse în conținut). Sistemul ar urma să scaneze automat pentru astfel de vulnerabilități pe măsură ce sunt implementate, însă compania avertizează că funcția este nouă și poate avea erori și recomandă evitarea aplicațiilor care gestionează date sensibile, unele fiind dezactivate implicit. În forma actuală, previzualizarea este disponibilă pentru abonații Claude Pro și Claude Max și este limitată la computere cu MacOS. Anthropic mai spune că funcția se combină cu Dispatch, care permite atribuirea de sarcini lui Claude de pe telefon, inclusiv verificarea e-mailului dimineața sau deschiderea unei sesiuni Claude Cowork ori Claude Code. Compania susține că, împreună, aceste opțiuni pot automatiza activități precum un rezumat de dimineață sau rularea unor teste, dar avertizează că sarcinile mai complexe pot să nu reușească din prima, motiv pentru care lansarea este tratată ca o etapă de testare. [...]

CEO-ul Nvidia spune că DLSS 5 „îmbunătățește, dar nu schimbă nimic” , pe fondul criticilor venite din comunitatea de gaming, potrivit Ars Technica . Tehnologia, prezentată public săptămâna trecută ca o versiune cu „inteligență artificială generativă” pentru îmbunătățirea scenelor din jocuri, a atras reacții negative, inclusiv acuzații că ar produce un aspect vizual uniformizat, descris de unii jucători drept „AI slop” (conținut generat de AI perceput ca ieftin, repetitiv sau fără identitate). Într-un episod publicat luni al Lex Fridman Podcast, Jensen Huang a fost întrebat despre „drama” din jurul DLSS 5 și despre îngrijorarea că ar face jocurile să arate ca „AI slop”. Huang a spus că înțelege reacția, argumentând că o parte din conținutul generat de AI tinde să devină similar ca stil, chiar dacă este atractiv vizual. „Înțeleg de unde vin, pentru că nici mie nu-mi place «AI slop»… tot conținutul generat de AI arată din ce în ce mai similar și toate sunt frumoase, așa că… empatizez cu ce gândesc.” În același timp, Huang a susținut că DLSS 5 ar trebui separat de acest tip de conținut, deoarece funcționează „condiționat 3D” și „ghidat 3D”, adică pornește de la elementele construite de artiștii jocului. El a spus că echipele de dezvoltare rămân responsabile pentru geometria și texturile care formează „structura de bază” pe care DLSS 5 o folosește, iar tehnologia ar „îmbunătăți” fiecare cadru fără să schimbe conținutul. Materialul notează însă că, în mare parte, temerile jucătorilor nu vizează apariția unor elemente complet noi, „psihedelice”, generate de la zero, ca în unele modele generative. Îngrijorarea principală este că „îmbunătățirile” ar putea netezi diferențele dintre jocuri, împingându-le spre un standard fotorealist omogen, cu identitate vizuală mai slab conturată. Huang a respins această interpretare, spunând că DLSS 5 nu este o tehnologie aplicată ulterior, ca o etapă de post-procesare peste un joc „livrat într-o stare” și apoi modificat. În schimb, el a descris DLSS 5 ca fiind integrat în procesul creativ, „cu artistul”, și ca un instrument care ar oferi creatorilor acces la capabilități de AI generativă în cadrul fluxului de producție. [...]