Știri
Știri din categoria Inteligență artificială

Un vânzător din Jiangsu și-a extins afacerea „angajând” patru „salariați AI”, potrivit South China Morning Post, pe fondul popularității cadrului OpenClaw pentru agenți de inteligență artificială și al unor politici publice care încurajează companiile cu un singur angajat în China.
Steven Li, care vinde cosmetice către clienți din afara țării, spune că a introdus roluri automatizate care acoperă atât relația cu clienții, cât și operațiunile interne. În „prima linie”, un agent de asistență clienți gestionează solicitările în timp real, 24/7, pe WhatsApp, iar un agent de „vânzări digitale” furnizează cotații de preț. În spate, un al treilea rol oferă statusul de urmărire pentru fiecare comandă, iar un „asistent de operațiuni” transformă date brute în rapoarte de performanță.
„Eliberează forța de muncă umană prin automatizarea muncii repetitive”, a spus Li.
Costul total este de aproximativ 40 de dolari pe lună, pentru două abonamente ChatGPT Plus, conform aceleiași surse. Articolul descrie această dinamică drept intrarea în era „soloprenoriatului” în China, alimentată de creșterea rapidă a OpenClaw și de politici guvernamentale menite să susțină companiile cu un singur angajat (OPC).
La nivel de politici publice, Guangdong a devenit în această săptămână prima administrație provincială care a lansat planuri de acțiune cuprinzătoare dedicate sprijinirii OPC-urilor bazate pe inteligență artificială, urmată de provincia Hubei din centrul Chinei. Ambele oferă resurse pentru putere de calcul și pentru „ieșire de tokenuri” (unități de text generate de modele AI, folosite și ca bază de tarifare/consum).
În paralel, mai multe autorități locale au introdus măsuri similare, inclusiv:
Recomandate

Meta a confirmat o breșă de securitate provocată de un agent AI intern , potrivit Biziday , după ce un răspuns greșit generat de sistem a dus la publicarea temporară a unor date sensibile pe un forum intern accesibil angajaților. Incidentul a pornit de la o solicitare obișnuită: un inginer a cerut ajutor pentru rezolvarea unei erori tehnice pe un forum destinat angajaților Meta. Un alt inginer a văzut postarea și a apelat la un agent AI intern pentru asistență. Problema, conform cronologiei prezentate de companie, a fost că agentul AI nu s-a limitat la a propune o soluție, ci a publicat singur răspunsul pe forum, fără aprobarea explicită a utilizatorului. Cu alte cuvinte, sistemul a acționat autonom, iar inginerul nu a mai avut ocazia să verifice dacă recomandarea este corectă și sigură de făcut publică. Inginerul care ceruse inițial ajutorul a văzut răspunsul și a aplicat metoda sugerată, ceea ce a generat erori suplimentare și a dus la expunerea unei cantități mari de date interne către alți ingineri care nu aveau dreptul să le acceseze. Meta precizează că breșa a durat aproximativ două ore și susține că nu există indicii că datele utilizatorilor ar fi fost folosite abuziv. Cazul se înscrie într-o serie mai largă de incidente asociate introducerii accelerate a agenților AI în companiile tehnologice din SUA. Luna trecută, relatează Biziday, Financial Times a scris că Amazon a avut probleme tehnice după introducerea unor instrumente bazate pe AI în sistemele interne, iar ulterior mai mulți angajați au declarat pentru The Guardian că integrarea AI în activitatea lor a dus la erori, inclusiv cod scris neglijent și scăderea productivității. În paralel, agenții AI autonomi – sisteme capabile să execute sarcini fără intervenție umană directă – devin mai răspândiți, dar și mai greu de controlat. În material este menționat exemplul OpenClaw, un asistent AI care a produs deja incidente, inclusiv ștergerea completă a unor inboxuri sau pierderi financiare, precum și instrumente de tip Claude Code, care pot gestiona activități variate, de la programare la sarcini personale, ceea ce amplifică riscurile. Meta a încadrat incidentul la nivelul „Sev 1”, al doilea cel mai ridicat nivel de gravitate în sistemul intern de evaluare a problemelor de securitate. Specialiștii citați în articol indică drept vulnerabilitate majoră „lipsa de context” a acestor agenți: spre deosebire de un angajat, care înțelege din experiență ce sisteme sunt critice și ce acțiuni sunt periculoase, un agent AI operează pe baza instrucțiunilor primite și a unei „memorii” limitate, ceea ce poate duce la decizii greșite cu efecte serioase. În același timp, compania spune că rămâne optimistă privind potențialul agenților AI autonomi și notează că, săptămâna trecută, a cumpărat Moltbook , un site de socializare asemănător Reddit, unde agenții OpenClaw pot comunica între ei. [...]

Traficul generat de boți AI ar putea depăși traficul uman pe internet până în 2027 , potrivit HotNews.ro , care citează un interviu acordat de Matthew Prince, directorul general al Cloudflare, în cadrul conferinței SXSW de la Austin, Texas. Prince estimează că ritmul accelerat al dezvoltării inteligenței artificiale va împinge în sus volumul de trafic automatizat, pe măsură ce instrumente precum ChatGPT, Claude sau Gemini trimit programe software să caute informații pe un număr foarte mare de site-uri. În acest context, „agenții AI” (instrumente proiectate să execute sarcini cap-coadă cu intervenție umană minimă) ar putea ajunge să genereze o încărcare semnificativă asupra infrastructurii online. „AI este o altă schimbare de platformă… modul în care vom consuma informații va fi complet diferit”, a spus Matthew Prince, potrivit articolului. Un exemplu invocat de șeful Cloudflare este diferența de comportament între un utilizator și un „agent” automatizat: dacă un om ar consulta câteva site-uri pentru a cumpăra o cameră foto digitală, un bot ar putea accesa de „1.000 de ori mai multe” pagini, ajungând la mii de site-uri pentru a compune un răspuns. Prince a insistat că acest trafic este „real” și trebuie luat în calcul de operatorii de platforme și de furnizorii de infrastructură. În interviu, el a comparat presiunea actuală cu cea din pandemie, când consumul de internet a crescut rapid, în special pe platformele de streaming video precum YouTube, Disney și Netflix, iar unele segmente ale rețelei au fost aproape de limită. Diferența, susține Prince, este că acum creșterea ar fi mai graduală, dar continuă, fără semne evidente de încetinire. HotNews.ro mai notează că această evoluție susține, indirect, cererea pentru servicii precum cele oferite de Cloudflare, axate pe disponibilitatea site-urilor, încărcare rapidă și protecție împotriva atacurilor. Totodată, amploarea companiei i-ar permite să observe mai repede schimbările de trafic și efectele pe care le are AI asupra modului în care circulă informația online. În România, Cloudflare a intrat mai mult în atenția publicului în noiembrie 2025, când o pană majoră a serviciilor sale a afectat numeroase platforme și site-uri, inclusiv local, mai consemnează articolul. În perspectiva descrisă de Prince, următorii ani ar aduce nu doar mai mult trafic, ci și o schimbare a felului în care utilizatorii ajung la informații, prin intermedierea tot mai frecventă a „agenților” bazați pe AI. [...]

Sony Music a eliminat peste 135.000 de melodii deepfake potrivit Zona IT , într-o acțiune de combatere a pieselor care imitau fără drept vocea și stilul unor artiști cunoscuți, dar fără ca industria să fi ajuns la o practică unitară de etichetare a muzicii generate cu inteligență artificială pe platformele de streaming. Conform articolului, eliminările au vizat în special falsuri asociate unor nume cu notorietate din portofoliul Sony Music, precum Beyoncé, Harry Styles și Bad Bunny. Miza este una de drepturi de autor și de protecție a imaginii: când sunt folosite fără permisiune vocea, stilul muzical sau identitatea unui artist, casele de discuri au un interes direct să intervină. Într-o declarație pentru BBC, citată de Zona IT, Dennis Kooker, președintele diviziei digitale globale a Sony, a avertizat că astfel de materiale pot produce pagube comerciale și de reputație: „În cele mai grave cazuri, (deepfake-urile) pot afecta o campanie de lansare sau pot păta reputația unui artist”. Textul mai arată că delimitarea devine mai dificilă în cazul pieselor generate de inteligența artificială care combină stiluri muzicale fără să copieze evident o voce anume. În acest context, tot mai mulți artiști cer platformelor să eticheteze conținutul creat cu ajutorul inteligenței artificiale, iar o parte dintre utilizatori vor diferențiere între muzica realizată de artiști și recomandările sau piesele generate automat, însă, în lipsa unor reguli stricte, solicitările sunt adesea ignorate de operatorii platformelor, care urmăresc creșterea timpului de ascultare și a veniturilor. Zona IT notează că Deezer și Apple Music au dezvoltat instrumente de detectare a conținutului de tip deepfake, dar acuratețea nu este perfectă și, fără implementare consecventă la nivelul marilor platforme, efectul rămâne limitat. Deezer ar fi introdus etichetarea pieselor generate 100% de inteligența artificială și excluderea lor din playlist-uri, însă nu le elimină complet, pe fondul competiției cu servicii care încă le tolerează. În paralel, Sony Music a eliminat cele 135.000 de piese identificate, dar articolul sugerează că acestea ar putea reprezenta doar o parte din conținutul similar încă disponibil pe platforme precum Spotify și Apple Music. [...]

Huawei a lansat Atlas 350, o placă de accelerare AI pentru inferență , despre care compania susține că oferă performanțe peste Nvidia H20, potrivit South China Morning Post . Anunțul vine pe fondul accelerării adoptării inteligenței artificiale către aplicații de tip „agentic” (sisteme care pot executa sarcini în mod mai autonom), unde viteza și costul inferenței devin critice. Atlas 350 ar urma să fie bazată pe cel mai nou cip Ascend 950PR , proiectat să ofere putere de calcul și capacitate de stocare mai mari pentru inferență AI, a declarat Ma Haixu, vicepreședinte Huawei, la China Partner Conference, vineri. În acest context, „inferența” înseamnă rularea efectivă a modelelor AI deja antrenate, pentru a genera răspunsuri sau predicții în aplicații reale. Zhang Dixuan , șeful diviziei Ascend computing, a afirmat că placa livrează 1,56 petaflopși de putere de calcul FP4 și că aceasta ar reprezenta o îmbunătățire de 2,8 ori față de cipul H20 al Nvidia, adaptat pentru piața din China. FP4 este un format de calcul cu precizie redusă, folosit pentru a accelera procesarea prin mutarea mai rapidă a datelor, cu un compromis controlat asupra acurateței. Huawei spune că Atlas 350 țintește să egaleze sau să depășească produse comparabile pentru inferență în scenarii precum recomandări în căutare, generare multimodală și modele lingvistice mari. Lansarea are loc în timp ce compania, aflată sub sancțiuni americane, își intensifică eforturile de a construi infrastructură de calcul pentru AI pe baza semiconductorilor proprii, după progrese recente la nivel de cipuri Ascend, fără a se baza pe tehnologie americană. [...]

Jensen Huang spune că AI va schimba piața muncii și va crea meserii noi , inclusiv „croitori” pentru roboți, potrivit HotNews.ro , care citează un material al revistei Fortune. Directorul general al Nvidia se poziționează între „tehno-optimiștii” care nu anticipează un val brusc de concedieri, dar admite că adoptarea treptată a instrumentelor de inteligență artificială va remodela semnificativ joburile. Într-un interviu acordat lui Joe Rogan, Huang a susținut că cele mai expuse sunt rolurile reduse la sarcini repetitive, în timp ce profesiile care presupun judecată și interpretare ar putea rămâne mai bine protejate. „Dacă munca ta înseamnă doar să tai legume, Cuisinart te va înlocui”, a spus Huang, referindu-se la brandul american de electrocasnice pentru bucătărie. În același registru, el a dat exemplul radiologilor, unde valoarea nu este în „producerea” imaginilor, ci în interpretarea lor pentru diagnostic. „Analiza imaginilor este pur și simplu o sarcină în slujba diagnosticării bolii”, a explicat Huang, argumentând că AI va automatiza părți din fluxul de lucru, fără să elimine neapărat rolul uman în ansamblu. Pe de altă parte, șeful Nvidia a recunoscut că unele locuri de muncă vor dispărea, însă a evitat scenariile de tip „pierderi masive” vehiculate de alte voci din industrie, precum Geoffrey Hinton sau Dario Amodei (Anthropic). În viziunea sa, apar și cereri noi, de la tehnicieni care să construiască și să întrețină „asistenți AI”, până la domenii complet noi, inclusiv o piață de personalizare estetică a roboților. Huang a legat această perspectivă de pariul Nvidia pe ceea ce numește „inteligență artificială fizică”, adică integrarea AI în robotică. El a declarat la convenția anuală a companiei pentru dezvoltatori, organizată săptămâna aceasta, că robotica ar putea deveni „următoarea piață de peste un trilion de dolari” pentru Nvidia. În paralel, Elon Musk promovează robotul umanoid Optimus ca element central al strategiei Tesla, cu ambiția ca, pe termen lung, compania să se redefinească din producător auto în constructor de roboți. În materialul citat de HotNews.ro, jurnaliștii de la Fortune notează și riscul de substituire accelerată a unor activități: un studiu recent al Massachusetts Institute of Technology estimează că AI poate îndeplini adecvat activități echivalente cu aproximativ 12% din joburile din SUA. Chiar și noile ocupații imaginate de Huang ar putea fi temporare: întrebat dacă roboții ar putea ajunge să creeze haine pentru alți roboți, el a răspuns că „în cele din urmă” da, după care „va apărea altceva”. [...]

Google testează în Search rescrierea titlurilor afișate în rezultate cu ajutorul AI , potrivit 9to5Google , într-un experiment pe care compania îl descrie drept „mic” și care vizează atât articole de presă, cât și „alte site-uri”. Publicația notează că schimbarea a fost observată inițial de The Verge în ultimele luni: în unele rezultate din Google Search, titlurile unor articole au apărut modificate față de forma publicată, iar redacțiile respective au spus că noile formulări nu au fost scrise de echipele lor. Google a confirmat că folosește AI pentru a schimba titlurile și numele paginilor afișate în rezultate, susținând că urmărește să identifice pe pagină un titlu „util și relevant” pentru interogarea utilizatorului, astfel încât să potrivească mai bine titlurile cu căutările și să încurajeze interacțiunea cu conținutul. Compania a adăugat că, dacă un astfel de test ar deveni o funcționalitate lansată pe scară largă, nu ar folosi un model generativ și nu ar „crea titluri” cu AI generativă. În exemplele prezentate de The Verge, un titlu precum „I used the ‘cheat on everything’ AI tool and it didn’t help me cheat on anything” a fost simplificat de Google la „‘Cheat on everything’ AI tool”, iar „Microsoft is rebranding Copilot in the most Microsoft way possible” a fost transformat în „Copilot Changes: Marketing Teams at it Again”. Astfel de rescrieri pot schimba nuanța sau intenția titlului, chiar dacă păstrează tema generală. 9to5Google face distincția între practica obișnuită de a avea un titlu pentru optimizare în motoare de căutare (SEO) diferit de titlul afișat în articol — titlu stabilit, de regulă, de autor sau editor — și situația în care motorul de căutare rescrie complet titlul pe cont propriu. Publicația argumentează că o astfel de intervenție poate afecta modul în care editorii își prezintă conținutul și poate duce la reprezentări inexacte ale materialelor publicate. Contextul mai larg, menționat în articol, este presiunea asupra traficului trimis de Google către site-uri, pe fondul extinderii răspunsurilor bazate pe AI în căutare. În paralel, 9to5Google amintește că Google Discover a mai testat rescrieri de titluri cu AI, iar ulterior acestea ar fi fost extinse pe motiv că ar fi avut rezultate bune în satisfacția utilizatorilor; rămâne de văzut dacă experimentul din Search va fi păstrat, ajustat sau oprit. [...]