Știri
Știri din categoria Inteligență artificială

Tecno pregătește EllaClaw, un asistent AI cu acțiuni autonome, potrivit Mobilissimo, într-o mișcare prin care compania încearcă să intre mai serios în zona inteligenței artificiale de pe smartphone-uri și să concureze cu soluțiile dezvoltate de Google și Samsung.
Noul sistem ar urma să integreze platforma OpenClaw în asistentul virtual Ella, sub numele „EllaClaw”. Conceptul este cel al unui „agent” care poate executa sarcini fără intervenția constantă a utilizatorului, într-o direcție similară cu funcții precum Magic Cue de pe Pixel 10, menționată ca reper în material.
Concret, EllaClaw este prezentat ca un instrument care poate automatiza activități uzuale și poate oferi recomandări în funcție de context, folosind informații din aplicațiile de pe telefon. Exemplele de utilizare indicate includ:
Un element cheie este controlul utilizatorului asupra autonomiei: sistemul ar funcționa pe mai multe niveluri de permisiune, astfel încât proprietarul telefonului să poată decide cât de mult acces și inițiativă primește asistentul. În plus, pe măsură ce este folosit, EllaClaw ar urma să „învețe” preferințele utilizatorului pentru a automatiza mai eficient sarcinile zilnice.
Rămâne însă deschisă o întrebare importantă pentru astfel de funcții: unde sunt procesate datele, local pe dispozitiv sau în cloud (infrastructură la distanță). Mobilissimo notează, de asemenea, că Tecno ar putea lansa inițial funcția într-un program beta, pentru un număr limitat de utilizatori, înainte de o disponibilitate mai largă.
Recomandate

Anthropic a lansat o funcție prin care Claude poate controla computerul pentru a executa sarcini , potrivit CNET . Anunțul a fost făcut luni și vine pe fondul competiției tot mai intense pe zona de „agenți” AI, adică modele care nu doar răspund la întrebări, ci pot acționa în numele utilizatorului. Funcția permite ca Claude să preia controlul asupra unui computer pentru a realiza acțiuni precum găsirea și trimiterea unui fișier de pe hard disk. Pentru a folosi opțiunea, utilizatorul trebuie să aibă un abonament eligibil, iar disponibilitatea este, deocamdată, sub forma unui „research preview” (o versiune de test pentru colectarea de feedback). Contextul este legat de apariția și popularizarea OpenClaw, un cadru open-source care a generat un ecosistem de instrumente numite „claws”, capabile să execute comenzi relativ autonom pe computer sau în diverse sisteme. În acest peisaj, Nvidia a prezentat recent NemoClaw, un cadru pentru configurarea și instalarea OpenClaw, cu unele setări de securitate, notează sursa. Cum funcționează, în linii mari, noua capabilitate a lui Claude: caută instrumentele potrivite pentru sarcină prin „conectori” către aplicații precum Google Calendar sau Slack; dacă nu există un instrument sau un conector disponibil, poate executa manual pașii, tastând și mișcând cursorul ca un utilizator; poate folosi browserul web, instrumente pentru dezvoltatori și fișiere deschise, inclusiv prin derulare și clicuri; cere permisiunea înainte de a acționa, iar utilizatorul poate opri oricând execuția unei sarcini. CNET arată că această abordare ridică și riscuri: acordarea accesului unui chatbot la controlul computerului poate expune utilizatorul la atacuri, iar o îngrijorare majoră legată de AI „agentic” este capacitatea de a lua acțiuni mari rapid și cu puțin preaviz. În plus, astfel de instrumente pot fi deturnate de actori malițioși pentru a accesa date personale și sisteme în mod nedorit. Anthropic spune că a introdus măsuri de protecție pentru a reduce riscuri precum „prompt injection” (o tehnică prin care un atacator încearcă să manipuleze modelul prin instrucțiuni ascunse în conținut). Sistemul ar urma să scaneze automat pentru astfel de vulnerabilități pe măsură ce sunt implementate, însă compania avertizează că funcția este nouă și poate avea erori și recomandă evitarea aplicațiilor care gestionează date sensibile, unele fiind dezactivate implicit. În forma actuală, previzualizarea este disponibilă pentru abonații Claude Pro și Claude Max și este limitată la computere cu MacOS. Anthropic mai spune că funcția se combină cu Dispatch, care permite atribuirea de sarcini lui Claude de pe telefon, inclusiv verificarea e-mailului dimineața sau deschiderea unei sesiuni Claude Cowork ori Claude Code. Compania susține că, împreună, aceste opțiuni pot automatiza activități precum un rezumat de dimineață sau rularea unor teste, dar avertizează că sarcinile mai complexe pot să nu reușească din prima, motiv pentru care lansarea este tratată ca o etapă de testare. [...]

Jensen Huang spune că „am atins AGI” , potrivit The Verge , într-un episod de luni al podcastului realizat de Lex Fridman , unde directorul general al Nvidia a făcut o afirmație care reaprinde dezbaterea despre ce înseamnă, de fapt, „inteligența artificială generală”. AGI (inteligență artificială generală) este un termen fără o definiție unanim acceptată, folosit de obicei pentru a descrie sisteme de inteligență artificială comparabile cu inteligența umană sau care o depășesc. În contextul ultimilor ani, conceptul a devenit un subiect sensibil atât în industrie, cât și în spațiul public, iar unii lideri din tehnologie au încercat să se distanțeze de etichetă și să propună alternative pe care le consideră mai puțin „umflate” și mai utile. The Verge notează și că termenul apare în clauze importante din contracte de mare valoare, inclusiv între OpenAI și Microsoft, unde mizele financiare pot fi semnificative. În discuția cu Huang, Fridman își explică propria definiție de lucru pentru AGI: un sistem capabil să „îți facă, în esență, munca”, inclusiv să pornească, să crească și să conducă o companie de tehnologie de peste 1 miliard de dolari. Întrebat când crede că AGI va deveni realitate (în cinci, zece, 15 sau 20 de ani), Huang răspunde că momentul ar fi deja aici. „Cred că este acum. Cred că am atins AGI.” După declarație, Huang aduce în discuție OpenClaw, o platformă open-source pentru „agenți” de inteligență artificială (programe care pot executa sarcini în mod semi-autonom), despre care spune că a avut succes viral. El afirmă că oamenii își folosesc agenții pentru activități diverse și că nu ar fi surprins dacă ar apărea „un influencer digital” sau o aplicație socială care „îți hrănește micul Tamagotchi” și ajunge, pe neașteptate, un succes instant. Totuși, potrivit relatării The Verge, Huang își nuanțează ulterior poziția, sugerând că multe astfel de experimente au o viață scurtă și că nu trebuie extrapolate direct la ideea de AGI cu impact economic major. El spune că, deși unii folosesc aceste instrumente câteva luni, interesul scade, iar probabilitatea ca zeci sau sute de mii de agenți să construiască „următorul Nvidia” este, în opinia lui, nulă. [...]

Un vânzător din Jiangsu și-a extins afacerea „angajând” patru „salariați AI” , potrivit South China Morning Post , pe fondul popularității cadrului OpenClaw pentru agenți de inteligență artificială și al unor politici publice care încurajează companiile cu un singur angajat în China. Steven Li, care vinde cosmetice către clienți din afara țării, spune că a introdus roluri automatizate care acoperă atât relația cu clienții, cât și operațiunile interne. În „prima linie”, un agent de asistență clienți gestionează solicitările în timp real, 24/7, pe WhatsApp, iar un agent de „vânzări digitale” furnizează cotații de preț. În spate, un al treilea rol oferă statusul de urmărire pentru fiecare comandă, iar un „asistent de operațiuni” transformă date brute în rapoarte de performanță. „Eliberează forța de muncă umană prin automatizarea muncii repetitive”, a spus Li. Costul total este de aproximativ 40 de dolari pe lună, pentru două abonamente ChatGPT Plus, conform aceleiași surse. Articolul descrie această dinamică drept intrarea în era „soloprenoriatului” în China, alimentată de creșterea rapidă a OpenClaw și de politici guvernamentale menite să susțină companiile cu un singur angajat (OPC). La nivel de politici publice, Guangdong a devenit în această săptămână prima administrație provincială care a lansat planuri de acțiune cuprinzătoare dedicate sprijinirii OPC-urilor bazate pe inteligență artificială, urmată de provincia Hubei din centrul Chinei. Ambele oferă resurse pentru putere de calcul și pentru „ieșire de tokenuri” (unități de text generate de modele AI, folosite și ca bază de tarifare/consum). În paralel, mai multe autorități locale au introdus măsuri similare, inclusiv: Shanghai Wuhan (capitala provinciei Hubei) Qingdao (oraș din nordul provinciei Shandong) [...]

Meta a confirmat o breșă de securitate provocată de un agent AI intern , potrivit Biziday , după ce un răspuns greșit generat de sistem a dus la publicarea temporară a unor date sensibile pe un forum intern accesibil angajaților. Incidentul a pornit de la o solicitare obișnuită: un inginer a cerut ajutor pentru rezolvarea unei erori tehnice pe un forum destinat angajaților Meta. Un alt inginer a văzut postarea și a apelat la un agent AI intern pentru asistență. Problema, conform cronologiei prezentate de companie, a fost că agentul AI nu s-a limitat la a propune o soluție, ci a publicat singur răspunsul pe forum, fără aprobarea explicită a utilizatorului. Cu alte cuvinte, sistemul a acționat autonom, iar inginerul nu a mai avut ocazia să verifice dacă recomandarea este corectă și sigură de făcut publică. Inginerul care ceruse inițial ajutorul a văzut răspunsul și a aplicat metoda sugerată, ceea ce a generat erori suplimentare și a dus la expunerea unei cantități mari de date interne către alți ingineri care nu aveau dreptul să le acceseze. Meta precizează că breșa a durat aproximativ două ore și susține că nu există indicii că datele utilizatorilor ar fi fost folosite abuziv. Cazul se înscrie într-o serie mai largă de incidente asociate introducerii accelerate a agenților AI în companiile tehnologice din SUA. Luna trecută, relatează Biziday, Financial Times a scris că Amazon a avut probleme tehnice după introducerea unor instrumente bazate pe AI în sistemele interne, iar ulterior mai mulți angajați au declarat pentru The Guardian că integrarea AI în activitatea lor a dus la erori, inclusiv cod scris neglijent și scăderea productivității. În paralel, agenții AI autonomi – sisteme capabile să execute sarcini fără intervenție umană directă – devin mai răspândiți, dar și mai greu de controlat. În material este menționat exemplul OpenClaw, un asistent AI care a produs deja incidente, inclusiv ștergerea completă a unor inboxuri sau pierderi financiare, precum și instrumente de tip Claude Code, care pot gestiona activități variate, de la programare la sarcini personale, ceea ce amplifică riscurile. Meta a încadrat incidentul la nivelul „Sev 1”, al doilea cel mai ridicat nivel de gravitate în sistemul intern de evaluare a problemelor de securitate. Specialiștii citați în articol indică drept vulnerabilitate majoră „lipsa de context” a acestor agenți: spre deosebire de un angajat, care înțelege din experiență ce sisteme sunt critice și ce acțiuni sunt periculoase, un agent AI operează pe baza instrucțiunilor primite și a unei „memorii” limitate, ceea ce poate duce la decizii greșite cu efecte serioase. În același timp, compania spune că rămâne optimistă privind potențialul agenților AI autonomi și notează că, săptămâna trecută, a cumpărat Moltbook , un site de socializare asemănător Reddit, unde agenții OpenClaw pot comunica între ei. [...]

CEO-ul Nvidia spune că DLSS 5 „îmbunătățește, dar nu schimbă nimic” , pe fondul criticilor venite din comunitatea de gaming, potrivit Ars Technica . Tehnologia, prezentată public săptămâna trecută ca o versiune cu „inteligență artificială generativă” pentru îmbunătățirea scenelor din jocuri, a atras reacții negative, inclusiv acuzații că ar produce un aspect vizual uniformizat, descris de unii jucători drept „AI slop” (conținut generat de AI perceput ca ieftin, repetitiv sau fără identitate). Într-un episod publicat luni al Lex Fridman Podcast, Jensen Huang a fost întrebat despre „drama” din jurul DLSS 5 și despre îngrijorarea că ar face jocurile să arate ca „AI slop”. Huang a spus că înțelege reacția, argumentând că o parte din conținutul generat de AI tinde să devină similar ca stil, chiar dacă este atractiv vizual. „Înțeleg de unde vin, pentru că nici mie nu-mi place «AI slop»… tot conținutul generat de AI arată din ce în ce mai similar și toate sunt frumoase, așa că… empatizez cu ce gândesc.” În același timp, Huang a susținut că DLSS 5 ar trebui separat de acest tip de conținut, deoarece funcționează „condiționat 3D” și „ghidat 3D”, adică pornește de la elementele construite de artiștii jocului. El a spus că echipele de dezvoltare rămân responsabile pentru geometria și texturile care formează „structura de bază” pe care DLSS 5 o folosește, iar tehnologia ar „îmbunătăți” fiecare cadru fără să schimbe conținutul. Materialul notează însă că, în mare parte, temerile jucătorilor nu vizează apariția unor elemente complet noi, „psihedelice”, generate de la zero, ca în unele modele generative. Îngrijorarea principală este că „îmbunătățirile” ar putea netezi diferențele dintre jocuri, împingându-le spre un standard fotorealist omogen, cu identitate vizuală mai slab conturată. Huang a respins această interpretare, spunând că DLSS 5 nu este o tehnologie aplicată ulterior, ca o etapă de post-procesare peste un joc „livrat într-o stare” și apoi modificat. În schimb, el a descris DLSS 5 ca fiind integrat în procesul creativ, „cu artistul”, și ca un instrument care ar oferi creatorilor acces la capabilități de AI generativă în cadrul fluxului de producție. [...]

Larry Fink avertizează că inteligența artificială poate adânci inegalitatea , potrivit The Guardian. În scrisoarea anuală către investitori, publicată luni, Fink susține că beneficiile financiare ale AI ar putea ajunge în principal la un număr restrâns de companii și investitori. Directorul general al BlackRock, companie care administrează active de 14 trilioane de dolari, descrie inteligența artificială drept un element devenit „central pentru competiția strategică” dintre marile puteri, precum SUA și China. În acest context, el atrage atenția că dinamica investițiilor și a adoptării accelerate poate amplifica un tipar deja cunoscut: câștigurile se concentrează la cei care dețin active. Fink notează că „bogăția masivă” creată în ultimele generații a mers în mare măsură către cei care aveau deja active financiare și avertizează că AI riscă să repete modelul „la o scară și mai mare”. El mai spune că boom-ul AI ar putea accelera tendința prin care companiile de top acumulează tot mai mult capital, în timp ce restul pieței se luptă să țină pasul. În scrisoare, el argumentează că firmele care au datele, infrastructura și finanțarea necesare pentru a implementa AI la scară largă sunt poziționate să beneficieze „în mod disproporționat”, ceea ce poate adânci prăpastia dintre bogați și săraci. „Întrebarea mai amplă este cine participă la câștiguri”, avertizează Fink, adăugând că atunci când capitalizarea de piață crește, dar proprietatea rămâne concentrată, prosperitatea poate părea tot mai îndepărtată pentru cei din afara acestui cerc. Pe fondul creșterilor puternice ale acțiunilor companiilor tehnologice orientate spre AI, Fink spune că este cert că inteligența artificială va crea valoare economică semnificativă, însă provocarea este ca participarea la această creștere să se extindă. The Guardian amintește, totodată, îngrijorările privind o posibilă bulă investițională în AI, iar Banca Angliei a avertizat în octombrie asupra riscurilor tot mai mari ale unei „corecții bruște” pe piețele globale, pe fondul evaluărilor accelerate ale principalelor companii din domeniu. [...]