Știri
Știri din categoria Inteligență artificială

Xiaomi își deschide procesul de „post-antrenare” pentru modelul său de robotică, cu un prag de date surprinzător de mic, într-o mișcare care poate accelera adoptarea practică a modelelor VLA (vision-language-action – modele care leagă percepția vizuală și limbajul de acțiuni fizice) în aplicații industriale, potrivit IT之家.
Compania a anunțat publicarea fluxului complet de „post-training” (antrenare ulterioară pe robot real) pentru Xiaomi-Robotics-0, după ce în februarie a lansat și a făcut public modelul VLA. În prima lună de la lansare, modelul a ajuns pe locul 6 în clasamentul global de descărcări al modelelor VLA pe Hugging Face, conform aceleiași surse.
Elementul cu impact operațional este afirmația Xiaomi că, pornind de la o bază pre-antrenată, a folosit doar 20 de ore de date de sarcină pentru a antrena pe robot real modelul astfel încât să execute o operațiune fină: introducerea căștilor în cutia lor, repetat, „fluid”, pentru mai multe căști la rând.
Publicarea „post-training full pipeline” sugerează o încercare de a transforma modelul într-un instrument „gata de folosit”, adică mai ușor de replicat și adaptat de către dezvoltatori sau echipe de inginerie care vor să treacă de la demonstrații la implementări.
Xiaomi descrie sarcina drept una cu două provocări principale, relevante pentru orice scenariu de asamblare/împachetare de precizie:
Xiaomi indică mai multe resurse asociate proiectului, inclusiv raportul tehnic și codul:
Publicația nu oferă detalii suplimentare despre costuri, hardware sau condițiile exacte de testare, astfel că gradul de generalizare al rezultatului la alte sarcini rămâne neclar din informațiile disponibile.
Recomandate

Procesul dintre Elon Musk și Sam Altman riscă să complice planurile OpenAI de listare și să pună sub presiune modelul său de guvernanță, într-un moment în care compania este așteptată să iasă pe bursă la o evaluare de circa 1.000 de miliarde de dolari, potrivit The Guardian . Dosarul intră în judecată săptămâna aceasta, la un tribunal federal din Oakland, California, iar miza depășește conflictul personal: poate influența direcția „boom”-ului din inteligența artificială. Musk a dat în judecată OpenAI și pe directorul general Sam Altman în 2024, susținând că a fost încălcat acordul de fondare al organizației. OpenAI a fost creată în 2015 ca organizație non-profit, cu o misiune publicată la finalul acelui an, care afirma că scopul este avansarea „inteligenței digitale” în beneficiul umanității, fără constrângerea generării unui randament financiar. Ce cere Musk și de ce contează pentru listarea OpenAI În esență, Musk afirmă că Altman a încălcat înțelegerea inițială prin restructurarea OpenAI și transformarea unei părți semnificative într-o entitate orientată spre profit. De cealaltă parte, Altman și OpenAI susțin că Musk, care a părăsit compania în 2018 pe fondul unor dispute interne și între timp a lansat un rival în zona de inteligență artificială, acționează din frustrare. Pentru OpenAI, procesul are o miză directă, financiară și de guvernanță. Publicația notează că firma este așteptată să se listeze mai târziu în acest an la o evaluare de aproximativ 1.000 de miliarde de dolari, iar Musk cere inclusiv măsuri care ar putea afecta această traiectorie. Concret, Musk solicită o serie de remedii, între care: înlăturarea lui Sam Altman și a președintelui OpenAI, Greg Brockman; despăgubiri de peste 134 de miliarde de dolari (aprox. 603 miliarde lei), despre care Musk spune că ar fi redistribuite către brațul non-profit al OpenAI; inversarea restructurării către o entitate cu scop lucrativ, ceea ce ar complica planurile de listare. Calendarul procesului și actorii-cheie Selecția juraților începe luni, la tribunalul federal din Oakland, sub coordonarea judecătoarei Yvonne Gonzalez Rogers. Procesul este estimat să dureze două până la trei săptămâni. În instanță ar urma să apară nume grele din Silicon Valley. Pe lista celor așteptați să depună mărturie se află inclusiv Satya Nadella, directorul general al Microsoft, companie cu care OpenAI a încheiat acorduri pe care Musk le descrie drept parte a „monetizării” ulterioare. Cum se apără OpenAI: donație, nu investiție Potrivit materialului, Musk susține că a contribuit cu aproximativ 38 de milioane de dolari (aprox. 171 milioane lei) și că, după ce compania a beneficiat de bani și a avansat tehnologic, ar fi „schimbat narațiunea” către acorduri profitabile și afiliere cu entități comerciale. OpenAI respinge acuzațiile și afirmă că Musk ar fi fost de acord încă din 2017 că înființarea unei entități cu scop lucrativ era un pas necesar. Compania contestă și ideea că finanțarea lui Musk ar fi fost o investiție, susținând că a fost o donație deductibilă fiscal către organizația non-profit și că nu îi conferă drepturi de proprietate în OpenAI. Ce urmează: un test pentru guvernanța companiilor de IA Dincolo de detaliile personale și de corespondența internă care ar urma să fie discutată în instanță (emailuri, mesaje și însemnări), procesul pune în prim-plan o problemă cu impact de piață: cât de stabil este modelul de guvernanță al unei companii de inteligență artificială care pornește ca non-profit, atrage capital masiv și ajunge să opereze prin structuri comerciale. În funcție de deciziile instanței și de eventualele remedii impuse, OpenAI ar putea fi nevoită să-și apere mai agresiv arhitectura corporativă și planurile de listare, într-un moment în care investitorii și regulatorii urmăresc tot mai atent cum sunt controlate și monetizate tehnologiile de IA. [...]

Google a extins la scară globală butonul „ AI Enhance ” din Google Photos pentru Android, adăugând un instrument de editare rapidă care pare gratuit, dar cu rezultate dependente de dispozitiv , potrivit GSMArena . Funcția apare în editorul de imagini, în fila „Auto”, lângă opțiunile existente „Enhance” și „Dynamic”. „AI Enhance” este descris ca un buton simplu, menit să îmbunătățească automat fotografiile. În testele publicației, instrumentul a reușit să recupereze destul de eficient zonele de lumini și umbre, să corecteze probleme comune cauzate de iluminarea slabă și să intensifice ușor culorile, însă fără rezultate „spectaculoase” față de soluțiile similare de pe piață. Ce se schimbă operațional pentru utilizatori Extinderea la „toți utilizatorii Android” la nivel mondial înseamnă că funcția nu mai este limitată la un test restrâns sau la anumite piețe. În forma actuală, „AI Enhance” pare să fie disponibil gratuit, ceea ce îl transformă într-o opțiune de editare „dintr-un click” pentru utilizatorii care nu vor să ajusteze manual parametri precum expunerea sau contrastul. Contextul este o accelerare a ritmului de adăugare de instrumente de editare în Google Photos: anterior, Google a introdus și o funcție de retuș facial rapid, menționată de GSMArena într-un material separat (link în sursă). „Rezultatul variază în funcție de dispozitiv”: semnal despre procesare și limitări Google susține că „rezultatul variază în funcție de dispozitiv”, un indiciu că o parte din procesare ar putea avea loc pe telefon (local, „on-device”). Totuși, GSMArena notează că, în testele sale, funcția nu a mers complet offline, ceea ce sugerează că nu trebuie așteptată o utilizare fără conexiune la internet. [...]

SUA le cere ambasadelor să avertizeze aliații despre presupuse furturi de tehnologie AI de către companii chineze, într-o mișcare cu potențial de a înăspri controalele și restricțiile din lanțurile internaționale de dezvoltare și utilizare a inteligenței artificiale, potrivit Profit . Directiva diplomatică globală, datată 24 aprilie și transmisă misiunilor diplomatice americane din întreaga lume, le solicită oficialilor SUA să ridice subiectul în discuțiile cu guverne străine. Motivul invocat este îngrijorarea că modele AI dezvoltate în Statele Unite ar fi „extrase” și replicate de actori considerați adversari. Ce acuză Washingtonul În document sunt menționate explicit mai multe companii chineze, între care startup-ul DeepSeek , dar și Moonshot AI și MiniMax. SUA susțin că astfel de entități ar folosi inclusiv tehnici de „distilare” (metodă prin care performanța unui model avansat este reprodusă într-un model mai mic/mai ieftin) pentru a copia capabilități ale sistemelor americane. Potrivit informațiilor citate de Profit din Reuters, Washingtonul afirmă că aceste metode ar permite reproducerea performanței unor sisteme americane avansate la costuri reduse și, în același timp, ar putea elimina mecanismele de siguranță integrate în modelele originale. Contextul politic și reacția Chinei Inițiativa vine după ce Casa Albă a acuzat recent China de furt „la scară industrială” de tehnologie AI, pe fondul tensiunilor tot mai mari dintre cele două puteri în competiția tehnologică. Reprezentanții Chinei au respins acuzațiile, pe care le-au descris ca nefondate și motivate politic, și au cerut cooperare internațională în domeniul tehnologic. [...]

Cazul Tumbler Ridge pune presiune pe reglementare, după ce OpenAI a ales să nu alerteze poliția deși propriile sisteme au semnalat un risc : Sam Altman a transmis o scrisoare de scuze comunității din British Columbia, iar compania spune că și-a schimbat intern pragurile de raportare, însă măsurile rămân voluntare, într-un context în care Canada nu are o obligație legală pentru firmele de AI de a raporta amenințări identificate pe platformele lor, potrivit The Next Web . Altman afirmă în scrisoare că îi pare „profund rău” că OpenAI nu a alertat autoritățile cu privire la un cont blocat în iunie 2025, după ce sistemele companiei l-au semnalat. Scrisoarea este datată 23 aprilie și a fost făcută publică o zi mai târziu, la 72 de zile după atacul armat din 10 februarie din Tumbler Ridge, descris drept cel mai grav atac armat într-o școală din Canada din 1989 încoace. Ce a știut OpenAI și de ce nu a raportat Conform relatării, detecția automată a OpenAI a semnalat în iunie 2025 contul de ChatGPT al lui Jesse Van Rootselaar, atunci în vârstă de 18 ani. Aproximativ o duzină de angajați au revizuit conversațiile, care descriau scenarii cu violență armată, iar o parte dintre ei au recomandat contactarea poliției canadiene. Conducerea a respins recomandarea, invocând un „prag mai ridicat” pentru raportarea amenințărilor credibile și iminente; contul a fost închis, iar conversațiile au fost păstrate intern. Poliția nu a fost contactată. Atacul a avut loc opt luni mai târziu. Potrivit articolului, opt persoane au fost ucise și 27 rănite; autorul s-a sinucis la școală. OpenAI nu l-a mai detectat după ce acesta și-a făcut un al doilea cont, până când Poliția Călare Regală Canadiană (RCMP) a făcut public numele. Publicația notează că The Wall Street Journal a relatat prima dată disputa internă privind decizia de a nu raporta. Scrisoarea de scuze: fără angajamente concrete În scrisoarea adresată comunității, Altman spune că se gândește la cei afectați și reafirmă un angajament general de a lucra cu guvernele pentru a preveni tragedii similare. În același timp, materialul subliniază că scrisoarea nu include: angajamente de politică publică sau operaționale detaliate; o descriere a schimbărilor pe care OpenAI le-ar face; recunoașterea faptului că angajați au recomandat raportarea și au fost contraziși de conducere. Premierul provinciei British Columbia, David Eby, a numit scuzele „necesare”, dar „grosolan insuficiente” raportat la impactul asupra familiilor. Primarul din Tumbler Ridge, Darryl Krakowka, a confirmat primirea scrisorii și a cerut „grijă și considerație” pentru comunitate în perioada de doliu. Ce spune OpenAI că a schimbat și de ce contează pentru reglementare Angajamentele de politică au venit separat, într-o scrisoare a vicepreședintei pentru politici globale a OpenAI, Ann O’Leary, către miniștri federali canadieni. Compania afirmă că: a coborât pragul de raportare, astfel încât un utilizator nu mai trebuie să discute explicit „ținta, mijloacele și momentul” pentru ca un caz să fie trimis către forțele de ordine; a implicat experți în sănătate mintală și comportament pentru evaluarea cazurilor semnalate; a stabilit un punct de contact direct cu RCMP. O’Leary susține că, în baza politicilor actualizate, interacțiunile lui Van Rootselaar „ar fi fost trimise poliției” dacă ar fi fost descoperite astăzi. Totuși, articolul insistă asupra limitării-cheie: schimbările sunt voluntare, nu sunt obligatorii prin lege și pot fi inversate. „Golul” legal din Canada și ce urmează Potrivit sursei, Canada nu are în prezent o lege care să oblige companiile de inteligență artificială să raporteze amenințări identificate prin platformele lor, iar guvernul federal nu a introdus încă una. Ministrul canadian al AI, Evan Solomon, a spus că angajamentele OpenAI „nu merg suficient de departe”. În paralel, miniștri federali din mai multe portofolii au avut întâlniri cu reprezentanți OpenAI după ce guvernul a convocat conducerea companiei la finalul lunii februarie. Un grup de lucru comun între Innovation, Science and Economic Development Canada și Public Safety Canada analizează protocoale de raportare pentru siguranța AI, cu recomandări preliminare așteptate până în vara lui 2026. Miza, în lectura The Next Web, este una de reglementare și responsabilitate: în lipsa unui standard extern, deciziile de a raporta sau nu rămân la latitudinea companiilor, chiar și atunci când sistemele lor semnalizează potențiale riscuri grave. [...]

Google împinge Gemini spre utilizări „de zi cu zi”, mizând pe funcții multimodale și integrarea în Gmail – într-un set de recomandări publicat pe Google Blog , compania descrie opt scenarii în care asistentul cu inteligență artificială poate ajuta la organizarea locuinței și a „spațiului digital”, de la liste personalizate de curățenie până la gestionarea inboxului. Materialul pornește de la observația că interogările Google pentru „spring cleaning hacks” și „spring cleaning checklist” sunt în creștere și folosește acest context pentru a promova Gemini ca instrument practic pentru sarcini recurente. Miza operațională este extinderea percepției asupra AI-ului dincolo de „chat”, către un asistent care lucrează cu imagini, cameră video și aplicații Google. Ce poate face Gemini, potrivit Google Cele opt exemple din articol acoperă atât activități fizice (organizare, reparații), cât și digitale (email, planificare). Pe scurt, Google indică următoarele utilizări: generarea unei liste de curățenie personalizate în funcție de locuință și stil de viață; „auditarea” dezordinii: utilizatorul încarcă o fotografie (sertar, dulap), iar Gemini propune soluții de organizare, inclusiv pentru folosirea spațiului pe verticală; inventarierea alimentelor din frigider cu ajutorul camerei, prin Gemini Live, pentru a reduce risipa și a sugera rețete pe baza resturilor; depanare pentru reparații casnice (de exemplu, instalații sanitare sau electrocasnice), tot prin Gemini Live, cu întrebări de tipul „ce văd și cum repar?”; planificarea drumurilor pentru cumpărături și donații prin „Ask Maps”, cu opțiuni pe traseu, trafic în timp real și estimări legate de aglomerația din magazine; simulări de redecorare pe baza unei fotografii, cu un instrument numit „Nano Banana”, care ar modifica doar elementele indicate (culoarea pereților, poziționarea unei canapele etc.); recomandări pentru îngrijirea plantelor, pe baza imaginilor și a contextului din încăpere (lumină, udare); „decluttering” pentru inbox: rezumarea conversațiilor lungi din Gmail și căutarea rapidă a unor detalii vechi (de exemplu, o chitanță). Gmail și „abonamentele Ultra”, zona unde Google sugerează funcții avansate În zona de productivitate, Google menționează explicit că anumite opțiuni sunt condiționate de abonament și de piață. Potrivit articolului, „Ultra Subscribers” din SUA pot opta pentru „AI Inbox”, care ar evidenția automat „to-do-uri” și subiecte importante într-un singur loc. Tot pentru abonații Ultra din SUA, publicația menționează și „Agent Mode in Gemini” pentru organizarea inboxului, cu un flux în care utilizatorul cere ajutor („help organize my inbox”), iar sistemul propune acțiuni precum arhivarea mesajelor sau transformarea unor emailuri în sarcini, ce trebuie aprobate „cu un click”. De ce contează Dincolo de lista de „tips”, mesajul central este direcția de produs: Google își poziționează Gemini ca asistent multimodal (text + imagine + cameră) și ca extensie a aplicațiilor proprii, în special Gmail și Maps. Pentru utilizatori și companii, implicația practică este că o parte din funcțiile de organizare și triere ar putea migra din aplicații dedicate către AI-ul integrat în ecosistemul Google, cu diferențieri tot mai vizibile între versiuni gratuite și funcții disponibile doar pe abonament și în anumite țări. [...]

Google își mută accentul pe „agenți” AI care pot rula autonom în companii , iar miza imediată este una operațională: cum sunt construiți, guvernați și scalați acești „asistenți” în condiții de securitate și cu infrastructură suficientă. Într-un rezumat al conferinței Cloud Next ’26, Google Cloud a prezentat o suită de produse și componente (de la platforme pentru agenți și aplicații pentru angajați, până la cipuri și rețele) menite să ducă utilizarea AI „la scară”. Platformă pentru agenți și acces la modele Piesa centrală este Gemini Enterprise Agent Platform , descrisă ca un „spațiu de lucru” complet pentru a construi, administra (guverna) și scala agenți AI în organizații. În platformă, Google spune că oferă acces direct la: Gemini 3.1 Pro , pe care îl numește cel mai capabil model al său pentru fluxuri de lucru complexe; Gemini 3.1 Flash Image (menționat și ca „Nano Banana 2”), pentru generare de conținut vizual; Lyria 3 , pentru audio „de nivel profesional”; Claude Opus 4.7 de la Anthropic, ca parte a unei strategii de „alegere deschisă” (posibilitatea de a folosi și modele din afara Google). Pentru utilizare, compania pune accent pe instrumente „low-code” (cu puțin cod) și „no-code” (fără cod), adică interfețe care reduc dependența de echipe specializate de machine learning. AI în munca de zi cu zi: aplicație, fluxuri și „inbox” pentru agenți Google poziționează Gemini Enterprise app ca modalitate de a duce agenții direct la nivelul angajaților. În acest context, compania menționează: un Agent Designer „no-code” pentru fluxuri de lucru declanșate de evenimente (trigger-based); agenți de durată („long-running agents”) care pot rula autonom în fundal, în „sandbox-uri” (medii izolate) securizate în cloud; un Agent Inbox central, pentru monitorizarea și gestionarea activității agenților. Unghiul este relevant pentru companii prin faptul că mută AI din zona de „asistent” punctual în zona de execuție de procese , cu nevoi noi de control, audit și supraveghere. Infrastructură: TPU-uri noi, rețea dedicată și stocare mai rapidă Pentru a susține rularea „a milioane de agenți”, Google a prezentat actualizări de infrastructură în jurul a ceea ce numește AI Hypercomputer , inclusiv a opta generație de cipuri TPU (Tensor Processing Unit). Compania menționează două variante: TPU 8t , orientat spre antrenarea modelelor; TPU 8i , optimizat pentru inferență (servirea modelelor în producție), cu „80% performanță mai bună per dolar” . Pe partea de conectivitate și date, Google afirmă că a prezentat: Virgo Network , un sistem construit pentru conectarea supercomputerelor; Managed Lustre , despre care spune că poate muta 10 terabytes de date pe secundă . Date și guvernanță: „Agentic Data Cloud” și interogare cross-cloud Un alt element cheie este Agentic Data Cloud , descris ca o nouă abordare de organizare a datelor astfel încât AI să poată acționa „în timp real”. În acest pachet, Google evidențiază: Knowledge Catalog , care ar eticheta și ar conecta automat datele din companie folosind Gemini, pentru a reflecta „contextul și limbajul” intern; Cross-Cloud Lakehouse , standardizat pe Apache Iceberg , care ar permite interogarea datelor fără a le muta neapărat în Google Cloud, inclusiv dacă sunt stocate în AWS. Pentru organizații, mesajul este că adoptarea agenților depinde de accesul la date și de interoperabilitate , nu doar de modelul AI. Securitate: agenți pentru apărare și integrarea Wiz Google spune că își construiește „securitatea pentru era AI” combinând informații despre amenințări (threat intelligence) cu platforma Wiz, menționând explicit că Wiz este acum parte din Google Cloud . Sunt menționați agenți specializați, inclusiv: Threat Hunting agent , pentru căutarea proactivă a amenințărilor și scriere autonomă de reguli; Detection Engineering agent , pentru identificarea „golurilor” de acoperire și crearea de detecții; Third-Party Context agent , pentru date contextuale din conținut terț. Separat, Google indică lansarea unui Technology Intel Center , care agregă într-un singur flux lansări de funcții, actualizări de migrare și notificări de „end-of-life” (încetarea suportului) relevante pentru furnizori de cloud și AI. Exemple de utilizare în companii În recapitulare sunt date și câteva exemple de adopție: The Home Depot folosește Gemini pentru un asistent telefonic și în magazin; Papa John’s folosește un „Ordering Agent” care reține comanda „obișnuită”; Mars și Citadel Securities folosesc instrumente AI pentru eficientizarea cercetării cantitative; Unilever ar implementa agenți în organizație pentru a-și deservi consumatorii (menționați ca 3,7 miliarde). Ce lipsește din material sunt detalii despre prețuri, termene de disponibilitate pe piețe sau condiții contractuale; recapitularea se concentrează pe direcția de produs și pe capabilități. [...]