Știri
Știri din categoria Inteligență artificială

Inginerii Uber au creat un program de inteligență artificială care anticipează reacțiile șefului, folosind tehnologia pentru a testa ideile înainte de a le prezenta conducerii, relatează Mediafax. Inițiativa, apărută în cadrul companiei conduse de Dara Khosrowshahi, are un scop pragmatic: reducerea stresului și creșterea șanselor ca propunerile să fie în linie cu așteptările directorului executiv.
Povestea a fost relatată chiar de Khosrowshahi în podcastul „The Diary of a CEO”. Liderul Uber a recunoscut că a fost surprins de ingeniozitatea echipei și a dorit să afle cum a fost construit sistemul care îi poate anticipa reacțiile, însă angajații au evitat să ofere detalii tehnice.
Potrivit declarațiilor sale, utilizarea inteligenței artificiale este deja extinsă în cadrul Uber:
Khosrowshahi estimează că, pe termen lung, eficiența inginerilor ar putea crește cu până la 25%. Deși tehnologia ar permite reducerea personalului, compania intenționează, cel puțin pe termen scurt, să continue recrutările pentru a accelera dezvoltarea.
Discuția depășește însă nivelul operațional. Mai mulți lideri din industria tehnologică sugerează că, în viitor, inclusiv funcțiile de conducere ar putea fi preluate de algoritmi. Sam Altman, directorul OpenAI, a afirmat că inteligența artificială ar putea deveni într-o zi un director executiv mai bun decât el. O opinie similară a exprimat și Sundar Pichai, șeful Alphabet, care consideră că rolul de director executiv ar putea fi printre cele mai ușor de automatizat în viitor.
Deocamdată, modelele actuale nu dispun de învățare în timp real suficient de avansată pentru a înlocui complet factorul uman. Totuși, experimentul intern de la Uber arată că inteligența artificială nu mai este doar un instrument tehnic, ci începe să influențeze direct procesele decizionale și dinamica relației dintre angajați și conducere.
Recomandate

Procesul dintre Elon Musk și Sam Altman riscă să complice traseul OpenAI către o listare și să amplifice presiunea juridică asupra modelului său hibrid (nonprofit–profit), într-un moment în care compania este descrisă ca fiind „pregătită” pentru un IPO, potrivit Al Jazeera . Într-un proces federal din California , Musk – cofondator OpenAI – a depus mărturie pentru a doua zi, susținând că Altman a „trădat” promisiunile inițiale de a păstra organizația ca nonprofit „dedicată beneficiului umanității”. Litigiul pornește de la înființarea OpenAI în 2015 ca nonprofit și transformarea ulterioară într-o structură orientată spre profit. Musk a declarat în fața juraților că și-a pierdut încrederea că Altman va menține misiunea nonprofit și a spus că, spre finalul lui 2022, se temea că Altman încerca să „fure caritatea”, afirmând că „s-a dovedit a fi adevărat”. Altman a fost prezent în sală, dar nu a depus mărturie, conform relatării. Miza economică: IPO și modelul de finanțare Avocații OpenAI au respins acuzațiile și au susținut că nu a existat niciodată un angajament de a rămâne nonprofit. Compania afirmă că a creat o componentă cu scop lucrativ pentru a finanța nevoile mari de putere de calcul și pentru a atrage talente. În același timp, OpenAI ar fi „pregătită” pentru o ofertă publică inițială care ar putea evalua compania la 1.000 de miliarde de dolari, potrivit Reuters, citată de Al Jazeera. În acest context, disputa privind guvernanța și misiunea inițială poate deveni un factor de risc reputațional și juridic, cu potențiale efecte asupra investitorilor și structurii de control. Ce cere Musk în instanță Musk a investit aproximativ 38 de milioane de dolari (aprox. 174 milioane lei) în OpenAI între 2015 și 2017 și a părăsit organizația în 2018. În proces, el solicită: 150 de miliarde de dolari (aprox. 690 miliarde lei) despăgubiri de la OpenAI și Microsoft , cu orice sumă acordată direcționată către brațul caritabil al OpenAI; obligarea OpenAI să revină la statutul de nonprofit; înlăturarea lui Sam Altman și a cofondatorului Greg Brockman din conducere. Musk a mai susținut că organizația a fost „capturată” și a descris o ofertă de a investi, venită din partea lui Altman, ca părând „ca o mită”. Apărarea OpenAI: competiția cu xAI Echipa juridică a OpenAI afirmă că acțiunea lui Musk urmărește să submineze compania în favoarea propriei sale inițiative, xAI. OpenAI, organizată acum ca „public benefit corporation” (o formă corporativă care combină obiective comerciale cu o misiune de interes public), susține că demersul este alimentat de competiție și notează că xAI este în urma OpenAI la adopția de către utilizatori. Context suplimentar despre proces apare într-un material anterior al publicației, „stand for a second day”, disponibil aici: Al Jazeera . [...]

Google Photos va introduce vara aceasta o funcție care îți cataloghează automat hainele din fotografii și le transformă într-un „dulap digital” , cu opțiuni de filtrare, combinare în ținute și previzualizare „virtual try-on”, potrivit Google . Lansarea începe pe Android , urmând să ajungă ulterior și pe iOS, ceea ce mută aplicația din zona de stocare și organizare a imaginilor spre un instrument practic de planificare a ținutelor, bazat pe inteligență artificială . Ce face concret noua funcție și de ce contează operațional Funcția creează automat o colecție dedicată „wardrobe” (dulap) pe baza pieselor vestimentare care apar în biblioteca ta de fotografii. Practic, aplicația scanează imaginile și extrage articolele de îmbrăcăminte pe care le-ai purtat, apoi le organizează într-o structură ușor de parcurs. Din perspectiva utilizării de zi cu zi, noutatea este că utilizatorul nu mai pornește de la fotografii disparate, ci de la o „inventariere” a garderobei, generată automat, care poate reduce timpul de căutare și de planificare a ținutelor. Cum se folosește: filtrare, ținute și „probă” virtuală Google descrie trei utilizări principale: Filtrare pe categorii : poți vedea toate articolele la un loc sau poți intra pe o categorie (de exemplu bijuterii, topuri sau pantaloni) pentru a redescoperi piese „uitate” în dulap. Crearea de ținute : poți combina articolele pentru a construi outfituri, pe care le poți distribui prietenilor sau salva într-un „moodboard” (panou de inspirație) digital. Pot exista moodboard-uri separate pentru ocazii diferite, precum nunți de vară, o călătorie în Italia sau ținute de lucru. „Try it on” (probă virtuală) : selectezi piese individuale și folosești opțiunea „Try it on” pentru a vedea cum ar arăta o combinație înainte să te îmbraci. Când ajunge la utilizatori Funcția „wardrobe” va începe să fie disponibilă în această vară , mai întâi în Google Photos pe Android , apoi pe iOS , conform anunțului. Google nu oferă în material un calendar mai detaliat (date exacte) și nici informații despre disponibilitatea pe piețe sau condiții de acces. [...]

Alphabet își leagă creșterea din T1 2026 de monetizarea și eficientizarea AI , cu un avans de 19% la Search & Other Advertising și o accelerare puternică în Cloud, unde veniturile au urcat cu 63% și au depășit pentru prima dată 20 mld. dolari (aprox. 92 mld. lei), potrivit Google . Mesajul CEO-ului Sundar Pichai , publicat ca transcript editat al intervenției din apelul cu investitorii, pune accent pe faptul că investițiile în inteligență artificială și abordarea „full-stack” (de la infrastructură la modele și aplicații) „conduc performanța” în toate liniile majore de business. Din perspectivă economică, două elemente ies în față: ritmul de creștere al Cloud și încercarea de a ține sub control costurile și latența (timpul de răspuns) pe măsură ce AI este integrată în produse cu audiență masivă, precum Search. Cloud: creștere pe AI, contracte mari și backlog în salt Google indică o cerere ridicată pentru produse și infrastructură AI în Cloud. În T1 2026, veniturile Cloud au crescut cu 63% și au depășit 20 mld. dolari (aprox. 92 mld. lei), iar „backlog”-ul (valoarea contractelor semnate, dar încă neîncasate) „aproape s-a dublat” față de trimestrul anterior, la peste 460 mld. dolari (aprox. 2.116 mld. lei). Compania mai susține că soluțiile sale de AI pentru companii au devenit „principalul motor de creștere” pentru Cloud „pentru prima dată”, iar veniturile din produse construite pe modelele sale generative au crescut „aproape 800%” față de anul anterior. La nivel comercial, Google menționează: dublarea achiziției de clienți noi față de aceeași perioadă a anului trecut; dublarea numărului de contracte între 100 mil. și 1 mld. dolari (aprox. 460 mil.–4,6 mld. lei) față de anul anterior și semnarea „mai multor” contracte de peste 1 mld. dolari; depășirea angajamentelor inițiale de către clienți cu 45%, în accelerare față de trimestrul anterior. Pe produs, Google arată că Gemini Enterprise a crescut cu 40% trimestru la trimestru ca utilizatori activi lunari plătitori, iar vânzările prin parteneri au urcat de 9 ori față de anul anterior (atât ca „seats” vândute, cât și ca număr de parteneri care adoptă intern produsul). Search: mai mult AI, dar cu presiune pe cost și viteză În Search, compania spune că interogările sunt la un maxim istoric și că AI Overviews și AI Mode contribuie la creștere și la revenirea utilizatorilor. În același timp, Google insistă pe eficiență: afirmă că a redus latența Search cu peste 35% în ultimii cinci ani, iar după trecerea AI Overviews și AI Mode la Gemini 3 a redus costul răspunsurilor AI „de bază” cu peste 30%, prin îmbunătățiri de hardware și inginerie. Aceste detalii sunt relevante pentru modelul economic al Search: integrarea AI în pagina de rezultate tinde să crească consumul de calcul, iar controlul costurilor devine o condiție pentru a susține marje și investiții. Infrastructură și modele: TPU-uri noi și volum în creștere Google își leagă strategia de AI de infrastructură proprie (TPU-uri – procesoare specializate pentru AI) și de opțiuni multiple de calcul, inclusiv GPU-uri NVIDIA. Compania spune că va fi „printre primii” furnizori care vor oferi NVIDIA Vera Rubin NVL72, pe lângă instanțe bazate pe Blackwell și Hopper. La Cloud Next, Google a prezentat TPU-urile de generația a opta, cu două variante: TPU 8t (pentru antrenare) și TPU 8i (pentru inferență – rularea modelului pentru a genera răspunsuri). Potrivit companiei, TPU 8t are de trei ori puterea de procesare față de Ironwood și de două ori performanța, iar TPU 8i oferă cu 80% mai bună performanță per dolar decât generația anterioară. La nivel de utilizare, Google afirmă că modelele sale „first-party” procesează peste 16 miliarde de tokeni pe minut prin utilizare directă a API-urilor de către clienți (față de 10 miliarde în trimestrul anterior). În ultimele 12 luni, 330 de clienți Google Cloud ar fi procesat fiecare peste 1 trilion de tokeni, iar 35 au depășit pragul de 10 trilioane. Abonamente și YouTube: baza plătitoare crește Pe zona de consum, Google spune că a avut „cel mai puternic trimestru” pentru planurile sale de AI pentru consumatori, în principal datorită adopției aplicației Gemini. Numărul total de abonamente plătite a ajuns la 350 de milioane, cu YouTube și Google One ca principali contributori. Separat, compania notează că YouTube Music și Premium au avut în T1 cea mai mare creștere trimestrială a numărului de abonați (excluzând perioadele de probă), atât la nivel global, cât și în SUA, de la lansarea YouTube Premium în iunie 2018. Ce urmează Google indică drept repere apropiate evenimentele I/O, Brandcast și Google Marketing Live, unde ar urma să ofere mai multe detalii despre evoluțiile din Search și AI. În paralel, mesajul către investitori rămâne unul consecvent: creșterea vine din extinderea AI în produse și din monetizarea acesteia în Cloud, cu accent pe infrastructură și pe reducerea costurilor de operare pe măsură ce utilizarea se intensifică. [...]

Departamentul american al Apărării își extinde rapid accesul la instrumente de inteligență artificială pe rețele militare clasificate , după ce Amazon Web Services (AWS) , Microsoft și NVIDIA au semnat acorduri care permit Pentagonului utilizarea tehnologiilor lor „pentru utilizare operațională legală”, potrivit Engadget . Informația este relatată inițial de Bloomberg , care notează că, alături de cele trei companii, și Reflection AI a încheiat un acord similar. Pentagonul a transmis, într-o declarație citată de Bloomberg, că aceste acorduri „accelerează transformarea” către un model în care armata SUA devine o „forță de luptă AI-first” (orientată în primul rând către folosirea inteligenței artificiale). Ce se schimbă operațional: AI pe rețele clasificate Elementul cu impact direct este faptul că instrumentele de AI ale companiilor vor putea fi folosite pe rețele militare clasificate , ceea ce ridică miza față de utilizări comerciale sau administrative. Formularea „pentru utilizare operațională legală” indică un cadru de utilizare în interiorul regulilor și procedurilor militare, fără ca materialul citat să detalieze ce tipuri de aplicații vor fi implementate efectiv. Lista furnizorilor se lărgește; Anthropic rămâne în afara acordurilor Engadget arată că AWS, Microsoft și NVIDIA se alătură altor companii care au semnat acorduri similare cu Departamentul Apărării, între care xAI, OpenAI și Google. În acest context, Anthropic este prezentată drept singurul furnizor major de AI din SUA care nu are un acord funcțional cu Pentagonul. Materialul descrie și tensiunile dintre administrația Trump și Anthropic: în februarie, secretarul apărării Pete Hegseth ar fi amenințat că va eticheta compania drept „risc pentru lanțul de aprovizionare” dacă nu renunță la măsuri de protecție care împiedică folosirea chatbotului Claude pentru supraveghere în masă a americanilor sau în arme complet autonome. După refuzul companiei, președintele Trump a ordonat agențiilor federale să înceteze utilizarea produselor Anthropic în termen de șase luni, iar disputa a ajuns în instanță. Reacție publică: semnal de risc reputațional pentru furnizori Engadget notează că ritmul de adopție al AI în apărare și viteza cu care marile companii americane „se aliniază” pentru a vinde către administrația Trump ar trebui să fie un motiv de îngrijorare pentru cetățenii SUA. Ca indiciu al sensibilității publice, publicația citează date ale firmei de inteligență de piață Sensor Tower: OpenAI ar fi înregistrat o creștere cu 413% de la an la an a dezinstalărilor aplicației ChatGPT în februarie, după acordul companiei cu Departamentul Apărării. Ce urmează, pe baza informațiilor disponibile, este extinderea acestui tip de parteneriate în zona militară, cu o presiune tot mai mare pe furnizorii care nu acceptă condițiile Pentagonului și cu posibile costuri de imagine pentru cei care intră în astfel de acorduri. [...]

Meta își consolidează strategia de „platformă” în robotica umanoidă prin achiziția startupului Assured Robot Intelligence (ARI) , într-o mișcare care sugerează că grupul vrea să devină furnizorul „stratului de inteligență” pentru roboți, nu neapărat un producător de hardware, potrivit The Next Web . Tranzacția a fost închisă în aceeași zi în care a fost anunțată, iar termenii financiari nu au fost făcuți publici. Cei doi cofondatori ARI — Lerrel Pinto (fost cofondator Fauna Robotics) și Xiaolong Wang (fost cercetător Nvidia și profesor asociat la UC San Diego) — au intrat în Meta Superintelligence Labs. De ce contează: Meta pariază pe „Android-ul” roboților umanoizi Miza nu este doar o achiziție de talent, ci întărirea unei strategii explicite: Meta vrea să reproducă în robotica umanoidă modelul prin care Android și cipurile Qualcomm au devenit fundația industriei smartphone-urilor. În această logică, Meta ar furniza senzori, software și modele de inteligență artificială (IA) pe care să le poată folosi și producători pe care compania nu îi deține și nu îi controlează. Publicația notează că Meta a lansat anul trecut Meta Robotics Studio , l-a recrutat pe fostul CEO Cruise Marc Whitten pentru a conduce efortul și a început să atragă aproximativ 100 de ingineri pentru a dezvolta atât hardware umanoid intern, cât și modelele IA care îl susțin. CTO-ul Andrew Bosworth a comparat pariul pe roboți umanoizi ca amploare cu cel pe realitate augmentată, domeniu în care Meta a cheltuit deja „zeci de miliarde” prin Reality Labs. Ce aduce ARI: control „whole-body” și senzori tactili Contribuția ARI este descrisă ca un set de capabilități pentru „inteligență robotică” menită să ajute roboții să înțeleagă, să anticipeze și să se adapteze comportamentului uman în medii neorganizate. Practic, este vorba despre: modele de control pentru întregul corp (coordonarea membrelor, echilibru, mișcare), pe baza inputului senzorial în timp real; e-Flesh , un senzor tactil care măsoară deformări în microstructuri imprimabile 3D folosind magneți și magnetometre, într-o zonă pe care sursa o descrie drept una dintre problemele încă nerezolvate ale roboticii umanoide: „simțul tactil”; cercetare relevantă pentru optimizarea și comprimarea modelelor IA , astfel încât să ruleze eficient pe resursele limitate de calcul dintr-un robot, fără a depinde de conexiuni permanente la centre de date. Context: piața se aglomerează, iar Meta alege „al doilea eșalon” The Next Web descrie o piață care a trecut rapid „de la speculativ la competitiv” și enumeră mai mulți jucători și ținte de producție, de la Tesla (Optimus) la 1X, Apptronik, Amazon și Unitree. În acest peisaj, analiza împarte competiția în trei categorii: producători integrați vertical (care proiectează și vând robotul complet), furnizori de platformă (stratul de inteligență/sistemul de operare/componente-cheie), furnizori de componente (cipuri, senzori). Meta se poziționează în categoria a doua, iar sursa notează că o strategie similară este urmărită și de Google, prin programul Gemini Robotics al DeepMind și parteneriatul cu Apptronik. Ce urmează: pariul depinde de cum se structurează industria Diferența față de pariurile anterioare pe hardware este că Meta nu încearcă, în această etapă, să producă hardware la scară mare, ci să ofere „creierul” — modelele, senzorii și stiva software — pentru ca alții să construiască „corpul”. Publicația subliniază însă că modelul „Android” funcționează doar dacă piața ajunge să aibă mulți producători care au nevoie de o platformă comună; dacă industria se consolidează în jurul câtorva jucători integrați vertical, cu IA proprietară, spațiul pentru o platformă neutră se îngustează. În acest cadru, achiziția ARI este prezentată ca o investiție pentru ca, atunci când vor apărea „echivalenții Samsung/Xiaomi” ai roboticii umanoide, să aibă deja la îndemână tehnologia Meta ca opțiune implicită. [...]

Google începe să înlocuiască Google Assistant cu Gemini în mașinile cu „Google built-in”, o schimbare care poate redesena rapid piața interfețelor vocale din auto. Potrivit TechCrunch , compania va începe implementarea asistentului Gemini în vehiculele compatibile, mizând pe interacțiuni mai „conversaționale” și pe integrarea mai profundă a serviciilor sale în experiența de condus. Implementarea vine la scurt timp după ce General Motors a anunțat că Gemini va ajunge la aproximativ 4 milioane de vehicule din anul de model 2022 și mai noi, din mărcile Cadillac, Chevrolet, Buick și GMC. Totuși, anunțul Google nu numește producători auto, ceea ce sugerează că extinderea nu se limitează la flota GM. Cum se face implementarea și cine primește actualizarea Lansarea începe în SUA, cu suport inițial pentru limba engleză, iar disponibilitatea ar urma să se extindă „în lunile următoare”. Un element important operațional: Gemini nu este rezervat doar mașinilor noi, ci va ajunge și pe unele vehicule existente, prin actualizări software, dacă sunt compatibile. Mașinile cu „Google built-in” au fost lansate în 2020, iar Google susține că actualizarea la Gemini schimbă modul în care șoferii interacționează cu mașina, făcând dialogul mai natural. Ce poate face Gemini în mașină Din informațiile prezentate, Gemini va putea acoperi atât funcții de infotainment, cât și comenzi legate de vehicul și comunicare, inclusiv: căutări și recomandări pe traseu (de exemplu, opriri pentru prânz), folosind date din Google Maps, cu întrebări de tip „follow-up” (parcare, meniu, preferințe alimentare); comenzi precum pornirea căldurii; direcții și recomandări de muzică; acces la informații despre vehicul; rezumarea mesajelor primite și ajutor pentru răspuns „hands-free” (fără mâini). Separat, Google introduce și „Gemini Live”, o funcție aflată în beta, pentru conversații mai deschise, în timp real. Aceasta poate fi activată din interfață sau prin comanda vocală „Hey Google, let’s talk”. Ce urmează: limbi, regiuni și integrare mai adâncă în ecosistemul Google Șoferii autentificați în contul Google, în vehicule compatibile, vor primi o opțiune de upgrade; după activare, Gemini poate fi accesat prin comenzi vocale, microfonul de pe ecran sau comenzile de pe volan. Google mai spune că vrea să extindă suportul către mai multe limbi și regiuni și că actualizări viitoare ar urma să aprofundeze integrarea cu servicii precum Gmail, Google Calendar și Google Home. În acest punct, compania nu oferă un calendar detaliat pentru aceste extinderi. [...]