Știri
Știri din categoria Inteligență artificială

Google împinge mai multă „asistență” cu inteligență artificială în Căutare, prin funcții care folosesc camera și unelte generative pentru planificare și recomandări în timp real, într-un exemplu concret de mutare a utilizării AI din zona de „răspunsuri” în zona de „acțiuni” (vizualizare, plan, cumpărături, diagnostic). Detaliile apar într-un material publicat pe Google Blog, care descrie cinci moduri de a folosi AI Mode, Search Live și Shopping pentru activități de grădinărit.
În esență, Google propune Căutarea ca „trusă digitală” pentru utilizatori: de la a vedea cum ar arăta o amenajare într-un spațiu real, până la a obține recomandări despre îngrijirea plantelor sau a găsi rapid produse disponibile în apropiere. Pentru utilizatori, miza este reducerea timpului de documentare și a incertitudinii; pentru Google, este o extindere a rolului Căutării spre fluxuri care pot duce direct la tranzacții (Shopping) și la interacțiuni mai lungi (conversații, planificare).
Materialul enumeră cinci utilizări, toate centrate pe integrarea AI în experiența de căutare:
Google invocă date din Google Trends pentru a argumenta relevanța acestor funcții în sezon: în SUA, căutările pentru „how to start a chaos garden” au crescut cu 140% în această primăvară, iar interesul pentru „chaos garden seeds” s-a dublat. În paralel, căutările pentru „mini garden” au atins un maxim istoric în 2026, iar „tabletop garden” un maxim al ultimilor 15 ani.
Din perspectivă operațională, exemplul arată direcția în care Google împinge Căutarea: interfețe care combină text, imagine și conversație, plus instrumente de planificare (Canvas) și integrare mai strânsă cu cumpărăturile locale. Practic, Căutarea este prezentată nu doar ca motor de informare, ci ca instrument de „executare” a unor sarcini, cu AI ca intermediar între intenție (ce vrei să faci) și rezultat (plan, vizualizare, achiziție, diagnostic).
Recomandate

Google își duce instrumentele de creație muzicală cu IA direct către artiști printr-un parteneriat cu Believe , care va oferi Flow Music (din Google Labs) și modelul de generare muzicală Lyria 3 Pro creatorilor din rețelele Believe și TuneCore, potrivit Google Blog . Miza este una operațională: accesul la astfel de instrumente intră într-un canal de distribuție deja folosit de artiști, nu rămâne doar un experiment de laborator. Parteneriatul vizează artiști, producători și compozitori care lucrează cu Believe și TuneCore, iar Flow Music este poziționat ca „colaborator creativ” pentru sarcini precum sprijin la versuri, explorarea de melodii sau genuri și chiar crearea de instrumente noi. Google precizează că nu revendică drepturi de proprietate asupra conținutului original generat cu Flow Music. Ce se schimbă pentru artiști: integrare și iterație rapidă În formularea Google, Believe va pune la dispoziție Flow Music ca spațiu de „explorare și iterație”, util atât în fazele incipiente ale unui proiect (de exemplu, căutarea unei direcții pentru un album), cât și la finalizarea unor elemente precum versurile. Cum va funcționa colaborarea cu Believe și TuneCore Pe lângă accesul la instrumente, parteneriatul include un mecanism de feedback: Believe și TuneCore vor selecta un grup de artiști și producători care se vor întâlni săptămânal cu echipa de produs. Rolul lor este să ofere feedback și să influențeze evoluția Flow Music. Motorul tehnic și condițiile de utilizare a datelor Flow Music este alimentat de Lyria 3 Pro, descris de Google drept cel mai nou model de generare muzicală al companiei. Modelul este construit pentru a înțelege structura compozițională (intro, strofe, refren, punte), pentru a experimenta cu stiluri diverse și pentru a genera ritmuri complexe sau a testa voci în altă limbă. Pe partea de utilizare responsabilă, Google afirmă că Lyria 3 Pro a fost proiectat și antrenat folosind materiale pe care YouTube și Google au dreptul să le folosească în baza termenilor de utilizare, a acordurilor cu parteneri și a legislației aplicabile. [...]

Google pregătește pentru macOS un agent Gemini care poate prelua controlul asupra computerului și automatiza organizarea fișierelor , o extindere cu impact operațional direct asupra modului în care utilizatorii își gestionează documentele și fluxurile de lucru în Google Workspace , potrivit 9to5Google . În prezent, aplicația Gemini pentru macOS are două funcții principale: o interfață nativă de chat (similară celei web) și o comandă rapidă „alt-space” care deschide Gemini din orice aplicație. Această a doua funcție permite și partajarea ferestrei curente cu Gemini, oferind asistentului context vizual despre sarcina în desfășurare. Ce ar urma să facă agentul: fișiere locale + integrare cu Workspace O analiză a echipei „APK Insight” a publicației indică faptul că Google plănuiește să extindă prezența Gemini pe Mac printr-un mod de utilizare „agentic” (adică un asistent care execută pași în numele utilizatorului), similar cu ceea ce oferă Claude Cowork. 9to5Google descrie patru exemple de comenzi (prompts) care conturează direcția produsului: Conversia fișierelor într-un tabel : scanarea unui folder local (de tip facturi sau rapoarte), extragerea datelor și structurarea lor într-un Google Sheet. Organizarea folderelor : identificarea fișierelor neorganizate din Desktop sau Downloads, gruparea lor după tip sau context și arhivarea „dezordinii”. Standardizarea fișierelor : citirea metadatelor și redenumirea în masă a unui număr mare de fișiere, cu rearanjare în subfoldere mai ușor de înțeles. „Închiderea buclei” după ultima ședință : preluarea celui mai recent transcript Meet sau a notițelor dintr-un document și redactarea unui e-mail de follow-up cu idei și acțiuni. Primele trei scenarii pun accent pe fișierele locale și pe transferul structurii rezultate în aplicații din Google Workspace, în timp ce al patrulea mută accentul spre aplicații Google precum Meet, Docs și Gmail. Cum ar funcționa tehnic: acces la ecran și funcții de accesibilitate Conform publicației, aceste capabilități ar urma să se bazeze pe „Screen Access” și pe funcțiile de accesibilitate din macOS, pentru ca Gemini să poată „vedea” ecranul și să controleze mouse-ul și tastatura. Practic, miza este automatizarea unor sarcini repetitive (organizare, redenumire, extragere de date) direct pe computer, nu doar răspunsuri în chat. De ce contează: productivitate și competiție directă cu Claude Din perspectiva utilizării, un astfel de agent ar transforma Gemini pe macOS dintr-o aplicație de conversație într-un instrument de execuție a sarcinilor, cu efect imediat asupra productivității, mai ales în organizații care folosesc intens Google Workspace. 9to5Google notează și un contrast cu Android: pe telefoane, doar un subset redus de dispozitive (exemplul dat este seria Galaxy S26) poate cere lui Gemini să automatizeze sarcini simple în aplicații, precum comandarea de mâncare. Pe Mac, ambiția pare mai mare, iar Google ar urmări să poziționeze Gemini ca rival direct pentru Claude Cowork, pe fondul experimentelor anterioare cu zona de „computer use” din previzualizarea Gemini 2.5. [...]

Google extinde Circle to Search astfel încât să trimită automat către Google și adrese web, conținutul paginii și fișiere PDF , ceea ce poate schimba practic modul în care utilizatorii primesc răspunsuri generate cu inteligență artificială, dincolo de ce se vede în captura de ecran. Actualizarea apare în versiunea beta a aplicației Google și este în curs de distribuire, potrivit Android Authority . În cea mai recentă versiune beta a aplicației Google (v17.18.24), funcția „Search using your whole screen” a fost redenumită în „Ask about screen”. Dincolo de schimbarea de etichetă, noutatea este că, pe lângă captura de ecran atașată ca până acum, Google va folosi automat „context disponibil”, care poate include URL-ul, conținutul paginii și documente PDF, pentru a genera rezultate mai relevante în AI Mode (modul de răspunsuri asistate de AI din Google Search). Ce se schimbă operațional pentru utilizatori Funcția Circle to Search era limitată la ceea ce „vede” în ecran (practic, informația din captura de ecran). Actualizarea adaugă context suplimentar, fără pași manuali, ceea ce poate duce la răspunsuri mai bine ancorate în sursa reală a informației (pagina sau documentul), nu doar în fragmentul vizibil. Concret, în interfața nouă: caseta de căutare afișează „Ask about screen”; descrierea indică „Search with more context”; este precizat că „URL-ul, conținutul paginii și documente PDF” pot fi trimise automat către Google. Unde funcționează și când ajunge la toată lumea Publicația notează că a reușit să declanșeze încărcarea de URL-uri și PDF-uri folosind „Ask about screen” în Google Chrome și Files by Google, cu posibilitatea ca funcția să meargă și în alte aplicații. Distribuirea este în desfășurare pentru utilizatorii din canalul beta, iar așteptarea este ca schimbarea să ajungă în versiunea stabilă „în zilele și săptămânile următoare”, dacă testele sunt considerate satisfăcătoare. [...]

xAI ar folosi doar 11% dintr-o flotă de 550.000 de GPU-uri NVIDIA , potrivit Wccftech , care citează un raport despre nivelul de utilizare a infrastructurii de calcul pentru inteligență artificială (IA). Ce arată datele și de ce contează Publicația notează că, în timp ce xAI ar valorifica puțin peste 10% din capacitatea instalată, rivali precum Meta și Google ar ajunge la rate de utilizare de 43–46% din propriile flote de GPU-uri. Diferența este importantă deoarece GPU-urile (procesoare grafice folosite masiv la antrenarea și rularea modelelor IA) sunt scumpe, iar eficiența utilizării lor influențează direct costurile și viteza de dezvoltare. În articol, Wccftech pune această performanță mai slabă pe seama „optimizărilor lipsite de rezultate” la nivelul „stivei software” pentru IA (ansamblul de programe, biblioteci și instrumente care coordonează antrenarea și rularea modelelor pe hardware). Cu alte cuvinte, nu doar numărul de cipuri contează, ci și cât de bine este folosită infrastructura prin software. „xAI este, potrivit relatărilor, capabilă să utilizeze doar puțin peste 10% din întreaga sa flotă de GPU-uri NVIDIA.” Sursa informațiilor și contextul din industrie Wccftech indică drept sursă primară un material al publicației The Information, care ar fi raportat că xAI, compania lui Elon Musk, utilizează doar o mică parte din capacitatea totală de GPU instalată. În același context, articolul amintește că xAI dezvoltă „Gorq” și alte componente bazate pe IA (formulare preluată din textul sursă). Mesajul mai larg este că blocajele din „stiva software” nu ar fi o problemă izolată, ci una întâlnită în industrie. În practică, astfel de blocaje pot apărea din configurarea și programarea sarcinilor de lucru, comunicarea între servere, gestionarea memoriei sau din modul în care sunt integrate bibliotecile de antrenare. Reperele numerice menționate În forma prezentată de Wccftech, comparația dintre companii se reduce la câteva cifre-cheie: xAI: ~11% utilizare dintr-o flotă de 550.000 de GPU-uri NVIDIA (potrivit relatărilor) Meta: 43–46% utilizare din flota proprie (conform articolului) Google: 43–46% utilizare din flota proprie (conform articolului) Dacă aceste estimări se confirmă, implicația este că xAI ar putea avea costuri mai mari per unitate de progres (de exemplu, per model antrenat sau per îmbunătățire de performanță), în timp ce competitorii ar obține mai multă „muncă utilă” din aceeași clasă de resurse. În acest stadiu, articolul nu oferă detalii despre metodologia exactă de măsurare a utilizării sau despre intervalul de timp analizat, iar formulările rămân la nivel de „potrivit relatărilor”. [...]

Anunțurile pentru management intermediar scad, pe fondul „aplatizării” organizațiilor și al folosirii AI , iar companiile cer tot mai des ca șefii să facă și muncă operațională, nu doar coordonare, potrivit Libertatea . Semnalul vine din datele Indeed și din decizii recente anunțate de lideri din tehnologie, unde restructurările sunt însoțite de schimbări de model organizațional. În 2025, platforma de angajări Indeed a raportat o scădere de 12,3% a anunțurilor pentru poziții de management intermediar față de anul precedent, un indicator că firmele reduc „straturile” de management și cresc așteptările de productivitate de la lideri. Companiile de tehnologie reduc nivelurile de management Într-un context economic descris ca tot mai dificil, organizațiile din tehnologie tind să devină mai „plate”, iar rolurile clasice de manager sunt puse sub presiune. Libertatea notează că CEO-ul Coinbase , Brian Armstrong, a anunțat reducerea cu 14% a personalului și a transmis intern că fiecare angajat trebuie să fie „un contributor individual puternic și activ”, cu echipe care pot ajunge să fie formate dintr-o singură persoană și agenții săi de inteligență artificială. Potrivit portalului sârb Blic (Ringier), Armstrong a confirmat și că firma nu va mai menține poziții de „manager”. Un mesaj similar a venit de la Jack Dorsey, CEO-ul Block, care a anunțat în aprilie 2026 o reducere cu 40% a forței de muncă și a cerut ca managerii să devină „jucători-antrenori”, adică să participe direct la proiectele echipelor pe care le conduc. În același registru, directorul Snap Inc., Evan Spiegel, a anunțat reducerea cu 1.000 de posturi și reorientarea către echipe mici, axate pe utilizarea inteligenței artificiale. În material sunt menționați și Mark Zuckerberg (Meta) și Mike Cannon-Brookes (Atlassian) ca susținători ai adaptării accelerate prin AI. „Megamanagerii”: mai mulți oameni în subordine, mai multă muncă efectivă Transformările duc la un nou tip de lider, descris ca „megamanager”, în condițiile în care managerii ajung să aibă mai multe responsabilități și să preia sarcini care înainte erau strict operaționale. Potrivit unui studiu Gallup citat de Blic, în ianuarie 2026 managerii supravegheau în medie 10,9 angajați, față de 12,1 în 2024. În plus, 97% dintre manageri au preluat sarcini operaționale suplimentare, care anterior nu le reveneau. De ce se întâmplă și ce competențe devin critice Profesorul Richard Lachman, de la Universitatea Metropolitană din Toronto, spune că tranziția este firească în industria tech, unde companiile adoptă primele pe scară largă inteligența artificială, iar așteptările de la manageri cresc. Analistul HR Josh Bersin argumentează că modelul tradițional de manager – axat pe supraveghere – își are originea în Revoluția Industrială și este abandonat de decenii, iar AI accelerează schimbarea. El avertizează că, în unele situații, AI poate ajunge să „știe mai multe decât managerul” și susține că, pentru a rămâne relevanți în 2026, liderii trebuie să: conducă proiecte noi; participe direct la munca operațională; dezvolte competențe solide de utilizare a instrumentelor bazate pe AI. Un manager de la Coinbase, citat în material, spune că IA a schimbat deja semnificativ modul de lucru și că riscul crește pentru cei care nu știu să folosească inteligența artificială sau nu vin cu idei bune. Libertatea mai notează că aceste schimbări nu se manifestă uniform în toate sectoarele și trimite la o listă separată cu joburi bine plătite considerate mai greu de înlocuit de AI. [...]

Mira Murati , fost CTO al OpenAI , a declarat sub jurământ că Sam Altman a mințit-o despre procedurile interne de siguranță , într-o mărturie prezentată în procesul „Musk v. Altman”, potrivit The Verge . Afirmația ridică miza de reglementare și de guvernanță corporativă în jurul OpenAI, într-un moment în care controalele de siguranță pentru modelele de inteligență artificială sunt tot mai des invocate ca argument pentru intervenție publică și reguli mai stricte. Într-o depoziție video difuzată în instanță, Murati a spus că Altman i-ar fi transmis în mod fals că departamentul juridic al OpenAI a decis că un nou model de inteligență artificială nu trebuie să treacă prin comitetul intern de siguranță pentru lansare (deployment safety board). Întrebată direct dacă Altman spunea adevărul, Murati a răspuns: „Nu”. Ce spune mărturia despre controlul intern al riscurilor Murati a descris episodul ca pe un exemplu al felului în care, în perioada în care a lucrat la OpenAI, Altman i-ar fi îngreunat activitatea. Critica ei ar fi „complet legată de management”, susținând că avea „o muncă incredibil de grea” într-o organizație complexă și că îi cerea lui Altman „să conducă, să conducă cu claritate” și să nu-i submineze capacitatea de a-și face treaba. În cazul concret al unui model din familia GPT, Murati a spus că, după discuția cu Altman, a verificat situația cu Jason Kwon (venit la OpenAI în 2021 ca director juridic și ajuns între timp director de strategie). Potrivit mărturiei, a constatat o „nepotrivire” între ce îi spusese Kwon și ce îi spusese Altman și, „pentru siguranță”, s-a asigurat că modelul a trecut totuși prin comitetul de siguranță. Context: acuzații mai vechi privind conduita lui Altman Materialul notează că nu este prima dată când Altman este acuzat că ar fi mințit. Cofondatorul Ilya Sutskever ar fi afirmat, într-un memoriu de 52 de pagini către board-ul OpenAI (citit într-o depoziție), că Altman „manifestă un tipar constant de minciună, subminare a executivilor și punerea executivilor unii împotriva altora”. De ce contează pentru piață și pentru reglementare Dincolo de disputa personală, mărturia lovește în credibilitatea mecanismelor interne prin care o companie de vârf din AI susține că își gestionează riscurile înainte de lansarea unor modele noi. Dacă deciziile privind trecerea prin filtrele de siguranță pot fi ocolite sau prezentate eronat în interior, presiunea pentru supraveghere externă și reguli mai stricte poate crește, inclusiv prin cerințe de audit și trasabilitate a deciziilor de lansare. Procesul „Musk v. Altman” este în desfășurare, iar informațiile provin din depoziții prezentate în instanță; articolul nu oferă, în acest fragment, poziția lui Altman sau a OpenAI la aceste afirmații. [...]