Știri
Știri din categoria Inteligență artificială

Google pregătește pentru macOS un agent Gemini care poate prelua controlul asupra computerului și automatiza organizarea fișierelor, o extindere cu impact operațional direct asupra modului în care utilizatorii își gestionează documentele și fluxurile de lucru în Google Workspace, potrivit 9to5Google.
În prezent, aplicația Gemini pentru macOS are două funcții principale: o interfață nativă de chat (similară celei web) și o comandă rapidă „alt-space” care deschide Gemini din orice aplicație. Această a doua funcție permite și partajarea ferestrei curente cu Gemini, oferind asistentului context vizual despre sarcina în desfășurare.
O analiză a echipei „APK Insight” a publicației indică faptul că Google plănuiește să extindă prezența Gemini pe Mac printr-un mod de utilizare „agentic” (adică un asistent care execută pași în numele utilizatorului), similar cu ceea ce oferă Claude Cowork.
9to5Google descrie patru exemple de comenzi (prompts) care conturează direcția produsului:
Primele trei scenarii pun accent pe fișierele locale și pe transferul structurii rezultate în aplicații din Google Workspace, în timp ce al patrulea mută accentul spre aplicații Google precum Meet, Docs și Gmail.
Conform publicației, aceste capabilități ar urma să se bazeze pe „Screen Access” și pe funcțiile de accesibilitate din macOS, pentru ca Gemini să poată „vedea” ecranul și să controleze mouse-ul și tastatura. Practic, miza este automatizarea unor sarcini repetitive (organizare, redenumire, extragere de date) direct pe computer, nu doar răspunsuri în chat.
Din perspectiva utilizării, un astfel de agent ar transforma Gemini pe macOS dintr-o aplicație de conversație într-un instrument de execuție a sarcinilor, cu efect imediat asupra productivității, mai ales în organizații care folosesc intens Google Workspace.
9to5Google notează și un contrast cu Android: pe telefoane, doar un subset redus de dispozitive (exemplul dat este seria Galaxy S26) poate cere lui Gemini să automatizeze sarcini simple în aplicații, precum comandarea de mâncare. Pe Mac, ambiția pare mai mare, iar Google ar urmări să poziționeze Gemini ca rival direct pentru Claude Cowork, pe fondul experimentelor anterioare cu zona de „computer use” din previzualizarea Gemini 2.5.
Recomandate

Google extinde Circle to Search astfel încât să trimită automat către Google și adrese web, conținutul paginii și fișiere PDF , ceea ce poate schimba practic modul în care utilizatorii primesc răspunsuri generate cu inteligență artificială, dincolo de ce se vede în captura de ecran. Actualizarea apare în versiunea beta a aplicației Google și este în curs de distribuire, potrivit Android Authority . În cea mai recentă versiune beta a aplicației Google (v17.18.24), funcția „Search using your whole screen” a fost redenumită în „Ask about screen”. Dincolo de schimbarea de etichetă, noutatea este că, pe lângă captura de ecran atașată ca până acum, Google va folosi automat „context disponibil”, care poate include URL-ul, conținutul paginii și documente PDF, pentru a genera rezultate mai relevante în AI Mode (modul de răspunsuri asistate de AI din Google Search). Ce se schimbă operațional pentru utilizatori Funcția Circle to Search era limitată la ceea ce „vede” în ecran (practic, informația din captura de ecran). Actualizarea adaugă context suplimentar, fără pași manuali, ceea ce poate duce la răspunsuri mai bine ancorate în sursa reală a informației (pagina sau documentul), nu doar în fragmentul vizibil. Concret, în interfața nouă: caseta de căutare afișează „Ask about screen”; descrierea indică „Search with more context”; este precizat că „URL-ul, conținutul paginii și documente PDF” pot fi trimise automat către Google. Unde funcționează și când ajunge la toată lumea Publicația notează că a reușit să declanșeze încărcarea de URL-uri și PDF-uri folosind „Ask about screen” în Google Chrome și Files by Google, cu posibilitatea ca funcția să meargă și în alte aplicații. Distribuirea este în desfășurare pentru utilizatorii din canalul beta, iar așteptarea este ca schimbarea să ajungă în versiunea stabilă „în zilele și săptămânile următoare”, dacă testele sunt considerate satisfăcătoare. [...]

xAI ar folosi doar 11% dintr-o flotă de 550.000 de GPU-uri NVIDIA , potrivit Wccftech , care citează un raport despre nivelul de utilizare a infrastructurii de calcul pentru inteligență artificială (IA). Ce arată datele și de ce contează Publicația notează că, în timp ce xAI ar valorifica puțin peste 10% din capacitatea instalată, rivali precum Meta și Google ar ajunge la rate de utilizare de 43–46% din propriile flote de GPU-uri. Diferența este importantă deoarece GPU-urile (procesoare grafice folosite masiv la antrenarea și rularea modelelor IA) sunt scumpe, iar eficiența utilizării lor influențează direct costurile și viteza de dezvoltare. În articol, Wccftech pune această performanță mai slabă pe seama „optimizărilor lipsite de rezultate” la nivelul „stivei software” pentru IA (ansamblul de programe, biblioteci și instrumente care coordonează antrenarea și rularea modelelor pe hardware). Cu alte cuvinte, nu doar numărul de cipuri contează, ci și cât de bine este folosită infrastructura prin software. „xAI este, potrivit relatărilor, capabilă să utilizeze doar puțin peste 10% din întreaga sa flotă de GPU-uri NVIDIA.” Sursa informațiilor și contextul din industrie Wccftech indică drept sursă primară un material al publicației The Information, care ar fi raportat că xAI, compania lui Elon Musk, utilizează doar o mică parte din capacitatea totală de GPU instalată. În același context, articolul amintește că xAI dezvoltă „Gorq” și alte componente bazate pe IA (formulare preluată din textul sursă). Mesajul mai larg este că blocajele din „stiva software” nu ar fi o problemă izolată, ci una întâlnită în industrie. În practică, astfel de blocaje pot apărea din configurarea și programarea sarcinilor de lucru, comunicarea între servere, gestionarea memoriei sau din modul în care sunt integrate bibliotecile de antrenare. Reperele numerice menționate În forma prezentată de Wccftech, comparația dintre companii se reduce la câteva cifre-cheie: xAI: ~11% utilizare dintr-o flotă de 550.000 de GPU-uri NVIDIA (potrivit relatărilor) Meta: 43–46% utilizare din flota proprie (conform articolului) Google: 43–46% utilizare din flota proprie (conform articolului) Dacă aceste estimări se confirmă, implicația este că xAI ar putea avea costuri mai mari per unitate de progres (de exemplu, per model antrenat sau per îmbunătățire de performanță), în timp ce competitorii ar obține mai multă „muncă utilă” din aceeași clasă de resurse. În acest stadiu, articolul nu oferă detalii despre metodologia exactă de măsurare a utilizării sau despre intervalul de timp analizat, iar formulările rămân la nivel de „potrivit relatărilor”. [...]

Premierul Italiei avertizează că deepfake-urile pot manipula opinia publică , după ce a redistribuit pe Instagram o fotografie falsă cu ea, generată cu ajutorul inteligenței artificiale, potrivit G4Media . Mesajul Giorgiei Meloni mută discuția din zona „incidentelor” individuale spre riscul operațional al dezinformării: conținutul sintetic (generat de AI) poate fi folosit ca instrument de atac și influențare, cu efecte care depășesc persoana vizată. Meloni spune că în ultimele zile au circulat „mai multe fotografii false” cu ea, „create cu ajutorul inteligenței artificiale” și prezentate ca autentice. Ea afirmă că, în cazul imaginii redistribuite, autorul „a și înfrumusețat-o”, dar subliniază că miza rămâne folosirea oricărui mijloc „doar pentru a ataca și a inventa minciuni”. „Deepfake-urile sunt un instrument periculos, deoarece pot înșela, manipula și afecta pe oricine.” De ce contează: riscul se mută de la reputație la manipulare În postarea citată, premierul italian insistă că problema „depășește sfera” personală: astfel de falsuri pot induce în eroare și pot fi redistribuite rapid, amplificându-și impactul. Meloni își construiește mesajul în jurul unei reguli de igienă informațională, pe care o formulează explicit: „verifică înainte să crezi și crede înainte să distribui”. Totodată, ea atrage atenția asupra asimetriei de putere: „Eu pot să mă apăr. Mulți alții nu pot”, sugerând că țintele fără vizibilitate publică sau resurse pot fi mai vulnerabile la astfel de atacuri. Context: episoade anterioare și legătura cu politica Materialul amintește că nu este prima dată când utilizarea inteligenței artificiale sau a conținutului manipulat intersectează politica. Potrivit informațiilor prezentate, în urmă cu cinci ani, când Meloni era lidera partidului FdI, chipul ei a fost folosit într-un filmuleț pornografic publicat pe un site pentru adulți, iar doi bărbați (tată și fiu) au ajuns ulterior în fața instanței. De asemenea, articolul menționează că în februarie anul trecut, înaintea votului pentru referendumul privind justiția, a existat „o avalanșă de știri false” pe rețelele sociale, în favoarea votului „da”, inclusiv prin „sute de profiluri” care au postat comentarii cu fraze identice, hashtag-uri similare și sloganuri repetate. [...]

Cinci dintre cele mai mari edituri atacă în instanță strategia Meta de a antrena Llama pe conținut piratat, într-un dosar construit explicit pe „dovada” de impact economic pe care judecătorul a spus că o așteaptă — potrivit The Next Web , Elsevier, Cengage, Hachette, Macmillan și McGraw Hill, alături de scriitorul Scott Turow, au depus marți, la un tribunal federal din Manhattan, o acțiune colectivă propusă împotriva Meta. Plângerea susține că Meta ar fi „piratat milioane” de cărți și articole științifice pentru a-și antrena modelele de limbaj Llama, fără permisiune, plată sau licență. Reclamanții cer certificarea cauzei ca acțiune colectivă, în numele altor deținători de drepturi aflați în situații similare. Reuters a relatat despre acest dosar, notează publicația. Miza depășește un nou episod din seria proceselor privind drepturile de autor în antrenarea inteligenței artificiale: cazul este construit să testeze direct punctul vulnerabil identificat de instanță într-un litigiu anterior câștigat de Meta — dovada de „prejudiciu de piață” (market harm), adică pierderi măsurabile de venituri cauzate de substituirea produselor editoriale de către răspunsurile unui model AI. De ce acest proces ar putea schimba jocul față de „ Kadrey v. Meta ” The Next Web arată că noul dosar diferă structural de „Kadrey v. Meta”, procesul intentat în 2023 în California de un grup de autori (printre care Sarah Silverman), care a acuzat Meta că ar fi descărcat cărți protejate de drepturi de autor din biblioteci pirat (LibGen, Z-Library, Anna’s Archive) pentru a antrena Llama. În iunie 2025, judecătorul Vince Chhabria a acordat Meta o hotărâre favorabilă pe baza excepției de „utilizare rezonabilă” (fair use) din dreptul american, considerând antrenarea suficient de „transformativă”. Însă, potrivit publicației, judecătorul a subliniat explicit limitele deciziei și a indicat că reclamanți viitori ar putea avea câștig de cauză dacă vin cu dovezi mai puternice privind prejudiciul de piață. Noul proces este conceput tocmai pe această linie, cu trei diferențe care, în lectura The Next Web, îi avantajează pe reclamanți: Amploarea catalogului : nu mai e vorba de un număr limitat de titluri ale unor autori, ci de operațiunile editoriale ale cinci companii cu pondere mare în publicarea academică, educațională și comercială. Dovezi de substituție și venituri : editurile academice și educaționale pot documenta mai ușor liniile de venit pe care un model AI le poate înlocui (de exemplu, când un student primește un răspuns care ar fi necesitat consultarea unui manual). Contextul pieței de licențiere : din 2023, au apărut mai multe acorduri de licențiere între companii AI și editori; Meta ar fi semnat astfel de acorduri cu Reuters, CNN, Fox News, People Inc. și USA Today. Existența acestor licențe poate cântări în analiza prejudiciului de piață, pentru că sugerează că există o piață de licențiere funcțională. Ce urmează și de ce contează pentru piața AI Dincolo de întrebarea juridică îngustă — dacă folosirea de materiale piratate pentru antrenarea Llama se încadrează la „fair use” — dosarul încearcă să stabilească dacă antrenarea modelelor generative poate funcționa fără o piață de licențiere robustă sau dacă licențele devin o componentă structurală a industriei. The Next Web notează că procedura va avansa lent: certificarea acțiunii colective, cereri de respingere, faze de judecată sumară și programarea unui proces pot dura, în mod obișnuit, 18–24 de luni . În acest interval, riscul pentru Meta este asimetric: o nouă victorie ar întări ideea că antrenarea pe corpuri de date piratate poate fi apărată ca „fair use” chiar și împotriva unor reclamanți industriali; o înfrângere ar putea crește costurile prin despăgubiri și remedii care să schimbe practicile de antrenare și negociere a licențelor în întreg sectorul. [...]

Anthropic mută automatizarea în zona de conformitate bancară , lansând un agent de investigații anti-spălare de bani (AML) care promite să reducă verificările din „ore sau zile” la „minute” și anunțând primele implementări la BMO și Amalgamated Bank, potrivit The Next Web . Miza este una operațională și de cost: AML este o categorie în care cheltuielile de conformitate au crescut rapid în bugetele băncilor, iar orice comprimare reală a timpilor de lucru poate schimba structura costurilor. Anunțurile au fost făcute la un eveniment Anthropic cu acces pe bază de invitație, „Briefing: Financial Services”, organizat la New York, la o zi după ce compania a comunicat un joint venture de 1,5 miliarde de dolari (aprox. 6,9 miliarde lei) pentru servicii enterprise cu Blackstone, Hellman & Friedman și Goldman Sachs. Ce a lansat Anthropic pentru finanțe Pachetul prezentat include: Claude Opus 4.7 , descris ca cel mai capabil model al companiei pentru sarcini specifice sectorului financiar; o bibliotecă de circa 10 agenți preconfigurați pentru fluxuri de lucru consumatoare de timp în banking și administrarea activelor (de la pitchbook-uri și analize de rezultate, la memorandumuri de credit, subscriere, KYC, închidere de lună, audituri de extrase și daune în asigurări); integrare completă cu Microsoft 365 ; un parteneriat extins de date , cu integrarea Moody’s direct în Claude. Agenții sunt livrați ca „arhitecturi de referință”, cu abilități, conectori și sub-agenți necesari pentru a rula fluxurile „cap-coadă”, nu doar ca un instrument de tip chat pentru întrebări punctuale. AML: piesa cu impact direct în bugetele de conformitate Elementul cu cea mai mare greutate operațională este parteneriatul cu FIS (furnizor listat de tehnologie bancară), care a construit pe Claude un Financial Crimes AI Agent pentru investigații AML. Conform FIS, „problema globală” a criminalității financiare se ridică la aproximativ 40 miliarde de dolari anual (aprox. 184 miliarde lei), incluzând amenzi, investigații și costuri generate de alertele false. Primele implementări anunțate sunt la: BMO Amalgamated Bank Disponibilitatea mai largă este planificată pentru a doua jumătate a lui 2026 . Moody’s „în interiorul” Claude și extinderea partenerilor de date Moody’s își integrează platforma în Claude ca aplicație nativă , astfel încât utilizatorii să poată extrage ratinguri de credit, date de risc și analize ale structurii de proprietate pentru peste 600 de milioane de companii fără a părăsi interfața Claude. În același timp, Anthropic își extinde lista de parteneri de date cu nume precum Verisk, Third Bridge, Fiscal AI, Dun & Bradstreet, Experian, GLG, Guidepoint și IBISWorld, pe lângă parteneri existenți menționați în material (LSEG, S&P Capital IQ, Morningstar, PitchBook). În termeni practici, compania încearcă să acopere o parte mare din „universul” de date folosit în cercetarea de acțiuni și analiza de credit. De ce contează: de la „chat” la fluxuri autonome, cu trasabilitate Diferența față de lansările anterioare, centrate pe interogarea datelor în chat, este trecerea către fluxuri predefinite rulate autonom , cu „urme de audit”, trasabilitate pentru cerințe de reglementare și guvernanță integrată. Materialul leagă această direcție de platforma Claude Managed Agents , lansată în aprilie, care mută o parte din complexitatea de orchestrare către Anthropic, nu către echipele tehnice ale clienților. Riscuri: guvernanță, dependență și concurență The Next Web indică trei riscuri principale: Guvernanța : băncile operează în regimuri de reglementare prudente față de deciziile autonome; materialul menționează că șeful Trezoreriei SUA a cerut public, la final de aprilie, prudență în abordarea unor lansări recente ale Anthropic. Concentrarea : Anthropic ajunge să fie un strat comun pentru mai multe inițiative și implementări în ecosistemul financiar, ceea ce poate amplifica efectele unei eventuale disfuncționalități. Durabilitatea avantajului competitiv : platforme de agenți sunt dezvoltate și de OpenAI, Google și Microsoft, iar întrebarea este dacă integrarea adâncă în date și fluxuri creează costuri de schimbare suficient de mari. Pentru bănci, următoarea întrebare practică rămâne una de execuție: dacă reducerea timpilor de investigație AML „din ore în minute” se confirmă la scară, impactul se va vedea direct în costurile operaționale; dacă nu, riscul îl împart furnizorul și instituțiile care au intrat devreme în producție. [...]

Dezvăluirea din instanță ridică miza financiară a litigiului OpenAI–Musk , după ce președintele companiei, Greg Brockman , a spus că participația sa în OpenAI valorează aproape 30 de miliarde de dolari (aprox. 138 mld. lei), potrivit Mediafax . Brockman a declarat totodată că nu a investit personal niciun ban în OpenAI. Mărturia a fost depusă în cadrul procesului civil care analizează fondarea OpenAI în 2015 ca startup non-profit, finanțat în principal de Elon Musk, și transformarea ulterioară într-o companie cu scop lucrativ, evaluată acum la 852 de miliarde de dolari (aprox. 3.919 mld. lei), conform Associated Press (AP), citată de Mediafax. Ce înseamnă economic cifra de 30 de miliarde de dolari La acest nivel, Brockman ar ajunge comparabil, ca avere, cu nume din topurile globale ale celor mai bogați oameni, menționează materialul, care indică și că o astfel de valoare l-ar plasa pe lista Forbes. Dincolo de componenta personală, dezvăluirea punctează dimensiunea financiară a OpenAI și, implicit, presiunea din jurul controlului și direcției companiei într-un litigiu care vizează chiar modul în care a fost schimbată arhitectura organizației. Contextul procesului: acuzații de „trădare” a misiunii inițiale Procesul civil îi vizează pe Sam Altman și Greg Brockman, acuzați că l-ar fi trădat pe Musk prin îndepărtarea de misiunea fondatoare a OpenAI, descrisă ca rol de „administrator altruist” al unei tehnologii cu potențial revoluționar. Potrivit acuzațiilor, conducerea ar fi trecut la un model de a face bani „pe la spatele” lui Musk. În același dosar, avocații OpenAI au încercat să introducă drept probă un mesaj text trimis de Musk către Brockman cu două zile înainte de începerea procesului, pentru a testa posibilitatea unei înțelegeri, conform unui document depus la tribunal (document care nu include schimbul de mesaje în sine). După ce Brockman ar fi răspuns că ambele părți ar trebui să renunțe la pretenții, Musk ar fi replicat, potrivit documentului: „Până la sfârșitul acestei săptămâni, tu și Sam veți fi cei mai urâți oameni din America. Dacă insistați, așa va fi”. Judecătoarea Yvonne Gonzalez Rogers , care supraveghează procesul, nu a admis schimbul de mesaje ca probă. [...]