Știri
Știri din categoria Inteligență artificială

SUA le cere ambasadelor să avertizeze aliații despre presupuse furturi de tehnologie AI de către companii chineze, într-o mișcare cu potențial de a înăspri controalele și restricțiile din lanțurile internaționale de dezvoltare și utilizare a inteligenței artificiale, potrivit Profit.
Directiva diplomatică globală, datată 24 aprilie și transmisă misiunilor diplomatice americane din întreaga lume, le solicită oficialilor SUA să ridice subiectul în discuțiile cu guverne străine. Motivul invocat este îngrijorarea că modele AI dezvoltate în Statele Unite ar fi „extrase” și replicate de actori considerați adversari.
În document sunt menționate explicit mai multe companii chineze, între care startup-ul DeepSeek, dar și Moonshot AI și MiniMax. SUA susțin că astfel de entități ar folosi inclusiv tehnici de „distilare” (metodă prin care performanța unui model avansat este reprodusă într-un model mai mic/mai ieftin) pentru a copia capabilități ale sistemelor americane.
Potrivit informațiilor citate de Profit din Reuters, Washingtonul afirmă că aceste metode ar permite reproducerea performanței unor sisteme americane avansate la costuri reduse și, în același timp, ar putea elimina mecanismele de siguranță integrate în modelele originale.
Inițiativa vine după ce Casa Albă a acuzat recent China de furt „la scară industrială” de tehnologie AI, pe fondul tensiunilor tot mai mari dintre cele două puteri în competiția tehnologică.
Reprezentanții Chinei au respins acuzațiile, pe care le-au descris ca nefondate și motivate politic, și au cerut cooperare internațională în domeniul tehnologic.
Recomandate

DeepSeek a lansat modelul open-source V4, mizând pe eficiență de cost ca avantaj competitiv , într-un moment în care accesul la cipuri avansate și costurile de antrenare rămân o barieră majoră pentru dezvoltarea de inteligență artificială. Potrivit South China Morning Post , compania spune că noul său model fundamental (foundation model) este „competitiv” cu modele americane închise, precum cele ale OpenAI și Google DeepMind. DeepSeek descrie V4 drept un model „cost-eficient” și cu „eficiență de nivel lider mondial”, poziționându-l ca alternativă la modelele proprietare (closed-source), care nu își publică integral codul și detaliile tehnice. În același timp, faptul că V4 este open-source sugerează o strategie de accelerare a adopției prin comunitate și integrare mai ușoară în produse și servicii. Un element important de context este sprijinul anunțat de Huawei , care, potrivit aceleiași surse, a promis „sprijin total” prin noi cipuri. Mesajul indică o încercare de a consolida un lanț tehnologic intern – modele AI plus hardware – într-o perioadă în care competiția globală se poartă tot mai mult pe costuri, eficiență și disponibilitatea infrastructurii de calcul. De ce contează: costul devine o armă în cursa AI Relevanța economică a anunțului ține de faptul că „eficiența” și „cost-eficiența” sunt prezentate ca diferențiatori principali într-o piață dominată de modele foarte scumpe de antrenat și operat. Dacă afirmațiile DeepSeek privind competitivitatea cu OpenAI și Google DeepMind se confirmă în utilizare, V4 ar putea: reduce costul de intrare pentru companii care vor să construiască aplicații pe modele avansate; crește presiunea concurențială asupra furnizorilor de modele închise, printr-o alternativă open-source; accelera adoptarea în ecosisteme care preferă controlul local asupra tehnologiei și datelor. Ce se știe și ce rămâne neclar Articolul notează că DeepSeek „spune” că V4 este competitiv cu modele de top din SUA, însă în fragmentul disponibil nu apar rezultate detaliate de evaluare (benchmark-uri) sau date tehnice care să permită o comparație independentă. În lipsa acestor informații, impactul real va depinde de performanța în implementări concrete și de cât de repede va fi preluat modelul de dezvoltatori și companii. [...]

Cazul Tumbler Ridge pune presiune pe reglementare, după ce OpenAI a ales să nu alerteze poliția deși propriile sisteme au semnalat un risc : Sam Altman a transmis o scrisoare de scuze comunității din British Columbia, iar compania spune că și-a schimbat intern pragurile de raportare, însă măsurile rămân voluntare, într-un context în care Canada nu are o obligație legală pentru firmele de AI de a raporta amenințări identificate pe platformele lor, potrivit The Next Web . Altman afirmă în scrisoare că îi pare „profund rău” că OpenAI nu a alertat autoritățile cu privire la un cont blocat în iunie 2025, după ce sistemele companiei l-au semnalat. Scrisoarea este datată 23 aprilie și a fost făcută publică o zi mai târziu, la 72 de zile după atacul armat din 10 februarie din Tumbler Ridge, descris drept cel mai grav atac armat într-o școală din Canada din 1989 încoace. Ce a știut OpenAI și de ce nu a raportat Conform relatării, detecția automată a OpenAI a semnalat în iunie 2025 contul de ChatGPT al lui Jesse Van Rootselaar, atunci în vârstă de 18 ani. Aproximativ o duzină de angajați au revizuit conversațiile, care descriau scenarii cu violență armată, iar o parte dintre ei au recomandat contactarea poliției canadiene. Conducerea a respins recomandarea, invocând un „prag mai ridicat” pentru raportarea amenințărilor credibile și iminente; contul a fost închis, iar conversațiile au fost păstrate intern. Poliția nu a fost contactată. Atacul a avut loc opt luni mai târziu. Potrivit articolului, opt persoane au fost ucise și 27 rănite; autorul s-a sinucis la școală. OpenAI nu l-a mai detectat după ce acesta și-a făcut un al doilea cont, până când Poliția Călare Regală Canadiană (RCMP) a făcut public numele. Publicația notează că The Wall Street Journal a relatat prima dată disputa internă privind decizia de a nu raporta. Scrisoarea de scuze: fără angajamente concrete În scrisoarea adresată comunității, Altman spune că se gândește la cei afectați și reafirmă un angajament general de a lucra cu guvernele pentru a preveni tragedii similare. În același timp, materialul subliniază că scrisoarea nu include: angajamente de politică publică sau operaționale detaliate; o descriere a schimbărilor pe care OpenAI le-ar face; recunoașterea faptului că angajați au recomandat raportarea și au fost contraziși de conducere. Premierul provinciei British Columbia, David Eby, a numit scuzele „necesare”, dar „grosolan insuficiente” raportat la impactul asupra familiilor. Primarul din Tumbler Ridge, Darryl Krakowka, a confirmat primirea scrisorii și a cerut „grijă și considerație” pentru comunitate în perioada de doliu. Ce spune OpenAI că a schimbat și de ce contează pentru reglementare Angajamentele de politică au venit separat, într-o scrisoare a vicepreședintei pentru politici globale a OpenAI, Ann O’Leary, către miniștri federali canadieni. Compania afirmă că: a coborât pragul de raportare, astfel încât un utilizator nu mai trebuie să discute explicit „ținta, mijloacele și momentul” pentru ca un caz să fie trimis către forțele de ordine; a implicat experți în sănătate mintală și comportament pentru evaluarea cazurilor semnalate; a stabilit un punct de contact direct cu RCMP. O’Leary susține că, în baza politicilor actualizate, interacțiunile lui Van Rootselaar „ar fi fost trimise poliției” dacă ar fi fost descoperite astăzi. Totuși, articolul insistă asupra limitării-cheie: schimbările sunt voluntare, nu sunt obligatorii prin lege și pot fi inversate. „Golul” legal din Canada și ce urmează Potrivit sursei, Canada nu are în prezent o lege care să oblige companiile de inteligență artificială să raporteze amenințări identificate prin platformele lor, iar guvernul federal nu a introdus încă una. Ministrul canadian al AI, Evan Solomon, a spus că angajamentele OpenAI „nu merg suficient de departe”. În paralel, miniștri federali din mai multe portofolii au avut întâlniri cu reprezentanți OpenAI după ce guvernul a convocat conducerea companiei la finalul lunii februarie. Un grup de lucru comun între Innovation, Science and Economic Development Canada și Public Safety Canada analizează protocoale de raportare pentru siguranța AI, cu recomandări preliminare așteptate până în vara lui 2026. Miza, în lectura The Next Web, este una de reglementare și responsabilitate: în lipsa unui standard extern, deciziile de a raporta sau nu rămân la latitudinea companiilor, chiar și atunci când sistemele lor semnalizează potențiale riscuri grave. [...]

Google împinge Gemini spre utilizări „de zi cu zi”, mizând pe funcții multimodale și integrarea în Gmail – într-un set de recomandări publicat pe Google Blog , compania descrie opt scenarii în care asistentul cu inteligență artificială poate ajuta la organizarea locuinței și a „spațiului digital”, de la liste personalizate de curățenie până la gestionarea inboxului. Materialul pornește de la observația că interogările Google pentru „spring cleaning hacks” și „spring cleaning checklist” sunt în creștere și folosește acest context pentru a promova Gemini ca instrument practic pentru sarcini recurente. Miza operațională este extinderea percepției asupra AI-ului dincolo de „chat”, către un asistent care lucrează cu imagini, cameră video și aplicații Google. Ce poate face Gemini, potrivit Google Cele opt exemple din articol acoperă atât activități fizice (organizare, reparații), cât și digitale (email, planificare). Pe scurt, Google indică următoarele utilizări: generarea unei liste de curățenie personalizate în funcție de locuință și stil de viață; „auditarea” dezordinii: utilizatorul încarcă o fotografie (sertar, dulap), iar Gemini propune soluții de organizare, inclusiv pentru folosirea spațiului pe verticală; inventarierea alimentelor din frigider cu ajutorul camerei, prin Gemini Live, pentru a reduce risipa și a sugera rețete pe baza resturilor; depanare pentru reparații casnice (de exemplu, instalații sanitare sau electrocasnice), tot prin Gemini Live, cu întrebări de tipul „ce văd și cum repar?”; planificarea drumurilor pentru cumpărături și donații prin „Ask Maps”, cu opțiuni pe traseu, trafic în timp real și estimări legate de aglomerația din magazine; simulări de redecorare pe baza unei fotografii, cu un instrument numit „Nano Banana”, care ar modifica doar elementele indicate (culoarea pereților, poziționarea unei canapele etc.); recomandări pentru îngrijirea plantelor, pe baza imaginilor și a contextului din încăpere (lumină, udare); „decluttering” pentru inbox: rezumarea conversațiilor lungi din Gmail și căutarea rapidă a unor detalii vechi (de exemplu, o chitanță). Gmail și „abonamentele Ultra”, zona unde Google sugerează funcții avansate În zona de productivitate, Google menționează explicit că anumite opțiuni sunt condiționate de abonament și de piață. Potrivit articolului, „Ultra Subscribers” din SUA pot opta pentru „AI Inbox”, care ar evidenția automat „to-do-uri” și subiecte importante într-un singur loc. Tot pentru abonații Ultra din SUA, publicația menționează și „Agent Mode in Gemini” pentru organizarea inboxului, cu un flux în care utilizatorul cere ajutor („help organize my inbox”), iar sistemul propune acțiuni precum arhivarea mesajelor sau transformarea unor emailuri în sarcini, ce trebuie aprobate „cu un click”. De ce contează Dincolo de lista de „tips”, mesajul central este direcția de produs: Google își poziționează Gemini ca asistent multimodal (text + imagine + cameră) și ca extensie a aplicațiilor proprii, în special Gmail și Maps. Pentru utilizatori și companii, implicația practică este că o parte din funcțiile de organizare și triere ar putea migra din aplicații dedicate către AI-ul integrat în ecosistemul Google, cu diferențieri tot mai vizibile între versiuni gratuite și funcții disponibile doar pe abonament și în anumite țări. [...]

Google își mută accentul pe „agenți” AI care pot rula autonom în companii , iar miza imediată este una operațională: cum sunt construiți, guvernați și scalați acești „asistenți” în condiții de securitate și cu infrastructură suficientă. Într-un rezumat al conferinței Cloud Next ’26, Google Cloud a prezentat o suită de produse și componente (de la platforme pentru agenți și aplicații pentru angajați, până la cipuri și rețele) menite să ducă utilizarea AI „la scară”. Platformă pentru agenți și acces la modele Piesa centrală este Gemini Enterprise Agent Platform , descrisă ca un „spațiu de lucru” complet pentru a construi, administra (guverna) și scala agenți AI în organizații. În platformă, Google spune că oferă acces direct la: Gemini 3.1 Pro , pe care îl numește cel mai capabil model al său pentru fluxuri de lucru complexe; Gemini 3.1 Flash Image (menționat și ca „Nano Banana 2”), pentru generare de conținut vizual; Lyria 3 , pentru audio „de nivel profesional”; Claude Opus 4.7 de la Anthropic, ca parte a unei strategii de „alegere deschisă” (posibilitatea de a folosi și modele din afara Google). Pentru utilizare, compania pune accent pe instrumente „low-code” (cu puțin cod) și „no-code” (fără cod), adică interfețe care reduc dependența de echipe specializate de machine learning. AI în munca de zi cu zi: aplicație, fluxuri și „inbox” pentru agenți Google poziționează Gemini Enterprise app ca modalitate de a duce agenții direct la nivelul angajaților. În acest context, compania menționează: un Agent Designer „no-code” pentru fluxuri de lucru declanșate de evenimente (trigger-based); agenți de durată („long-running agents”) care pot rula autonom în fundal, în „sandbox-uri” (medii izolate) securizate în cloud; un Agent Inbox central, pentru monitorizarea și gestionarea activității agenților. Unghiul este relevant pentru companii prin faptul că mută AI din zona de „asistent” punctual în zona de execuție de procese , cu nevoi noi de control, audit și supraveghere. Infrastructură: TPU-uri noi, rețea dedicată și stocare mai rapidă Pentru a susține rularea „a milioane de agenți”, Google a prezentat actualizări de infrastructură în jurul a ceea ce numește AI Hypercomputer , inclusiv a opta generație de cipuri TPU (Tensor Processing Unit). Compania menționează două variante: TPU 8t , orientat spre antrenarea modelelor; TPU 8i , optimizat pentru inferență (servirea modelelor în producție), cu „80% performanță mai bună per dolar” . Pe partea de conectivitate și date, Google afirmă că a prezentat: Virgo Network , un sistem construit pentru conectarea supercomputerelor; Managed Lustre , despre care spune că poate muta 10 terabytes de date pe secundă . Date și guvernanță: „Agentic Data Cloud” și interogare cross-cloud Un alt element cheie este Agentic Data Cloud , descris ca o nouă abordare de organizare a datelor astfel încât AI să poată acționa „în timp real”. În acest pachet, Google evidențiază: Knowledge Catalog , care ar eticheta și ar conecta automat datele din companie folosind Gemini, pentru a reflecta „contextul și limbajul” intern; Cross-Cloud Lakehouse , standardizat pe Apache Iceberg , care ar permite interogarea datelor fără a le muta neapărat în Google Cloud, inclusiv dacă sunt stocate în AWS. Pentru organizații, mesajul este că adoptarea agenților depinde de accesul la date și de interoperabilitate , nu doar de modelul AI. Securitate: agenți pentru apărare și integrarea Wiz Google spune că își construiește „securitatea pentru era AI” combinând informații despre amenințări (threat intelligence) cu platforma Wiz, menționând explicit că Wiz este acum parte din Google Cloud . Sunt menționați agenți specializați, inclusiv: Threat Hunting agent , pentru căutarea proactivă a amenințărilor și scriere autonomă de reguli; Detection Engineering agent , pentru identificarea „golurilor” de acoperire și crearea de detecții; Third-Party Context agent , pentru date contextuale din conținut terț. Separat, Google indică lansarea unui Technology Intel Center , care agregă într-un singur flux lansări de funcții, actualizări de migrare și notificări de „end-of-life” (încetarea suportului) relevante pentru furnizori de cloud și AI. Exemple de utilizare în companii În recapitulare sunt date și câteva exemple de adopție: The Home Depot folosește Gemini pentru un asistent telefonic și în magazin; Papa John’s folosește un „Ordering Agent” care reține comanda „obișnuită”; Mars și Citadel Securities folosesc instrumente AI pentru eficientizarea cercetării cantitative; Unilever ar implementa agenți în organizație pentru a-și deservi consumatorii (menționați ca 3,7 miliarde). Ce lipsește din material sunt detalii despre prețuri, termene de disponibilitate pe piețe sau condiții contractuale; recapitularea se concentrează pe direcția de produs și pe capabilități. [...]

Google extinde aplicația Gemini cu funcții care o apropie de un „asistent” integrat în fluxul de lucru, dar cu disponibilitate limitată geografic potrivit Google Cloud . Actualizările din „ Gemini Drop ” (ediția a 10-a) includ suport nativ pe desktop (Mac), organizarea proiectelor în aplicație și noi capabilități de creare media, însă o parte dintre ele se lansează doar pentru abonații „Google AI plan” din anumite țări. Pachetul de noutăți, publicat pe 24 aprilie 2026, indică o direcție operațională: Gemini nu mai este doar un chat, ci încearcă să devină un instrument persistent, conectat la aplicații Google și folosit direct din mediul de lucru (desktop), cu funcții de organizare și vizualizare. Ce se schimbă în aplicația Gemini Actualizările anunțate includ: Personalizarea generării de imagini : Google spune că devine mai ușor să creezi imagini „care reflectă viața, interesele și stilul” utilizatorului, folosind „Personal Intelligence” și „Nano Banana”. Publicația precizează că utilizatorul rămâne „în total control” asupra personalizării. „Personal Intelligence” se extinde internațional și permite conectarea aplicațiilor Google „preferate” pentru ajutor adaptat utilizatorului. Notebooks în Gemini : organizarea proiectelor prin gestionarea conversațiilor și a cercetării, cu integrare NotebookLM direct în aplicație. Aplicația Gemini pe Mac : versiune nativă pentru macOS, pentru acces mai rapid la asistență AI de pe desktop. Creare muzică : posibilitatea de a crea gratuit piese de până la 3 minute , cu opțiuni de mixaj și personalizare „high-fidelity” prin Lyria 3 Pro . Vizualizări interactive în chat : transformarea întrebărilor complexe în vizualizări interactive, pentru înțelegerea mai rapidă a conceptelor. Disponibilitate: lansare internațională, cu excluderi explicite Google notează într-o mențiune de subsol că funcțiile sunt „în curs de lansare” pentru abonații internaționali ai „Google AI plan”, cu excepția : Spațiul Economic European, Elveția, Regatul Unit, Coreea de Sud, Australia și Nigeria. Publicația trimite la o pagină de eligibilitate, fără a detalia în articol motivele acestor excluderi. De ce contează pentru utilizatori și companii Din perspectivă operațională, combinația dintre aplicație nativă pe Mac , organizare prin Notebooks/NotebookLM și conectarea aplicațiilor Google sugerează o încercare de a ancora Gemini în activități recurente (documentare, proiecte, lucru pe desktop), nu doar în utilizări punctuale. În același timp, limitările de disponibilitate pe piețe importante (inclusiv SEE) pot întârzia adoptarea uniformă în organizații cu echipe distribuite. [...]

Google își leagă infrastructura de Anthropic printr-un pachet de până la 40 mld. dolari (aprox. 184 mld. lei), într-o mișcare defensivă în „războiul cloud” pentru AI , pe fondul faptului că modelul Claude vinde mai bine decât Gemini în segmentul enterprise, potrivit The Next Web . Tranzacția descrisă are două componente: 10 miliarde de dolari (aprox. 46 mld. lei) investiție în numerar la o evaluare de 350 miliarde de dolari (aprox. 1.610 mld. lei) și încă 30 miliarde de dolari (aprox. 138 mld. lei) condiționate de atingerea unor ținte de performanță nedezvăluite. Separat de equity, Google ar urma să furnizeze către Anthropic cinci gigawați de putere de calcul pe cinci ani, inclusiv acces la până la un milion de cipuri TPU Ironwood (a șaptea generație). În total, angajamentul Google față de Anthropic ar ajunge la circa 43 miliarde de dolari (aprox. 198 mld. lei). De ce contează: investiția e, în esență, o miză pe venituri din cloud Miza principală nu este doar participația în Anthropic, ci direcționarea consumului masiv de calcul (și a facturilor aferente) către infrastructura Google. Publicația notează că Google Cloud distribuie deja Claude prin Vertex AI către clienți enterprise, iar fiecare apel API rulat prin această platformă generează venituri de cloud pentru Google, indiferent dacă Gemini este folosit sau nu. În acest context, pachetul de investiții și resurse de calcul funcționează ca o ancorare operațională: Google încearcă să facă TPUs suficient de integrate în infrastructura Anthropic încât schimbarea furnizorului să devină costisitoare. Cifrele care explică presiunea: creșterea Anthropic și tracțiunea Claude în enterprise Conform datelor din articol, Anthropic a ajuns la un ritm anualizat al veniturilor (ARR – venituri recurente anualizate) de 30 miliarde de dolari în aprilie, de la 1 miliard de dolari în ianuarie 2025. Totodată: Claude ar avea 32% din piața enterprise pentru API-uri de modele lingvistice mari, față de 25% pentru GPT-4o (OpenAI); opt dintre companiile din Fortune 10 sunt clienți Claude; peste 1.000 de companii ar cheltui peste 1 milion de dolari anual pe platformă, iar numărul s-ar fi dublat din februarie. Articolul mai menționează că evaluarea implicită a Anthropic pe piețele secundare ar fi ajuns la 1 trilion de dolari, la trei luni după runda Series G de 380 miliarde de dolari, peste nivelul de preț secundar indicat pentru OpenAI (880 miliarde de dolari). Structura tranzacției: expunere economică mare, control formal minim Google ar deține deja circa 14% din Anthropic, după investiții anterioare de peste 3 miliarde de dolari, însă participația este plafonată contractual la 15% și nu include drepturi de vot, locuri în board sau statut de observator. Noua injecție de 10 miliarde de dolari ar împinge Google aproape de acest plafon fără a-l depăși, într-o structură care, potrivit articolului, pare gândită să evite praguri care ar putea declanșa o analiză de tip fuziune, păstrând totuși expunerea economică. Context: Amazon urcă miza, iar „războiul cloud” se mută pe custodia companiilor AI Mișcarea vine la patru zile după ce Amazon a anunțat o escaladare a angajamentului său: până la 33 miliarde de dolari în Anthropic (8 miliarde deja investite, 5 miliarde capital nou și 20 miliarde condiționate). În schimb, Anthropic s-ar fi angajat să cheltuiască 100 miliarde de dolari pe Amazon Web Services în următorul deceniu. În lectura The Next Web, faptul că cei mai mari doi furnizori de cloud ajung să „concureze pentru a bloca” aceeași companie AI ca client strategic arată că lupta nu mai este doar despre cine are cel mai bun model, ci despre cine încasează costul de calcul al modelelor câștigătoare. Ce urmează: atenție mai mare din partea autorităților și o dependență economică greu de ignorat Articolul plasează tranzacția într-un climat de reglementare mai atent la parteneriatele dintre giganții cloud și dezvoltatorii de AI. Sunt menționate un studiu FTC din 2025 despre riscul de „blocare” a dominației incumbente și scrisori ale senatorilor Elizabeth Warren și Ron Wyden privind relațiile Google–Anthropic și Microsoft–OpenAI, precum și o anchetă publică comună DOJ–FTC lansată în februarie pe ghidajul pentru colaborări între competitori. Chiar dacă Google își limitează formal participația și nu intră în structuri de guvernanță, dimensiunea angajamentului total (circa 43 miliarde de dolari) și dependența de resurse de calcul la scară de gigawați pot deveni, în practică, elementele care atrag întrebările autorităților. [...]