Știri
Știri din categoria Inteligență artificială

Google negociază cu Pentagonul rularea TPU-urilor în medii clasificate, un pas care ar putea reduce decalajul față de AWS și Microsoft pe contractele guvernamentale, potrivit Tom's Hardware, care citează un material The Information bazat pe două persoane cu informații directe despre discuții.
Negocierile vizează implementarea modelului Gemini în setări clasificate ale Departamentului Apărării al SUA (DoD) și includ două direcții: adăugarea de rack-uri cu GPU-uri (procesoare grafice folosite frecvent pentru sarcini de inteligență artificială) în Google Distributed Cloud și, în paralel, activarea TPU-urilor (acceleratoarele AI dezvoltate de Google) în medii clasificate acreditate. Conform sursei, ar fi prima dată când TPU-urile ar rula într-un astfel de cadru.
Din perspectiva Google, discuțiile au o miză comercială și operațională: compania are aproximativ 14% din piața totală de cloud, față de 28% pentru AWS și 21% pentru Microsoft, conform Synergy Research Group (date „la final de 2025”, citate în articol). Diferența ar fi și mai mare în zona de cloud pentru medii clasificate, unde rivalii rulează deja volume importante de lucru, iar Google nu.
În acest context, divizia Google Public Sector, care conduce discuțiile cu DoD, ar fi vizat circa 6 miliarde de dolari (aprox. 27,6 miliarde lei) în „bookings” pentru 2025–2027, din care 2 miliarde de dolari (aprox. 9,2 miliarde lei) din apărare, potrivit unui plan strategic intern pe care The Information spune că l-a văzut.
Un element central al negocierilor este limbajul contractual. Propunerea ar permite Pentagonului să folosească Gemini pentru „toate scopurile legale”, însă Google ar insista pentru prevederi care să interzică:
Tom’s Hardware notează că aceste condiții ar oglindi acordul pe care OpenAI l-a încheiat cu Pentagonul mai devreme în acest an, iar directorul general al OpenAI, Sam Altman, ar fi cerut Pentagonului să extindă aceleași condiții către toți furnizorii de AI.
Aceleași teme ar fi stat la baza ruperii negocierilor Pentagonului cu Anthropic în februarie, după ce compania ar fi refuzat să renunțe la restricții. Ulterior, Pentagonul ar fi desemnat Anthropic drept „risc de lanț de aprovizionare” și ar fi început eliminarea treptată, pe șase luni, a modelului Claude din sistemele guvernamentale. Un judecător federal ar fi descris ulterior această etichetare drept „orwelliană”, potrivit articolului.
Materialul nu indică un calendar sau un rezultat al negocierilor și nici detalii despre forma finală a contractului. Cert este că, dacă TPU-urile ajung să fie operate în medii clasificate acreditate, Google ar bifa o capabilitate pe care o folosește deja masiv în cloud-ul comercial pentru antrenarea și rularea (inferența) Gemini, dar pe care nu a avut-o până acum în segmentul guvernamental clasificat.
Recomandate

Peste 50 de directori de resurse umane din companii Fortune 500 au discutat la New York despre cum accelerează adoptarea AI la locul de muncă , într-un summit „Leading the AI Transformation” organizat de Grow with Google , potrivit Google . Miza întâlnirii a fost una operațională: cum își pregătesc organizațiile oamenii și procesele pentru folosirea inteligenței artificiale (AI) în activitatea curentă, nu doar ca proiect tehnologic. Evenimentul a reunit, la biroul Google din New York, directori de resurse umane (CHRO) și lideri de „learning & development” (formare și dezvoltare) din companii Fortune 500, cu obiectivul de a-i „echipa” pentru a conduce adoptarea AI și pentru a pune accent pe felul în care oamenii folosesc AI pentru a „debloca” potențial nou. Trei idei de implementare: decizie, mentalitate, exemplu de la vârf Google rezumă discuțiile în trei direcții care țin de managementul schimbării și de guvernanța internă a adoptării AI: AI este o alegere, nu o inevitabilitate. Profesorul David Autor a susținut că viitorul nu este un exercițiu de prognoză, ci o „alegere de proiectare”, ceea ce implică faptul că organizațiile decid cum integrează AI în echipe. Pentru liderii HR și de formare, asta înseamnă un rol activ în a trata AI ca „colaborator” care crește potențialul uman. „Mentalitatea AI” cere curiozitate și curaj, nu doar noțiuni de bază. Ca exemple, Google indică faptul că Walmart oferă „Google AI Professional Certificate” pentru 1,6 milioane de angajați, iar Citi își instruiește întreaga forță de muncă despre cum să scrie „prompturi” (instrucțiuni pentru modele AI). Transformarea începe când liderii dau tonul. Mesajul transmis este că managementul trebuie să folosească instrumente AI și să modeleze „experimentarea responsabilă”, pentru a da echipelor spațiu să testeze și să învețe. De ce contează pentru companii Din perspectiva operațională, mesajul central al summitului este că adoptarea AI este tratată ca un proiect de resurse umane și de competențe, nu doar ca o implementare IT: instruirea la scară mare, schimbarea obiceiurilor de lucru și implicarea conducerii sunt prezentate ca elemente-cheie pentru ca AI să ajungă în activitatea de zi cu zi. Google nu oferă în material detalii despre rezultate măsurabile ale summitului sau despre un calendar de implementare în companiile participante. [...]

Google spune că a suspendat mai multe aplicații „nudify” din Play Store și investighează în continuare problema , după ce o analiză a arătat că astfel de instrumente bazate pe inteligență artificială sunt încă ușor de găsit și descărcat, inclusiv de minori, potrivit Android Authority . Miza este una de aplicare a regulilor platformei: deși politicile Apple și Google restricționează aplicațiile care promovează exploatarea sau abuzul, căutări după termeni precum „nudify” sau „undress” ar afișa „zeci” de astfel de aplicații în App Store și Google Play. În plus, cele două magazine ar promova aceste instrumente prin reclame și sugestii de completare automată (autocomplete), susține publicația, citând un raport recent. Un element cu impact operațional direct este clasificarea de vârstă: unele dintre aplicații ar fi evaluate „E” („pentru toată lumea”), ceea ce ar permite, legal, descărcarea lor și de către copii, conform articolului. Răspunsul Google: suspendări și „proces în desfășurare” Google a transmis publicației că Play Store „nu permite aplicații care conțin conținut sexual” și că, atunci când sunt raportate încălcări, compania investighează și ia măsuri. Compania spune că „multe” dintre aplicațiile menționate în raport au fost suspendate și că verificările continuă. „Google Play nu permite aplicații care conțin conținut sexual. Când ne sunt raportate încălcări ale politicilor noastre, investigăm și luăm măsurile adecvate. Multe dintre aplicațiile la care se face referire în acest raport au fost suspendate din Google Play pentru încălcarea politicilor noastre. Procesul nostru de investigare și aplicare a regulilor este în desfășurare.” Ce arată raportul și ce a făcut Apple Pentru context, raportul citat de Android Authority ar fi identificat 20 de aplicații „nudify” în Play Store și 18 în App Store. Apple ar fi început, la rândul său, să ia măsuri: compania a spus pentru Bloomberg că a eliminat 15 aplicații, potrivit aceleiași surse. În acest moment, Google nu indică un termen pentru finalizarea investigației și nici câte aplicații au rămas active; compania se limitează la a spune că aplicarea regulilor este „în desfășurare”. [...]

Google mută „Modul AI” mai aproape de navigarea reală pe web , afișând paginile deschise în paralel cu interfața conversațională, o schimbare care poate reduce „săritul” între file și poate crește timpul petrecut în ecosistemul Search/Chrome, potrivit TechCrunch . Noua funcție se aplică în AI Mode (experiența de căutare conversațională a Google) pe Chrome pentru desktop : când utilizatorul dă click pe un link din AI Mode, pagina web se deschide „side-by-side” (alăturat) cu AI Mode. Obiectivul, conform companiei, este să fie mai ușor să explorezi site-uri relevante, să compari detalii și să pui întrebări de follow-up fără să pierzi contextul căutării. Un exemplu dat este cumpărarea unui aparat de cafea: utilizatorul descrie ce caută în AI Mode, primește opțiuni, iar după ce deschide site-ul unui retailer lângă AI Mode poate întreba lucruri punctuale (de tipul „cât de ușor se curăță?”). AI Mode folosește atât context din pagina deschisă, cât și informații „din restul webului” pentru a răspunde. Căutare cu context din filele deja deschise Google introduce și o a doua actualizare: posibilitatea de a căuta în AI Mode folosind context din filele Chrome pe care utilizatorul le are deja deschise. Pe Chrome desktop sau mobil, utilizatorul poate apăsa noul meniu „plus” din caseta de căutare de pe pagina „New Tab” sau din AI Mode și poate selecta file recente pe care să le includă în căutare. Asta permite combinarea mai multor file, imagini sau fișiere ca „material” pentru întrebările adresate în AI Mode. TechCrunch notează exemple precum: cercetarea unor trasee de drumeție, folosind filele deja deschise pentru a cere sugestii similare în altă zonă; pregătirea pentru un examen (de exemplu, statistică), aducând în context file cu notițe, slide-uri și alte materiale pentru a cere exemple care explică un concept. Disponibilitate și extindere Actualizările sunt disponibile acum în SUA, iar Google spune că plănuiește extinderea și în alte regiuni, fără să ofere un calendar. [...]

Google își mută centrul de greutate spre AI la I/O 2026 , iar programul oficial indică o presiune mai mare pe dezvoltatori să construiască și să distribuie aplicații cu funcții de inteligență artificială în ecosistemul companiei, potrivit Mobilissimo . Evenimentul începe pe 19 mai, la ora 20:00 (ora României), cu keynote-ul principal, urmat în aceeași zi de o prezentare dedicată dezvoltatorilor. Ce transmite agenda: AI devine axa principală pentru produse și dezvoltatori Programul confirmă că inteligența artificială va avea un rol central încă din prima zi, după prezentările principale. Sunt anunțate sesiuni precum „Ce este nou în Google AI”, „Ce este nou în Android”, „Ce este nou în Chrome”, dar și o sesiune despre fluxuri de lucru bazate pe „agenți AI” (instrumente software care pot executa sarcini în numele utilizatorului, pe baza unor instrucțiuni). În a doua parte a zilei, agenda include prezentări despre construirea de „experiențe AI de nouă generație” folosind Google AI Studio , plus actualizări pentru Google Play și Firebase. Mobilissimo notează că sesiunea dedicată AI promite o privire amplă asupra ecosistemului Google, cu teme precum instrumente multimodale, generare de conținut media, robotică și agenți inteligenți. Unde rămâne Android 17 și cum e structurat evenimentul În paralel cu zona de AI, partea dedicată Android 17 ar urma să aducă informații despre îmbunătățiri de performanță și funcții noi. Evenimentul se desfășoară pe parcursul a două zile, cu sesiuni live transmise din Mountain View, urmate de conținut disponibil la cerere și laboratoare practice pentru dezvoltatori. Mobilissimo punctează că accentul puternic pe AI poate ridica întrebări privind ponderea altor segmente, precum hardware-ul, însă direcția generală este alinierea la tendințele din industrie, cu miză pe automatizare, productivitate și „experiențe inteligente”. Notă: articolul Mobilissimo citează ca sursă secundară Android Authority, prin linkul „Via”. [...]

OpenAI restricționează accesul la GPT‑Rosalind , un model AI pentru cercetare în științele vieții, mizând pe controlul riscurilor de „dublă utilizare”. Potrivit The Next Web , noua serie de modele este disponibilă ca „research preview” în ChatGPT, Codex și prin OpenAI API, însă doar printr-un program de acces de încredere (trusted-access) pentru clienți enterprise verificați din SUA. Modelul, denumit după Rosalind Franklin, este primul „domain-specific model series” al OpenAI și este ajustat (fine-tuned) pentru biochimie, genomică și ingineria proteinelor. În termeni practici, OpenAI îl poziționează ca instrument pentru sinteză de dovezi, generare de ipoteze, planificare experimentală și fluxuri științifice în mai mulți pași, în special în etapele timpurii ale descoperirii de medicamente. De ce accesul este limitat: riscuri de securitate biologică Publicația notează că lansarea vine cu avertismente legate de utilizarea în scopuri periculoase a modelelor antrenate pe date biologice, inclusiv pentru proiectarea de agenți patogeni. În acest context, OpenAI a ales să ofere GPT‑Rosalind exclusiv organizațiilor care trec printr-un proces de verificare și care trebuie să demonstreze: că lucrează pentru îmbunătățirea rezultatelor de sănătate pentru oameni; că au controale solide de securitate și guvernanță. În faza de „research preview”, utilizarea nu consumă creditele API existente, potrivit aceleiași surse. Ce adaugă operațional: plugin și integrare cu instrumente științifice Pe lângă model, OpenAI introduce un plugin de cercetare pentru științele vieții în Codex, care conectează modelele la peste 50 de instrumente și surse de date științifice. Scopul este ca cercetătorii să poată interoga baze de date biologice și rula „pipeline-uri” computaționale (lanțuri de procesare) dintr-o singură interfață. Partenerii de lansare menționați includ Amgen, Moderna, Thermo Fisher Scientific și Allen Institute. OpenAI mai lucrează cu Los Alamos National Laboratory la proiectare de proteine și catalizatori ghidată de AI. Performanță raportată: benchmark-uri și evaluare terță parte Conform rezultatelor prezentate de OpenAI, GPT‑Rosalind a obținut o rată de trecere de 0,751 pe BixBench (benchmark de bioinformatică dezvoltat de Edison Scientific). Pe LABBench2, modelul ar fi depășit GPT‑5.4 la șase din 11 sarcini, cu cel mai mare avantaj pe CloningQA, o sarcină care presupune proiectarea completă a reactivilor pentru protocoale de clonare moleculară. Cea mai puternică validare semnalată în material vine dintr-o evaluare realizată împreună cu Dyno Therapeutics, unde modelul a fost testat pe secvențe RNA nepublicate, pentru a reduce riscul de „contaminare” a benchmark-urilor. În varianta „best-of-ten”, rezultatele au fost peste percentila 95 a experților umani la predicție și în jurul percentilei 84 la generare de secvențe, potrivit OpenAI și relatărilor citate de The Next Web . Ce urmează Deocamdată, distribuția controlată prin programul „trusted-access” sugerează că OpenAI tratează GPT‑Rosalind ca pe un produs cu potențial ridicat, dar și cu risc ridicat. Extinderea accesului dincolo de clienții enterprise verificați și dincolo de SUA nu este detaliată în material. [...]

Jensen Huang , CEO Nvidia , avertizează că alarmismul despre AI poate lovi direct în competitivitatea tehnologică a SUA , prin frânarea formării de ingineri software și amplificarea unei frici nejustificate în piață, potrivit iThome , care relatează despre apariția sa în podcastul lui Dwarkesh Patel. În intervenție, Huang a respins teza că inteligența artificială ar fi o amenințare de tip „armă nucleară” și a criticat dur „supraîncălzirea” discursului din industrie. El susține că astfel de comparații au efect de sperietoare: cresc ostilitatea și teama publicului față de AI, iar în final pot afecta capacitatea Statelor Unite de a rămâne competitive în tehnologie. Impactul operațional: riscul de a opri formarea de ingineri Miza, în viziunea lui Huang, nu este că AI va „șterge” meseriile din software, ci că societatea ar putea reacționa greșit la anxietatea legată de automatizare. CEO-ul Nvidia a spus că adevărata criză pentru industrie ar apărea dacă, din teama că AI va înlocui oamenii, s-ar reduce investiția în pregătirea viitorilor ingineri software. Piața și percepția investitorilor: frica de „disrupție” fără bază Huang a respins și ideea că AI va elimina toate rolurile de inginerie software, argumentând că panica nu are fundament. iThome notează că mai multe companii de software au fost afectate la bursă pe fondul îngrijorărilor că AI va „răsturna” industria, însă Huang consideră că reacția este exagerată și cere o evaluare rațională a progresului tehnologic, nu decizii luate „din frică”. În ansamblu, mesajul său vizează temperarea narațiunilor extreme: nu doar pentru a corecta percepții despre piața muncii, ci și pentru a evita un efect secundar cu impact economic — subminarea bazei de talente care susține sectorul tehnologic. [...]