Știri
Știri din categoria Inteligență artificială

Un nou instrument intern de inteligență artificială dezvoltat de Google a devenit atât de popular încât compania a fost nevoită să îi limiteze accesul, potrivit WinFuture, după o creștere rapidă a utilizării în rândul angajaților. Sistemul, numit „Agent Smith”, automatizează sarcini de programare și poate fi controlat inclusiv de pe telefon, schimbând modul în care dezvoltatorii își desfășoară activitatea zilnică.
Agentul funcționează pe baza platformei interne Antigravity și are capacitatea de a accesa autonom documente și date interne, eliminând etape care anterior necesitau intervenție umană. Integrarea în sistemele de comunicare ale companiei permite utilizatorilor să interacționeze cu el ca și cu un coleg, atribuindu-i sarcini complexe pe care le execută independent, revenind doar atunci când are nevoie de clarificări sau când finalizează cerințele.
Popularitatea rapidă a dus însă la probleme de infrastructură. Costurile ridicate de operare ale acestor modele au determinat Google să restricționeze temporar accesul pentru a menține stabilitatea sistemului. În paralel, peste 100 de ingineri lucrează deja la extinderea și îmbunătățirea platformei.
Pe de o parte, eficiența crescută permite echipelor să se concentreze pe sarcini creative și decizii strategice. Pe de altă parte, apar și efecte secundare:
| Aspect | Impact |
|---|---|
| Productivitate | crește semnificativ |
| Timp de execuție | scade considerabil |
| Presiune internă | în creștere |
| Siguranța locurilor de muncă | pusă sub semnul întrebării |
Creșterea vitezei de lucru vine la pachet cu așteptări mai mari din partea managementului, iar unii angajați se tem că automatizarea ar putea reduce nevoia de personal pe termen lung. Reprezentanții Google au evitat să ofere detalii suplimentare, menționând doar că experimentează constant noi soluții bazate pe agenți inteligenți.
În contextul competiției acerbe din domeniul inteligenței artificiale, unde rivali precum OpenAI sau Microsoft accelerează dezvoltarea de astfel de tehnologii, „Agent Smith” ilustrează direcția clară: automatizarea tot mai profundă a muncii de birou, cu beneficii evidente, dar și cu implicații încă neclare pentru piața muncii.
Recomandate

Meta își extinde supravegherea internă a muncii pentru a genera date de antrenare IA , printr-un instrument care va rula pe computerele și aplicațiile interne și va înregistra activitatea angajaților, inclusiv tastele apăsate și clicurile de mouse, potrivit G4Media . Miza operațională este dublă: compania își accelerează dezvoltarea de inteligență artificială folosind date „din producție”, dar crește și presiunea asupra angajaților într-un moment în care sunt așteptate noi reduceri de personal. Instrumentul a fost comunicat angajaților marți și, conform informațiilor din material, va înregistra activitatea din sistemele interne pentru a fi folosită ca set de date la antrenarea tehnologiei de inteligență artificială. BBC a aflat că activitatea angajaților pe un computer Meta ar fi fost accesibilă companiei și înainte, însă utilizarea explicită a urmăririi și înregistrării în scop de instruire și îmbunătățire a instrumentelor IA este elementul nou. Ce se schimbă în practică Din descrierea din articol, noul instrument ar urma să ruleze pe: computerele angajaților Meta; aplicațiile interne ale companiei, și să înregistreze activitatea acestora pentru a o transforma în date de antrenare pentru modele de inteligență artificială. Reacțiile interne citate de BBC indică tensiuni: un angajat care a cerut anonimatul a descris situația drept „foarte distopică”, iar o persoană care a părăsit recent compania a spus că este „doar cea mai recentă modalitate prin care ne impun IA pe gât”. Context: reduceri de personal și înghețarea angajărilor Schimbarea vine pe fondul restructurărilor. Meta a concediat deja aproximativ 2.000 de angajați în acest an, în valuri mai mici, iar angajații se așteaptă la pierderi de locuri de muncă mai mari în lunile următoare, conform articolului. Totodată, luna trecută compania a adoptat o înghețare parțială a angajărilor, care „pare să aibă o amploare mai mare”: site-ul de recrutare folosit de Meta afișa aproximativ 800 de anunțuri în martie, iar acum promovează doar șapte. Un purtător de cuvânt al Meta a refuzat să comenteze eliminarea anunțurilor sau planurile de reduceri, potrivit materialului. De ce contează pentru business Din perspectivă operațională, Meta încearcă să-și alimenteze rapid proiectele de inteligență artificială cu date generate din activitatea internă, într-un moment în care Mark Zuckerberg s-a angajat să crească cheltuielile pentru IA în acest an și să poziționeze compania în fruntea tehnologiei. În același timp, măsura amplifică riscurile de climat intern și de retenție a talentelor, mai ales pe fondul concedierilor și al înghețării angajărilor descrise în articol. [...]

Google a adus în România Pomelli, un instrument de marketing cu inteligență artificială pentru afaceri mici , care poate genera rapid materiale de „brand” – de la imagini cu produse până la campanii pentru rețele sociale – reducând munca necesară pentru producția de conținut, potrivit Știrile ProTV . Pomelli este disponibil „începând din aceste zile” și în alte piețe europene (Uniunea Europeană, Norvegia, Elveția și Marea Britanie). Instrumentul funcționează, deocamdată, în limba engleză, inclusiv la nivelul interfeței, însă utilizatorii pot edita și adapta conținutul pentru română. Ce schimbă pentru micile afaceri: producția de conținut devine un proces automatizat Platforma este prezentată ca un ajutor pentru firmele mici care nu au echipe dedicate de marketing sau bugete consistente pentru creație, dar au nevoie de materiale coerente de comunicare. Pomelli automatizează procesul în trei pași: Analiză : scanează site-ul companiei pentru a identifica detalii despre afacere, precum comunicarea de brand, mesajele, fonturile și culorile; Generare de propuneri : sugerează idei de conținut personalizat și campanii, iar utilizatorul poate explora opțiunile și prin comenzi conversaționale; Creație : generează imagini și clipuri video „de înaltă calitate” pentru social media, site sau reclame, care pot fi editate și descărcate direct. Limitări și disponibilitate În forma actuală, Pomelli generează text doar în engleză , ceea ce înseamnă că firmele care comunică preponderent în română vor avea un pas suplimentar de lucru: traducerea și adaptarea mesajelor. Instrumentul are și o versiune mobilă , optimizată pentru utilizarea de pe telefon, ceea ce îl face mai ușor de folosit în activitatea de zi cu zi a antreprenorilor și a echipelor mici. Pomelli a fost creat ca experiment de Google Labs , în parteneriat cu Google DeepMind , mai notează materialul. [...]

Posibila numire a lui John Ternus la conducerea Apple ar muta accentul strategiei AI spre dispozitive , nu doar spre modele și servicii, iar asta poate conta direct în competiția cu rivalii care împing masiv „AI în cloud”, potrivit unei analize publicate de CNET . Textul pornește de la ideea că un CEO cu profil puternic de „hardware” (adică orientat spre proiectarea și integrarea componentelor și a produsului final) ar putea fi un avantaj pentru planurile Apple în inteligență artificială, tocmai pentru că diferențiatorul companiei a fost istoric combinația strânsă dintre dispozitive, software și servicii. De ce contează pentru AI: controlul asupra „cutiei” în care rulează tehnologia În logica CNET, AI-ul Apple are mai multe șanse să se distingă dacă este împachetat în produse și funcții care rulează eficient pe dispozitivele companiei, unde Apple controlează atât arhitectura hardware, cât și sistemele de operare. Un lider format în zona de hardware ar înclina natural spre această abordare: optimizare la nivel de dispozitiv, integrare și livrare de funcții AI ca parte din experiența produsului. Această direcție ar putea susține o strategie în care AI-ul nu este perceput ca un „add-on” (o funcție adăugată ulterior), ci ca o componentă proiectată împreună cu produsul. Limitările informației din sursă Materialul CNET este un comentariu/analiză și nu oferă, în fragmentul disponibil, detalii operaționale verificabile despre un plan concret de implementare, termene sau investiții. De asemenea, nu sunt prezentate cifre sau indicatori financiari care să permită o evaluare a impactului economic pe termen scurt. În consecință, concluzia rămâne una de interpretare editorială: un CEO „de hardware” ar putea fi potrivit pentru o strategie AI centrată pe dispozitive, însă direcția efectivă depinde de deciziile companiei și de execuție. [...]

Google își mobilizează conducerea și resursele interne pentru a recupera decalajul față de Anthropic la „agenți” de programare , potrivit TechRadar , care relatează despre un memo intern atribuit cofondatorului Sergey Brin și despre formarea unui „strike team” dedicat îmbunătățirii capabilităților Gemini în „agentic execution” (execuție autonomă de sarcini, în special scriere și finalizare de cod). Miza este una operațională: dacă Gemini rămâne în urmă la agenți care pot produce „cod final”, Google riscă să piardă viteză în dezvoltarea internă de software și, pe termen mai lung, în cursa pentru automatizarea muncii de cercetare în AI. „Strike team” pentru agenți de cod: presiune pe Gemini Conform unui reportaj The Information, citat de TechRadar, Google ar fi creat o echipă specială („strike team”) pentru a contracara progresul Anthropic și al agentului său Claude Code . În memo-ul menționat, Brin le-ar fi transmis inginerilor și cercetătorilor AI că Google trebuie să reducă rapid diferența: „Pentru a câștiga sprintul final, trebuie să reducem urgent decalajul în execuția agentică și să transformăm modelele noastre în dezvoltatori principali” ai codului final. Aceeași relatare susține că Sergey Brin și Koray Kavukcuoglu, director tehnologic la Google DeepMind, ar fi implicați direct în acest efort, semnalând importanța proiectului la nivelul conducerii. De ce e posibil să nu ajungă la public Direcția pare să fie, în primul rând, îmbunătățirea capacității Gemini de a lucra cu codul intern al Google. Asta ar crește performanța instrumentelor folosite de inginerii și cercetătorii companiei, însă ar reduce șansele ca rezultatul să fie lansat rapid ca produs public: dacă un agent este antrenat pe cod proprietar, publicarea lui devine dificilă. TechRadar notează totuși că instrumentele interne îmbunătățite „ar putea teoretic” să ajute ulterior la construirea unor modele mai bune care să poată fi lansate public. Context: „AI takeoff” și automatizarea cercetării Dincolo de competiția directă cu Anthropic, The Information (citat de TechRadar) indică un obiectiv mai ambițios: „AI takeoff”, adică sisteme AI capabile să se îmbunătățească. În această logică, un agent avansat de programare, combinat cu AI care rezolvă probleme de matematică și rulează experimente, ar putea automatiza la scară mare munca cercetătorilor și inginerilor AI. În acest moment, rămâne neclar dacă rezultatele „strike team”-ului vor fi vizibile în produse pentru utilizatorii externi sau vor rămâne, cel puțin inițial, un avantaj strict intern. [...]

Google aduce „ Continued Conversation ” în Gemini pentru Home, o schimbare care reduce fricțiunea în utilizarea zilnică a asistentului vocal și poate crește frecvența comenzilor în casă prin interacțiuni mai naturale, potrivit Google Blog . Funcția pornește de la un comportament simplu: după prima comandă „Hey Google”, Gemini răspunde și păstrează microfonul activ pentru câteva secunde (semnalizat prin luminile pulsatorii ale dispozitivului), astfel încât utilizatorul să poată continua imediat conversația fără a repeta formula de activare. Ce se schimbă operațional: patru îmbunătățiri față de abordarea anterioară Google spune că versiunea actualizată a „Continued Conversation” include patru îmbunătățiri majore, cu impact direct în utilizarea de zi cu zi: Context conversațional: Gemini „ține minte” firul discuției pentru întrebări de tip follow-up, spre deosebire de Google Assistant, unde utilizatorii ajung mai des să repete informații. Suport multilingv: funcția este disponibilă „global” în toate limbile și regiunile acceptate, nu doar în engleza din SUA. Detecție mai bună a „vorbitului pe lângă” (side-talk): sistemul ar distinge mai bine între comenzi și conversațiile din casă, pentru a reduce răspunsurile accidentale. Acces la nivel de locuință: odată activată, funcția se aplică tuturor celor din casă, inclusiv oaspeților. Cum se activează Pentru activare, utilizatorii trebuie să deschidă aplicația Google Home și să urmeze traseul: Home Settings > Gemini for Home voice assistant > Continued Conversation . Google menționează că detalii suplimentare despre această funcție și alte actualizări Gemini sunt disponibile pe pagina de comunitate Google Home, fără a oferi în material un calendar suplimentar sau limitări tehnice detaliate. [...]

Google își diversifică agresiv lanțul de aprovizionare pentru cipuri AI, mizând pe patru parteneri ca să reducă dependența de Nvidia în inferență , potrivit The Next Web . Strategia combină mai mulți furnizori de proiectare, o relație unică de fabricație cu TSMC și o foaie de parcurs care merge de la TPU-ul „Ironwood” (deja livrat) până la procesoare pe 2 nanometri așteptate în 2027. Miza este economică și operațională: inferența (rularea modelelor pentru utilizatori) devine costul dominant în AI, iar Google încearcă să obțină un cost mai mic „pe interogare” prin cipuri dedicate, în locul GPU-urilor generaliste. Ce face Google diferit: patru parteneri, roluri separate Programul de cipuri al Google este construit în jurul a patru parteneri de proiectare, cu responsabilități împărțite pe segmente: Broadcom : gestionează variantele de înaltă performanță și proiectează TPU v8 pentru antrenare („Sunfish”), țintind procesul TSMC pe 2 nm pentru finalul lui 2027 . Google și Broadcom au semnat pe 6 aprilie un acord pe termen lung pentru livrări până în 2031 (TPU-uri și componente de rețea). MediaTek : proiectează varianta optimizată pe cost pentru inferență a TPU v8 („Zebrafish”), tot pentru TSMC 2 nm în finalul lui 2027 . Implicarea MediaTek a început cu module I/O și componente periferice la Ironwood, unde designurile sale ar fi cu 20–30% mai ieftine decât alternativele. Marvell : este în discuții cu Google pentru o unitate de procesare a memoriei și un nou TPU orientat pe inferență; dacă se semnează contractul, ar deveni un al treilea partener de design pe această zonă. Google ar intenționa să producă aproape două milioane de astfel de unități, cu finalizarea designului așteptată anul viitor. Intel : are un acord multianual (din 9 aprilie) pentru procesoare Xeon și unități personalizate de procesare pentru infrastructura centrelor de date AI ale Google, acoperind straturile de rețea și calcul general care „înconjoară” TPU-urile, nu acceleratoarele AI propriu-zise. Indiferent de partenerul de proiectare, TSMC fabrică toate cipurile personalizate ale Google , ceea ce face relația cu producătorul taiwanez un element structural al strategiei. Ironwood, „capul de pod” în inferență Piesa centrală „de azi” este Ironwood , a șaptea generație TPU și primul cip Google proiectat explicit pentru inferență. Conform articolului, Ironwood oferă: de 10 ori performanța de vârf a TPU v5p; 192 GB memorie HBM3E per cip și 7,2 TB/s lățime de bandă; scalare până la 9.216 cipuri răcite cu lichid într-un „superpod”, cu 42,5 exaflopși FP8 . Ironwood este deja disponibil pentru clienții Google Cloud, iar Google intenționează să producă milioane de unități în acest an. Anthropic s-a angajat la până la un milion de TPU-uri , iar Meta are un aranjament de închiriere, potrivit sursei. De ce contează: inferența schimbă economia AI Rațiunea strategică invocată este că antrenarea unui model de vârf este un eveniment intens, dar relativ „punctual”, în timp ce inferența este continuă și crește cu fiecare utilizator și produs care integrează AI. La scara Google (căutări augmentate cu AI, conversații Gemini, apeluri API), costul per inferență devine determinant pentru profitabilitatea întregului business AI. În acest context, Google încearcă să atace punctul forte al Nvidia nu printr-un „cip unic” superior, ci printr-un sistem de cipuri specializate pe sarcini și costuri, care să reducă treptat ponderea hardware-ului Nvidia în infrastructura proprie. Cifrele și ce urmează la Cloud Next Articolul menționează proiecții de livrări totale TPU de 4,3 milioane de unități în 2026 , cu o creștere la peste 35 de milioane până în 2028 . Totodată, TrendForce ar estima că vânzările de cipuri personalizate (ASIC – circuite integrate proiectate pentru o sarcină specifică) vor crește cu 45% în 2026 , față de 16% pentru livrările de GPU-uri, iar piața ar putea ajunge la 118 miliarde dolari (aprox. 531 miliarde lei ) până în 2033. Google Cloud Next începe miercuri, la Las Vegas, cu keynote-uri susținute de Sundar Pichai și Thomas Kurian. Evenimentul este așteptat să detalieze arhitectura următoarei generații de TPU și legătura dintre Ironwood și generația v8. În paralel, Nvidia ar încerca să rămână relevantă și în ecosistemul de cipuri personalizate, inclusiv prin investiția de 2 miliarde dolari (aprox. 9 miliarde lei ) în Marvell și prin programul NVLink Fusion, conform sursei. [...]