Știri
Știri din categoria Inteligență artificială

Google estimează o creștere de 15% a veniturilor trimestriale, iar investitorii sunt atenți la detalii despre parteneriatul cu Apple pentru Siri, potrivit CNBC. Această colaborare implică utilizarea tehnologiei de inteligență artificială Gemini de la Google pentru a îmbunătăți asistentul virtual Siri al Apple.
Analiștii sunt interesați de detaliile acordului dintre Apple și Google, care vizează modernizarea produselor de inteligență artificială ale Apple, inclusiv Siri. Parteneriatul este considerat unul dintre cele mai importante pentru Gemini, având în vedere baza largă de utilizatori a Apple, care numără 2,5 miliarde de dispozitive active. Chiar dacă Google nu va avea acces la date specifice ale utilizatorilor, amploarea utilizării poate oferi beneficii semnificative pentru antrenarea modelelor AI ale Google.
Un aspect important al parteneriatului este că Apple a ales Google în detrimentul altor startup-uri de inteligență artificială, cum ar fi OpenAI. Aceasta este văzută ca o victorie defensivă pentru Google, consolidându-și poziția pe piața AI.
Cu ocazia raportării rezultatelor financiare, Google este așteptată să anunțe o creștere de 15% a veniturilor trimestriale față de anul precedent. Aceasta este prima ocazie în care conducerea Alphabet va discuta cu acționarii despre acest parteneriat de la anunțul Apple din ianuarie, conform căruia Gemini va fi tehnologia AI care va alimenta revizuirea Siri.
„Vor avea masa critică necesară și, chiar dacă nu vor obține informații despre consumatori, poate vor putea vedea ce întrebări sunt adresate, ceea ce ar putea ajuta Google să-și antreneze modelele AI,” a declarat Gil Luria, director general la firma de cercetare tehnologică D.A. Davidson.
Apple și Google au confirmat că parteneriatul va utiliza tehnologia Gemini și infrastructura cloud a Google pentru modelele fundamentale viitoare ale Apple. Funcționalitățile Apple Intelligence, inclusiv Siri și instrumentele de scriere AI, vor continua să funcționeze pe dispozitivele Apple și pe cloud-ul privat al companiei.
CEO-ul Apple, Tim Cook, a discutat despre acest parteneriat, subliniind că Siri va fi personalizat pentru utilizatori, dar nu va avea acces la informații precum Gmail. Cook a adăugat că Siri va „ști multe” și că Apple va oferi mai multe detalii odată cu lansarea actualizată a Siri.
Chiar dacă parteneriatul promite multe inovații, există încă multe întrebări fără răspuns cu privire la detaliile exacte ale colaborării. Bloomberg a raportat că Apple ar plăti Google aproximativ 1 miliard de dolari anual pentru acest aranjament, deși termenii acordului nu au fost confirmați oficial de cele două companii.
În concluzie, parteneriatul dintre Google și Apple nu doar că aduce beneficii financiare semnificative ambelor părți, dar și întărește poziția Google pe piața AI, oferindu-i acces la o bază largă de utilizatori și posibilitatea de a-și îmbunătăți modelele de inteligență artificială.
Recomandate

Google își diversifică agresiv lanțul de aprovizionare pentru cipuri AI, mizând pe patru parteneri ca să reducă dependența de Nvidia în inferență , potrivit The Next Web . Strategia combină mai mulți furnizori de proiectare, o relație unică de fabricație cu TSMC și o foaie de parcurs care merge de la TPU-ul „Ironwood” (deja livrat) până la procesoare pe 2 nanometri așteptate în 2027. Miza este economică și operațională: inferența (rularea modelelor pentru utilizatori) devine costul dominant în AI, iar Google încearcă să obțină un cost mai mic „pe interogare” prin cipuri dedicate, în locul GPU-urilor generaliste. Ce face Google diferit: patru parteneri, roluri separate Programul de cipuri al Google este construit în jurul a patru parteneri de proiectare, cu responsabilități împărțite pe segmente: Broadcom : gestionează variantele de înaltă performanță și proiectează TPU v8 pentru antrenare („Sunfish”), țintind procesul TSMC pe 2 nm pentru finalul lui 2027 . Google și Broadcom au semnat pe 6 aprilie un acord pe termen lung pentru livrări până în 2031 (TPU-uri și componente de rețea). MediaTek : proiectează varianta optimizată pe cost pentru inferență a TPU v8 („Zebrafish”), tot pentru TSMC 2 nm în finalul lui 2027 . Implicarea MediaTek a început cu module I/O și componente periferice la Ironwood, unde designurile sale ar fi cu 20–30% mai ieftine decât alternativele. Marvell : este în discuții cu Google pentru o unitate de procesare a memoriei și un nou TPU orientat pe inferență; dacă se semnează contractul, ar deveni un al treilea partener de design pe această zonă. Google ar intenționa să producă aproape două milioane de astfel de unități, cu finalizarea designului așteptată anul viitor. Intel : are un acord multianual (din 9 aprilie) pentru procesoare Xeon și unități personalizate de procesare pentru infrastructura centrelor de date AI ale Google, acoperind straturile de rețea și calcul general care „înconjoară” TPU-urile, nu acceleratoarele AI propriu-zise. Indiferent de partenerul de proiectare, TSMC fabrică toate cipurile personalizate ale Google , ceea ce face relația cu producătorul taiwanez un element structural al strategiei. Ironwood, „capul de pod” în inferență Piesa centrală „de azi” este Ironwood , a șaptea generație TPU și primul cip Google proiectat explicit pentru inferență. Conform articolului, Ironwood oferă: de 10 ori performanța de vârf a TPU v5p; 192 GB memorie HBM3E per cip și 7,2 TB/s lățime de bandă; scalare până la 9.216 cipuri răcite cu lichid într-un „superpod”, cu 42,5 exaflopși FP8 . Ironwood este deja disponibil pentru clienții Google Cloud, iar Google intenționează să producă milioane de unități în acest an. Anthropic s-a angajat la până la un milion de TPU-uri , iar Meta are un aranjament de închiriere, potrivit sursei. De ce contează: inferența schimbă economia AI Rațiunea strategică invocată este că antrenarea unui model de vârf este un eveniment intens, dar relativ „punctual”, în timp ce inferența este continuă și crește cu fiecare utilizator și produs care integrează AI. La scara Google (căutări augmentate cu AI, conversații Gemini, apeluri API), costul per inferență devine determinant pentru profitabilitatea întregului business AI. În acest context, Google încearcă să atace punctul forte al Nvidia nu printr-un „cip unic” superior, ci printr-un sistem de cipuri specializate pe sarcini și costuri, care să reducă treptat ponderea hardware-ului Nvidia în infrastructura proprie. Cifrele și ce urmează la Cloud Next Articolul menționează proiecții de livrări totale TPU de 4,3 milioane de unități în 2026 , cu o creștere la peste 35 de milioane până în 2028 . Totodată, TrendForce ar estima că vânzările de cipuri personalizate (ASIC – circuite integrate proiectate pentru o sarcină specifică) vor crește cu 45% în 2026 , față de 16% pentru livrările de GPU-uri, iar piața ar putea ajunge la 118 miliarde dolari (aprox. 531 miliarde lei ) până în 2033. Google Cloud Next începe miercuri, la Las Vegas, cu keynote-uri susținute de Sundar Pichai și Thomas Kurian. Evenimentul este așteptat să detalieze arhitectura următoarei generații de TPU și legătura dintre Ironwood și generația v8. În paralel, Nvidia ar încerca să rămână relevantă și în ecosistemul de cipuri personalizate, inclusiv prin investiția de 2 miliarde dolari (aprox. 9 miliarde lei ) în Marvell și prin programul NVLink Fusion, conform sursei. [...]

Google își accelerează strategia de a reduce dependența de Nvidia prin discuții cu Marvell Technology pentru dezvoltarea a două cipuri dedicate inteligenței artificiale, într-un demers care ar putea influența costurile și capacitatea de livrare a Google Cloud, potrivit ITmedia . Informația, atribuită de ITmedia publicației The Information, indică negocieri între Google (parte a Alphabet) și Marvell pentru a crea două componente noi menite să ruleze mai eficient modele de inteligență artificială. Miza este dublă: performanță mai bună pentru sarcini AI și o alternativă mai credibilă la plăcile grafice (GPU) Nvidia, care domină infrastructura de antrenare și inferență pentru AI. Două cipuri, două roluri: memorie și procesare AI Potrivit materialului, proiectul ar include: un „memory processing unit” (unitate de procesare a memoriei) , concepută să funcționeze împreună cu TPU -urile Google (Tensor Processing Unit – acceleratoare dezvoltate de Google pentru calcule AI); un nou TPU , proiectat special pentru rularea modelelor de inteligență artificială. ITmedia notează că Google lucrează de mai mult timp la poziționarea TPU ca alternativă viabilă la GPU-urile Nvidia folosite pe scară largă în industrie. De ce contează pentru Google Cloud și investitori Articolul leagă direct această inițiativă de presiunea asupra Google de a demonstra investitorilor că investițiile în AI se transformă în rezultate comerciale. În acest context, vânzările de TPU sunt prezentate ca un factor important pentru creșterea veniturilor din Google Cloud. Cu alte cuvinte, dacă Google reușește să-și întărească oferta de cipuri proprii (și ecosistemul din jurul lor), poate câștiga atât la nivel de costuri și disponibilitate a infrastructurii, cât și la nivel de diferențiere față de competitori care depind mai mult de Nvidia. Calendar: proiectare posibil finalizată anul viitor Conform informațiilor citate, cele două companii ar urmări ca proiectarea unității de procesare a memoriei să fie finalizată cel mai devreme anul viitor , după care ar urma livrarea pentru producție de test . Materialul nu oferă detalii despre termeni comerciali, volume sau despre momentul în care noul TPU ar putea intra în producție. [...]
Cererea pentru rularea locală a modelelor de inteligență artificială ar putea împinge Apple spre un model de abonament pentru „compute” în cloud pe Apple Silicon , pe fondul interesului tot mai mare pentru Mac-uri cu memorie unificată mare și pentru utilizarea de dispozitive „headless” (fără monitor) ca servere personale, potrivit unei analize 9to5Mac . În material se arată că Apple Silicon este „impresionant optimizat” pentru rularea modelelor AI local, iar cererea se vede inclusiv în disponibilitatea din piață: Mac Studio ar fi „larg epuizate”, iar Mac mini „imposibil de găsit”. O parte dintre cumpărători vizează explicit configurații high-end, cu cantități mari de memorie unificată, potrivite pentru rularea locală a modelelor de tip LLM (modele lingvistice mari). De la vânzarea de hardware la închirierea de putere de calcul Unghiul economic al analizei este că Apple ar putea monetiza această cerere nu doar prin vânzări punctuale de hardware, ci printr-un serviciu recurent: acces lunar la macOS și Apple Silicon „în cloud”, într-un model similar cu furnizori precum AWS (Amazon Web Services). Ideea ar răspunde nevoii unor utilizatori de a rula agenți software care să se conecteze la servicii Apple și aplicații de Mac fără să le folosească propriile calculatoare. Autorul notează că tocmai de aceea unii cumpără Mac mini pentru a le folosi ca dispozitive „mereu pornite”, fără periferice, în rol de mini-servere. Ce infrastructură ar putea folosi Apple 9to5Mac indică faptul că Apple are deja o bază tehnică prin „ Private Cloud Compute ”, iar aceste servere ar fi „în mare parte subutilizate deocamdată”, până când compania își pregătește modelele Apple Intelligence „ajustate” (tuned) pentru Gemini. În același timp, analiza amintește că Apple a mai „flirtat” cu piața de servere prin Xserve și că a existat și o variantă de Mac Pro (2019) care putea fi montată în rack, însă fără un înlocuitor direct în prezent. De ce contează: marje și venituri recurente Argumentul central este potențialul de profit al unui astfel de model: analiza compară cu Amazon, unde „mai mult de jumătate” din profituri ar proveni din AWS, nu din retail. În acest context, Apple ar putea crea „un nou segment” de business prin închirierea de putere de calcul pe Apple Silicon, reducând presiunea pe achiziția de Mac-uri scumpe pentru rulare locală. Materialul oferă și un exemplu orientativ de monetizare, fără a-l prezenta ca informație confirmată: în loc să vinzi o dată un computer de 4.000 de dolari (aprox. 18.400 lei), ai putea încasa „200+ dolari” pe lună (aprox. 920+ lei) atât timp cât clientul are nevoie de resurse în cloud. Ce ar putea influența decizia Analiza leagă posibilitatea unei astfel de direcții și de schimbări la vârful companiei: Tim Cook ar putea renunța la funcția de CEO „în viitorul apropiat”, iar John Ternus este menționat ca posibil succesor, cu un profil puternic orientat spre hardware. Materialul nu indică un calendar, un produs concret sau o decizie internă a Apple; scenariul este prezentat ca o direcție plauzibilă dacă trendul cererii pentru AI local și „compute” dedicat continuă. [...]

Samsung testează un nou tip de „hub” pentru casă, mizând pe interacțiune emoțională, nu pe specificații , prin conceptul de companion AI „Project Luna”, prezentat la Milano Design Week 2026 , potrivit IT Home . Conceptul, relatat inițial de publicația Android Headline , propune un dispozitiv compact cu un ecran circular montat într-o „structură-cap” care se poate roti și înclina. Ideea centrală este ca ecranul să-și ajusteze activ poziția pentru a se orienta către utilizator, sugerând o interacțiune mai „personală” decât cea a unui difuzor inteligent clasic. Ce face Project Luna, în versiunea demonstrată Dincolo de design, Samsung poziționează Project Luna ca un centru pentru locuință, cu funcții orientate spre utilizarea de zi cu zi: conectare la smartphone; redare de muzică printr-o interfață inspirată de un pick-up (stil „platan”); recomandări de rețete în funcție de ingredientele disponibile în bucătărie. De ce contează: accent pe „prezență” și atașament, nu doar pe utilitate Pentru a întări componenta de „companion”, Samsung a inclus animații expresive și efecte sonore „jucăușe”. Cei care au testat dispozitivul la fața locului au apreciat că aceste elemente îi dau un aer apropiat de un personaj de tipul celui din filmul „WALL·E”, făcându-l să pară mai degrabă un „coleg de apartament” decât un obiect rece, strict funcțional. Materialul nu oferă detalii despre un calendar de comercializare, preț sau specificații tehnice, Project Luna fiind prezentat ca un concept. [...]

Piața muncii nu pare să se contracte pe fondul AI, dar se reconfigurează pe competențe , arată un sondaj citat de Economedia : 8 din 10 angajatori spun că, în următorii doi ani, vor recruta aproximativ același număr de oameni, însă o parte importantă anticipează că vor căuta candidați cu abilități diferite față de cele cerute acum. Adopția AI în companii rămâne, în mare, la nivel de utilizare „ad-hoc”: 47,4% dintre angajatorii participanți la sondajul eJobs România declară că folosesc soluții bazate pe inteligență artificială sporadic, mai degrabă la inițiativa angajaților decât ca politică internă. Doar 5,2% spun că AI este integrată strategic în majoritatea departamentelor, iar 15,5% au câteva procese clar definite care implică AI. În organizațiile unde există implementări, percepția asupra efectelor este mixtă: angajatorii au observat atât entuziasm și curiozitate, cât și reticență sau indiferență. Potrivit Ralucăi Dumitra, Head of Marketing la eJobs, măsurătorile indică faptul că volumul de muncă nu s-a schimbat, dar calitatea muncii este mai bună. Ce se schimbă operațional: productivitate, control și încredere „moderată” Datele din sondaj indică efecte diferite asupra volumului de muncă: 26% dintre angajatori spun că volumul de muncă a scăzut cu 10% până la peste 20% din timp; 10% afirmă că volumul a crescut, din cauza timpului necesar pentru învățarea și verificarea instrumentelor; alți 10% spun că reducerea volumului de muncă este vizibilă, dar cu rezultate mai slabe calitativ. În paralel, peste jumătate dintre respondenți declară că au o încredere moderată în acuratețea rezultatelor oferite de AI și că acestea necesită verificare amănunțită (fact-checking). 11,4% au încredere scăzută și folosesc AI mai ales pentru generare de idei, în timp ce 33% spun că au un nivel ridicat de încredere și fac doar revizuiri rapide. Recrutarea rămâne, dar criteriile se mută spre „alfabetizare AI” În privința impactului asupra nevoii de personal, 8 din 10 angajatori se așteaptă să angajeze același număr de oameni ca până acum. Jumătate dintre aceștia adaugă însă că vor fi necesare competențe noi. 16% cred că vor angaja mai puțin, deoarece AI va prelua din sarcini, iar 1,2% anticipează o creștere a nevoii de personal pentru gestionarea tehnologiei. În prezent, „alfabetizarea AI” (capacitatea de a folosi instrumente AI și de a formula cerințe eficiente către ele) este mai degrabă un avantaj decât un filtru: 39% dintre angajatori spun că nu o evaluează încă la interviu, iar pentru 17,1% reprezintă un avantaj competitiv major. Barierele: date, competențe digitale și costuri Principalele obstacole menționate de angajatori țin de securitatea și confidențialitatea datelor. Apar și bariere legate de competențele digitale ale angajaților, inclusiv dificultatea de a formula prompturi. În plus, 17,2% indică drept problemă costurile ridicate ale licențelor și implementării, iar 12,6% menționează rezistența culturală a echipei la schimbare. Pe partea de beneficii observate după integrarea AI: aproape 40% indică eliminarea sarcinilor repetitive; 30% văd un plus pe creativitate și generare de idei; 19,8% menționează viteză mai mare de răspuns în piață; 3,7% vorbesc despre reducerea costurilor cu recrutarea și salariile, deoarece angajează mai puțin; 2,5% indică reducerea costurilor operaționale. Sondajul eJobs a fost realizat în martie, pe un eșantion de 196 de companii din 19 domenii, reprezentate de manageri HR, specialiști HR, manageri de departament și antreprenori. [...]

Amazon își securizează pe 10 ani cererea de calcul pentru AI printr-un acord care poate duce investiția în Anthropic la 33 mld. dolari (aprox. 151 mld. lei), în schimbul unui angajament de peste 100 mld. dolari (aprox. 460 mld. lei) cheltuieli cloud pe AWS, potrivit The Next Web . Amazon a convenit să investească „până la” 25 mld. dolari în Anthropic, compania din spatele modelelor Claude, însă structura tranzacției arată că nu este vorba de un cec integral: 5 mld. dolari sunt investiți imediat, iar până la 20 mld. dolari sunt condiționați de atingerea unor obiective comerciale. Suma se adaugă celor 8 mld. dolari pe care Amazon îi angajase deja din 2023, ceea ce ridică investiția potențială totală la circa 33 mld. dolari (aprox. 152 mld. lei). În paralel, Anthropic își asumă un angajament de peste 100 mld. dolari pentru AWS pe următorul deceniu, dar publicația precizează că acesta este un „angajament de achiziție” (procurement pledge), nu o plată în avans: compania se obligă să cumpere capacitate de calcul, cipuri personalizate pentru AI și servicii de infrastructură de la Amazon. Practic, Amazon finanțează Anthropic, iar Anthropic direcționează o parte semnificativă din acești bani către infrastructura Amazon. De ce contează: AWS își blindează cererea și împinge Trainium în centrul AI-ului „frontieră” Miza operațională a acordului este capacitatea de calcul și, implicit, controlul lanțului de aprovizionare pentru antrenarea și rularea modelelor. În centrul înțelegerii se află Trainium, linia de cipuri dezvoltată intern de Amazon ca alternativă la GPU-urile Nvidia pentru antrenare și inferență (rularea modelelor). Acordul acoperă Trainium2, viitorul Trainium3 și Trainium4 (încă nelansat), plus „zeci de milioane” de nuclee CPU Graviton. Anthropic obține până la 5 gigawați de capacitate pentru a antrena și a rula Claude. Amazon afirmă că o capacitate semnificativă Trainium2 intră în funcțiune în trimestrul al doilea din 2026, iar până la finalul anului ar urma să fie disponibil aproape 1 gigawatt combinat Trainium2 și Trainium3. Context: creșterea Anthropic și consolidarea distribuției prin AWS Acordul vine pe fondul unei cereri în creștere rapide, pe care Anthropic o leagă de evoluția veniturilor: compania a ajuns la venituri anualizate de 30 mld. dolari, de la aproximativ 9 mld. dolari la final de 2025. Parteneriatul se adâncește și pe distribuție: clienții AWS vor putea accesa „întreaga Claude Platform” (interfața nativă a Anthropic) direct din conturile lor AWS, fără acreditări sau facturare separate. Este un pas peste disponibilitatea Claude prin Amazon Bedrock, „piața” de AI gestionat a Amazon. În același timp, Claude rămâne, potrivit sursei, singurul model „frontieră” disponibil pe toate cele trei mari platforme cloud: AWS Bedrock, Google Cloud Vertex AI și Microsoft Azure Foundry. Raportul de forțe: Amazon devine partenerul principal de infrastructură The Next Web notează că structura este similară cu un acord de acum două luni, când Amazon ar fi investit 50 mld. dolari în OpenAI în cadrul unui angajament comparabil de 100 mld. dolari pentru cloud. În cazul Anthropic, acordul cu AWS „surclasează” o înțelegere separată din noiembrie 2025, când Microsoft a investit până la 5 mld. dolari în Anthropic, iar compania s-a angajat să cumpere 30 mld. dolari capacitate de calcul pe Azure. Noua înțelegere cu AWS „stabilește ferm Amazon” ca partenerul principal de infrastructură al Anthropic, potrivit articolului. Evaluarea folosită pentru investiția inițială este cea mai recentă evaluare a Anthropic, de 380 mld. dolari. Publicația mai menționează că fonduri de capital de risc ar fi oferit finanțare la evaluări de 800 mld. dolari sau mai mult înaintea unei posibile listări, însă nu a fost anunțată o astfel de rundă. [...]