Știri
Știri din categoria Inteligență artificială

Apple pregătește o schimbare operațională majoră pentru Siri, trecând de la comenzi punctuale la conversații continue și integrare între aplicații, potrivit TechRadar. Miza este ca asistentul să poată păstra contextul și să execute sarcini în mai mulți pași, într-un mod mai apropiat de experiența oferită de ChatGPT și alte instrumente de inteligență artificială conversațională.
Apple ar urma să prezinte noua versiune la Worldwide Developers Conference (WWDC), care se deschide pe 8 iunie, iar schimbările sunt asociate cu iOS 27, conform materialului.
Cea mai vizibilă modificare ar fi modul de interacțiune: în loc de solicitări izolate („setează un timer”, „care e vremea”), Siri ar urma să permită dialoguri cu întrebări de continuare și solicitări combinate în aceeași sesiune. Practic, asistentul ar „ține minte” firul conversației, astfel încât utilizatorul să nu fie nevoit să reia cererea de la zero de fiecare dată.
TechRadar notează că această direcție aliniază Siri la așteptările formate deja de utilizatori în interacțiunea cu chatboți precum ChatGPT.
Dincolo de interfață, schimbarea cu impact practic este extinderea funcționării „peste” aplicații și servicii. Siri ar urma să poată folosi context personal și informația de pe ecran pentru a duce la capăt sarcini în mai mulți pași, inclusiv prin referințe la mesaje, e-mailuri și alte date.
Un exemplu de utilizare descris în articol: Siri ar putea analiza o conversație, extrage un detaliu relevant și apoi acționa pe baza lui, fără instrucțiuni separate pentru fiecare etapă.
Publicația mai scrie că Apple ar muta Siri din modul tradițional de afișare pe tot ecranul către o prezență mai integrată, inclusiv în Dynamic Island pe iPhone-urile mai noi, unde asistentul s-ar extinde la activare.
În paralel, ar exista indicii despre o aplicație dedicată Siri, cu istoric de conversații și o prezentare familiară utilizatorilor de chatboți, deși transformarea principală ar fi „sub capotă”, în capabilitățile de procesare și integrare.
TechRadar menționează că Apple ar miza pe capabilități de tip „model lingvistic mare” (LLM – sisteme antrenate pe volume mari de text pentru a genera și înțelege limbaj), cu suport din partea modelelor Gemini ale Google. În acest scenariu, întrebări care înainte necesitau căutare pe web sau un chatbot separat ar putea fi rezolvate direct de Siri.
Schimbarea vine pe fondul percepției că Apple a rămas în urmă în zona de inteligență artificială conversațională, în timp ce competitori au avansat cu sisteme generative. Articolul subliniază și o diferență de strategie: Apple ar integra aceste capabilități direct în Siri, nu ca parte a brandului Apple Intelligence.
Rămâne de văzut cât de completă va fi implementarea la momentul prezentării și ce funcții vor fi disponibile efectiv odată cu iOS 27, întrucât informațiile descrise se bazează pe detalii „scăpate” și pe relatări din piață, nu pe specificații confirmate oficial.
Recomandate

Posibila numire a lui John Ternus la conducerea Apple ar muta accentul strategiei AI spre dispozitive , nu doar spre modele și servicii, iar asta poate conta direct în competiția cu rivalii care împing masiv „AI în cloud”, potrivit unei analize publicate de CNET . Textul pornește de la ideea că un CEO cu profil puternic de „hardware” (adică orientat spre proiectarea și integrarea componentelor și a produsului final) ar putea fi un avantaj pentru planurile Apple în inteligență artificială, tocmai pentru că diferențiatorul companiei a fost istoric combinația strânsă dintre dispozitive, software și servicii. De ce contează pentru AI: controlul asupra „cutiei” în care rulează tehnologia În logica CNET, AI-ul Apple are mai multe șanse să se distingă dacă este împachetat în produse și funcții care rulează eficient pe dispozitivele companiei, unde Apple controlează atât arhitectura hardware, cât și sistemele de operare. Un lider format în zona de hardware ar înclina natural spre această abordare: optimizare la nivel de dispozitiv, integrare și livrare de funcții AI ca parte din experiența produsului. Această direcție ar putea susține o strategie în care AI-ul nu este perceput ca un „add-on” (o funcție adăugată ulterior), ci ca o componentă proiectată împreună cu produsul. Limitările informației din sursă Materialul CNET este un comentariu/analiză și nu oferă, în fragmentul disponibil, detalii operaționale verificabile despre un plan concret de implementare, termene sau investiții. De asemenea, nu sunt prezentate cifre sau indicatori financiari care să permită o evaluare a impactului economic pe termen scurt. În consecință, concluzia rămâne una de interpretare editorială: un CEO „de hardware” ar putea fi potrivit pentru o strategie AI centrată pe dispozitive, însă direcția efectivă depinde de deciziile companiei și de execuție. [...]

John Ternus , viitorul CEO al Apple, a început deja să reconfigureze operațiunile interne ale companiei printr-o „platformă nouă de AI”, cu obiectivul de a accelera dezvoltarea produselor și de a îmbunătăți calitatea dispozitivelor , potrivit 9to5Mac , care citează un raport Bloomberg. Schimbarea descrisă vizează în primul rând zona de inginerie hardware: conform lui Mark Gurman (Bloomberg), Ternus ar fi reorganizat, la începutul lunii, structura organizației de inginerie hardware „în jurul” unei noi platforme de inteligență artificială. Miza, așa cum este prezentată în raport, este una operațională: reducerea timpilor de dezvoltare și creșterea calității, prin folosirea AI în procese interne, nu doar în produse. Ce se știe concret și ce rămâne neclar Din informațiile publicate nu rezultă detalii tehnice despre ce este această „platformă nouă de AI” sau cum funcționează, iar 9to5Mac notează explicit lipsa de informații despre implementare. Totuși, raportul indică intenția de a extinde rapid utilizarea AI „în întreaga companie” pentru îmbunătățirea operațiunilor, iar debutul din divizia hardware ar fi doar primul pas. Context: AI ca instrument intern, nu doar funcție pentru utilizatori Materialul amintește că Gurman a relatat anterior că Apple se bazează semnificativ pe Anthropic pentru diverse componente ale dezvoltării de produse, însă, în rest, au existat puține informații publice despre modul în care Apple implementează AI în interiorul organizației. În acest cadru, reorganizarea condusă de Ternus sugerează o accelerare a folosirii AI ca instrument de productivitate și control al calității în lanțul de dezvoltare. De ce contează pentru business Dacă direcția se confirmă, integrarea AI în operațiuni poate deveni un factor direct de eficiență: cicluri de dezvoltare mai scurte și o calitate mai bună pot influența costurile, ritmul lansărilor și, implicit, competitivitatea. Deocamdată, impactul exact nu poate fi cuantificat din datele disponibile, deoarece nu sunt publicate detalii despre capabilități, calendar sau arii precise de implementare. [...]

Google Cloud pariază 750 de milioane de dolari (aprox. 3,45 miliarde lei) pe consultanți ca să-și crească cota în cloud , finanțând direct firmele care decid, în practică, ce platformă ajunge să fie folosită în marile implementări de „agentic AI” (agenți software care execută sarcini în mod autonom), potrivit The Next Web . Fondul, anunțat la Cloud Next 2026 , este prezentat drept cea mai mare investiție unică într-un program de parteneri făcută de un „hiperscaler” (furnizor global de infrastructură cloud la scară foarte mare). Mesajul din spatele sumei: competiția pentru AI în companii se mută de la vânzarea de infrastructură la finanțarea integratorilor și consultanților care proiectează și livrează efectiv soluțiile. Ce finanțează Google și de ce contează economic Google precizează că fondul nu este un vehicul de capital de risc, ci un mix de: credite, co-investiții, subvenții pentru instruire, bugete de „go-to-market” (sprijin comercial pentru vânzare și lansare). Miza este să încurajeze marile firme de consultanță să construiască agenți pe platforma Google, nu pe Microsoft Azure sau AWS. Argumentul economic invocat în material: pentru fiecare 1 dolar cheltuit de un client pe Google Cloud, partenerii pot încasa până la 7,05 dolari din servicii, ceea ce transformă consultanții din canal de distribuție în multiplicator de venituri. În același context, Google indică o extindere accelerată a ecosistemului: peste 2.900 de parteneri de servicii, o creștere de 400% a noilor intrări în ultimul an și un avans de 250% al veniturilor influențate de parteneri. Cine sunt partenerii vizați și ce angajamente apar în articol Textul enumeră o serie de angajamente și inițiative ale marilor consultanți: Accenture : a construit peste 450 de agenți pe Google Cloud și își extinde practica Gemini pe verticale de industrie. Deloitte : descrie investiția ca fiind „cea mai mare de până acum” într-o singură platformă cloud AI și spune că a implementat peste 100 de agenți pentru clienți enterprise. KPMG : angajament de 100 milioane dolari (aprox. 460 milioane lei) pentru soluții de agentic AI pe Google Cloud. PwC : colaborare de 400 milioane dolari (aprox. 1,84 miliarde lei) axată pe agenți pentru securitate și conformitate. NTT DATA : alocă 5.000 de ingineri pentru dezvoltarea de agenți pe Google Cloud. Cognizant și NTT DATA: lucrează la suite de agenți pe industrii (manufactură, servicii financiare, sănătate). Separat, Vista Equity Partners anunță un parteneriat pentru integrarea platformei de agenți Google în companiile din portofoliul său, ceea ce ar deschide accesul către zeci de firme de software de talie medie, fiecare putând deveni un canal de distribuție pentru agenți bazați pe Gemini. Schimbare operațională: partenerii sunt recompensați pentru „agenți”, nu pentru migrare Google își restructurează și programul de parteneri, introducând niveluri (Select, Premier, Diamond) care leagă beneficiile și sprijinul de co-vânzare de volumul implementărilor de agenți, nu de indicatorii tradiționali ai consumului de cloud. Intenția declarată: partenerii să fie măsurați și recompensați pentru livrarea de agenți, nu pentru migrarea de sarcini în cloud. Context competitiv: aceeași „piață” de consultanți este curtată de toți Materialul plasează fondul într-o competiție în care Microsoft, OpenAI și Anthropic urmăresc aceiași integratori. Sunt menționate: o inițiativă de parteneri a Microsoft anunțată cu o zi înainte de Cloud Next; programul „Frontier Alliances” al OpenAI (februarie 2026) cu McKinsey, BCG și Accenture; angajamentul Anthropic de 100 milioane dolari (aprox. 460 milioane lei) pentru Claude Partner Network și o inițiativă separată de 200 milioane dolari (aprox. 920 milioane lei) cu capital privat. Articolul subliniază că firmele de consultanță nu sunt exclusive (de exemplu, Accenture este partener principal simultan pentru Google, OpenAI și Microsoft). În această logică, cei 750 milioane dolari nu cumpără exclusivitate, ci „prioritate”: când o companie mare cere un agent pentru un proces (de pildă, lanț de aprovizionare), recomandarea implicită să fie platforma Google, nu alternativele din Azure sau AWS. De ce Google vede aici o pârghie pentru „decalajul” din cloud The Next Web notează că Google Cloud are aproximativ 11% din piața de infrastructură cloud, în spatele AWS (31%) și Azure (25%). Deși Google Cloud ar fi crescut cu 48% în trimestrul al patrulea din 2025, diferența rămâne semnificativă. În paralel, Google indică planuri de investiții (capital expenditure) de 175–185 miliarde dolari (aprox. 805–851 miliarde lei) pentru 2026. În acest tablou, fondul de 750 milioane dolari este mic ca pondere, dar țintește o altă constrângere: nu infrastructura, ci „capitalul uman” (competențele și capacitatea de livrare) necesar ca infrastructura să se transforme în implementări reale la clienți. Publicația ridică, totuși, întrebarea-cheie: dacă suma este suficientă pentru a schimba echilibrul, în condițiile avantajelor structurale ale Microsoft (distribuția enterprise prin Office 365) și ale AWS (dominanta în aplicații cloud-native). [...]

Huawei pregătește extinderea funcțiilor AI din Celia pe Mate 90 , iar miza este una operațională: telefonul ar urma să vină cu mai multe instrumente „mai inteligente și mai sigure” integrate direct în sistem, potrivit Huawei Central . Seria Pura 90 a fost lansată cu HarmonyOS 6.1, o versiune descrisă ca aducând schimbări „interactive” și ajustări fine față de edițiile x.0. În paralel, un zvon publicat de tipsterul Weibo indică faptul că seria Huawei Mate 90 ar urma să fie livrată cu HarmonyOS 7.0 preinstalat și să deblocheze un set mai amplu de funcții AI. Ce se schimbă, concret: accent pe aplicația Celia Conform informațiilor din material, noile funcții ar urma să apară în aplicația Celia, unde Huawei pare să „rafineze” asistentul virtual pentru a crește eficiența utilizării și a-l transforma într-un „companion AI” mai capabil. Publicația notează că tipsterul nu a oferit alte detalii despre aceste noutăți, astfel că amploarea și calendarul rămân neconfirmate. Ce poate face azi „Celia AI companion”, ca reper Huawei Central trece în revistă funcții deja asociate cu Celia pe modelele Pura 90, care conturează direcția de utilizare „în timp real”, pe baza conținutului de pe ecran: Smart To-Do : identifică informații afișate în aplicații și permite adăugarea lor în lista de sarcini sau calendar; poate recunoaște activ ecranul. Asistent de călătorie : recunoaște informații dintr-o aplicație și oferă planificare rută, estimare timp, interogare informații despre zboruri și comandă de transport „dintr-un click”. Global To-Do List : înregistrează și organizează automat sarcini; permite acces rapid la conținut, timp, locație. Smart Reading Companion : identifică ce citește utilizatorul și oferă colectare, ghidare pentru articole lungi, rezumat și generare de „hartă mentală”; poate interoga și rezuma informații relevante pentru textul selectat. Topic Recommendation : recomandă discuții/teme conexe pe baza conținutului citit. Global Celia : adaugă un buton vocal Celia în scenariile de mai sus, cu apăsare sau apăsare lungă pentru comandă vocală. În lipsa unor specificații suplimentare, singura concluzie fermă din material este direcția: Mate 90 ar urma să ducă mai departe această integrare a asistentului în fluxurile zilnice (liste, calendar, călătorii, citire), cu promisiunea unor funcții mai „reale”, mai „inteligente” și mai „sigure”, dar fără detalii tehnice sau o confirmare oficială. [...]

Google își separă noile TPU-uri pentru antrenare și inferență, o schimbare care poate reduce consumul de energie în centrele de date, dar fără garanții că economiile se vor vedea în prețurile plătite de clienți , potrivit Android Authority . La Cloud Next 2026, compania a anunțat a opta generație de Tensor Processing Units (TPU) pentru centrele sale de date, împărțită în două familii: TPU 8t pentru antrenarea modelelor de inteligență artificială și TPU 8i pentru inferență (rularea efectivă a modelelor, adică generarea de răspunsuri și predicții pe baza a ceea ce au învățat). Miza operațională este folosirea de hardware diferit pentru sarcini cu cerințe diferite, în locul unei abordări „un singur cip pentru toate”. De ce contează separarea: energie, răcire și costuri de operare Google susține că această separare răspunde diferențelor de consum și putere de calcul dintre antrenare și inferență. În practică, compania spune că abordarea poate reduce consumul de energie al centrelor de date, ceea ce ar însemna atât costuri operaționale mai mici, cât și un impact de mediu redus. Publicația notează și un efect colateral invocat în text: dacă inferența devine mai eficientă energetic, utilizarea unor servicii precum Gemini ar putea necesita mai puțină apă pentru răcirea centrelor de date (mențiune formulată ca speranță, nu ca angajament ferm). Context tehnic, pe scurt: de ce antrenarea „cere” alt hardware decât inferența Android Authority explică diferența prin natura celor două procese: Antrenarea rețelelor neuronale este intensă: folosește memorie cu lățime mare de bandă și clustere mari de procesoare, deoarece presupune actualizarea a miliarde de parametri în fiecare secundă. Include „propagarea inversă a erorilor” (backpropagation), adică bucle repetate de feedback prin care modelul este optimizat pe setul de antrenament. Inferența este, în general, mai puțin solicitantă și poate rula pe hardware mai puțin capabil, cu consum mai mic de memorie. Concluzia operațională a sursei: folosirea aceluiași hardware pentru ambele tipuri de sarcini poate duce la costuri mai mari, ceea ce ridică „costul efectiv” al inferenței. Întrebarea rămasă: cine păstrează beneficiul economic Deși Google pune accent pe beneficiile de mediu ale TPU-urilor dedicate inferenței, Android Authority spune că nu a văzut promisiuni explicite privind reducerea costurilor pentru clienți. Rămâne de văzut dacă economiile din eficiență vor fi transferate către consumatori sau vor rămâne la companie și partenerii săi. În același context, sursa amintește că Google a mai avut TPU v5e (unde „e” ar veni de la eficiență) pentru operațiuni la scară mai mică, iar TPU 8i ar părea o adaptare pentru scară mare. În paralel, Amazon urmărește o direcție similară cu AWS Inferentia. [...]

România rămâne la coada Europei la utilizarea inteligenței artificiale, cu implicații directe pentru productivitate și competitivitate , în condițiile în care doar 18% dintre persoane spun că au folosit instrumente AI în ultimele trei luni, arată o analiză preluată de Economedia , pe baza datelor Eurostat și IAB UK, citate de Visual Capitalist . Diferențele între state sunt mari și conturează o separare între nordul continentului, unde folosirea AI a devenit uzuală, și sud-estul Europei, unde nivelurile rămân semnificativ mai scăzute. Nordul Europei trage media în sus În fruntea clasamentului este Norvegia, cu 56,3% dintre respondenți care declară că au folosit AI în ultimele trei luni. În grupul țărilor cu adopție ridicată apar și: Danemarca: 48,4% Elveția: 47% Estonia: 46,6% Malta: 46,5% Finlanda: 46,3% Irlanda: 44,9% Țările de Jos: 44,7% Sudul și estul Europei, mult sub lideri. România, ultima În Europa de Sud și Sud-Est, utilizarea raportată este considerabil mai redusă: Italia este la aproximativ 20%, Turcia la 19%, iar România rămâne ultima, cu 18%. În același timp, analiza indică diferențe mari chiar în interiorul aceleiași regiuni: Grecia și Cipru sunt la aproximativ 44%, iar Malta ajunge la 47%. Economiile mari nu domină adopția AI Datele arată că mărimea economiei nu se traduce automat într-o utilizare mai mare a inteligenței artificiale. Germania și Regatul Unit sunt la aproximativ o treime din populație, iar Franța și Spania se află în zona de mijloc, cu 30–40%. Tinerii accelerează utilizarea Analiza semnalează și o diferență generațională: în Marea Britanie, deși media generală este de 34%, în rândul tinerilor de 15–24 de ani aproximativ un sfert folosesc zilnic instrumente AI, ceea ce sugerează că avansul viitor al adopției poate veni din schimbarea generațiilor. (Analiza originală este publicată de Visual Capitalist: Visual Capitalist .) [...]