Știri din categoria Inteligență artificială
Știri Inteligență artificială

OpenAI alege Cerebras în locul Nvidia – un parteneriat de miliarde pentru viitorul AI
OpenAI a semnat un acord de peste 10 miliarde de dolari cu startup-ul Cerebras Systems pentru achiziția de capacitate de calcul, într-o nouă etapă a cursei pentru controlul infrastructurii AI , anunță The Wall Street Journal . În baza acestui parteneriat, OpenAI va achiziționa până la 750 de megawați de putere de procesare în următorii trei ani, folosind cipurile specializate dezvoltate de Cerebras pentru a susține ChatGPT și alte aplicații AI de mare anvergură. Acordul vine pe fondul unei crize acute de resurse de calcul, după cum recunosc chiar oficialii companiei, care afirmă că OpenAI își triplează anual atât capacitatea de procesare, cât și veniturile. În acest context, OpenAI caută alternative mai rapide și mai ieftine la cipurile Nvidia , dominatoare în industrie. Printre aceste alternative se numără atât noul parteneriat cu Cerebras, cât și proiectul anunțat anul trecut împreună cu Broadcom pentru dezvoltarea unui cip personalizat, dar și acordul semnat cu AMD pentru utilizarea cipului MI450. Cerebras Systems , fondată în urmă cu aproximativ un deceniu, a fost până de curând o prezență marginală pe piața semiconductorilor, bazându-se în mare parte pe un singur client – G42 din Abu Dhabi. Însă compania, condusă de Andrew Feldman , pare să-și fi regăsit direcția, după ce a încheiat noi parteneriate cu IBM și Meta, și este acum în discuții pentru o rundă de finanțare de un miliard de dolari, care i-ar tripla evaluarea la 22 de miliarde de dolari. În demonstrații recente, Feldman a arătat că cipurile Cerebras pot furniza răspunsuri AI mai rapide decât cele ale rivalilor, ceea ce a fost decisiv pentru acordul cu OpenAI. Sam Altman , CEO-ul OpenAI, este și investitor personal în Cerebras, iar cele două companii au discutat o posibilă colaborare încă din 2017, potrivit unor documente dintr-un proces în curs între Altman și Elon Musk. Într-un moment-cheie, Feldman a refuzat o ofertă din partea lui Musk de a cumpăra OpenAI, o decizie care pare acum să fi deschis drumul către consolidarea actualului parteneriat. Această mișcare face parte dintr-o ofensivă mai amplă a OpenAI, care a semnat în 2025 contracte de cloud în valoare de aproape 600 de miliarde de dolari cu giganți precum Microsoft, Oracle și Amazon. În ciuda unei cifre de afaceri anuale de aproximativ 13 miliarde de dolari, compania afirmă că va susține aceste investiții prin creșteri viitoare ale veniturilor. Totodată, OpenAI pregătește o rundă masivă de finanțare înaintea unei eventuale listări la bursă, evaluarea estimată fiind de aproximativ 830 de miliarde de dolari. Ce aduce acest parteneriat: Capacitate crescută de procesare – 750 MW, livrați în următorii 3 ani Reducerea dependenței de Nvidia – Cerebras oferă o alternativă performantă și mai rapidă Sprijin pentru aplicații AI specializate – inclusiv codare și procesare conversațională Aliniere strategică între tehnologie și capital – Altman este investitor în ambele entități Consolidarea poziției OpenAI în fața unei competiții tot mai agresive în sectorul AI Pe o piață în care viteza de procesare dictează ritmul inovației, parteneriatul cu Cerebras este, în esență, o investiție în viitorul operațional al OpenAI – un viitor în care accesul la puterea de calcul devine cheia supremă a succesului. [...]

Google lansează TranslateGemma în trei versiuni - 55 de limbi pe mobil, laptop și cloud
Google a lansat TranslateGemma , o familie de modele de traducere pentru 55 de limbi , în trei dimensiuni gândite pentru rulare pe telefon, laptop și infrastructură cloud, potrivit the-decoder.com . Compania susține că varianta de 12 miliarde de parametri (12B) depășește la calitate un model de bază de 27B, deși este de peste două ori mai mică. Google spune că a publicat TranslateGemma în trei versiuni: un model de 4B optimizat pentru dispozitive mobile, unul de 12B pentru laptopuri de consum și un model de 27B pentru servere cloud, care poate rula pe un singur GPU Nvidia H100 sau pe un TPU. Toate versiunile acoperă 55 de limbi. Calitatea a fost măsurată cu MetricX, un indicator care urmărește erorile de traducere (scor mai mic înseamnă mai puține greșeli). În aceste teste, TranslateGemma 12B obține 3,60, față de 4,04 pentru modelul de bază 27B; comparat cu propriul model de bază de 12B (4,86), rata erorilor scade cu aproximativ 26%, conform datelor prezentate de Google. Îmbunătățirile ar fi consistente pe toate cele 55 de perechi de limbi testate , iar cele mai mari câștiguri apar la limbile cu resurse reduse: pentru engleză–islandeză, rata erorilor scade cu peste 30%, iar pentru engleză–swahili se îmbunătățește cu circa 25%. Evaluarea umană realizată de traducători profesioniști confirmă în mare măsură măsurătorile automate, cu o excepție: traducerile japoneză–engleză ar fi înregistrat un recul, pe care Google îl pune pe seama erorilor legate de nume proprii. Creșterea de performanță este atribuită unui antrenament în două etape: mai întâi, ajustare fină pe date paralele (traduceri umane și date sintetice), apoi învățare prin recompensă (un proces în care ieșirile sunt optimizate pe baza unor evaluări automate). Pentru a păstra utilitatea generală, amestecul de antrenare include și 30% date de instrucțiuni generale, ceea ce înseamnă că TranslateGemma poate funcționa și ca chatbot. Pe lângă traducerea textelor, modelele păstrează capabilități multimodale din Gemma 3, inclusiv traducerea textului din imagini, iar Google afirmă că îmbunătățirile la traducerea text se transferă și la traducerea din imagini (testată pe benchmark-ul Vistra). Modelele sunt disponibile pe Kaggle și Hugging Face, iar licența folosită este „Gemma Terms of Use”, care permite utilizare comercială, modificare și redistribuire, dar impune transmiterea termenilor și interzice anumite utilizări prin politica Google de utilizări interzise; compania descrie acest regim drept „Open Weights” (ponderi deschise), nu o licență clasică open-source. Principalele elemente anunțate de Google despre TranslateGemma includ: trei dimensiuni de model: 4B (mobil), 12B (laptop), 27B (cloud pe un singur H100/TPU); suport pentru 55 de limbi și îmbunătățiri raportate pe toate perechile testate; proces de antrenare în două etape (ajustare fină + învățare prin recompensă) și 30% date de instrucțiuni generale pentru versatilitate; păstrarea capabilităților multimodale (traducere de text din imagini); distribuție pe Kaggle și Hugging Face, sub termenii de utilizare ai familiei Gemma. TranslateGemma este cea mai nouă extindere a familiei Gemma, construită pe Gemma 3 (lansată în primăvara lui 2025), într-un context în care competiția pe „modele cu ponderi deschise” se intensifică. the-decoder.com notează că Google se poziționează inclusiv față de competitori chinezi precum Alibaba (Qwen), Baidu și Deepseek, în timp ce laboratoare americane precum OpenAI și Anthropic rămân concentrate pe sisteme închise, OpenAI lansând recent propriul instrument de traducere, ChatGPT Translate . [...]

OpenAI intră agresiv în sectorul sănătății – achiziția Torch confirmă direcția strategică
OpenAI a cumpărat startup-ul Torch pentru peste 100 de milioane de dolari, într-o mișcare strategică menită să consolideze poziția companiei în sectorul inteligenței artificiale pentru sănătate , informează DIGITIMES . Achiziția vine la scurt timp după lansarea platformei ChatGPT Health , dedicată utilizatorilor care caută sprijin în înțelegerea și gestionarea propriei sănătăți prin intermediul AI. Torch, o firmă înființată abia în 2025, nu a lansat niciun produs comercial, dar a atras atenția OpenAI datorită conceptului său inovator: un sistem unificat de „memorie medicală” pentru AI, capabil să integreze și să structureze informații din surse variate precum spitale, laboratoare, dispozitive purtabile și teste medicale comerciale. Ilya Abyzov, CEO-ul Torch, a confirmat pe platforma X că întreaga echipă – formată din doar patru persoane – va fi integrată în OpenAI . Deși termenii financiari oficiali ai tranzacției nu au fost publicați, cofondatorul Adrian Aoun a sugerat pe LinkedIn că suma plătită a depășit pragul de 100 de milioane de dolari . Acest detaliu a stârnit întrebări în industrie privind oportunitatea achiziției, având în vedere că OpenAI are resursele necesare pentru a dezvolta intern o tehnologie similară. Strategia OpenAI devine tot mai clară: compania americană mizează pe extinderea rapidă în domeniul medical, unde datele sunt masive, sensibile și greu de procesat. Integrarea tehnologiei Torch în ChatGPT Health ar putea permite modelului AI să gestioneze documente medicale complexe fără pierderi de context – o problemă recurentă în procesarea informațiilor mari. În plus, ChatGPT for Healthcare , suita destinată instituțiilor medicale și dezvoltatorilor, bazată pe GPT-5 și oferită prin API-uri dedicate, ar putea beneficia indirect de know-how-ul echipei Torch. Pe o piață tot mai competitivă, unde rivali precum Anthropic lansează produse similare ( Claude pentru AI în sănătate), achiziția Torch transmite un mesaj clar: OpenAI nu vrea doar să participe în cursa pentru digitalizarea sănătății, ci să o domine. [...]

Apple promite confidențialitate cu AI bazat pe Gemini; rămâne de văzut cât se procesează pe dispozitiv și cât în cloud
Apple își va baza următoarea generație de modele de inteligență artificială pe Google Gemini , potrivit SamMobile , după ce Apple și Google au anunțat printr-o declarație comună un acord pe mai mulți ani care leagă „Apple Foundation Models” de modelele și infrastructura în cloud ale Google. Miza este una competitivă: Apple recunoaște că a intrat mai târziu în cursa pentru inteligența artificială și susține că, în urma unei evaluări, a concluzionat că tehnologia Google oferă „cea mai solidă fundație” pentru viitoarele funcții Apple Intelligence, inclusiv pentru Siri. În același timp, compania insistă că Apple Intelligence va continua să ruleze pe dispozitivele Apple și prin Private Cloud Compute, menținând standardele sale de confidențialitate. Contextul are relevanță și pentru Samsung, deoarece unele funcții Galaxy AI (de exemplu, Now Brief) se bazează deja pe tehnologie Google, cu date stocate și procesate pe dispozitiv prin Personal Data Engine. Rămâne însă de văzut cum va gestiona Apple, în practică, echilibrul dintre procesarea locală și cea în cloud și cât de apropiate vor deveni experiențele de inteligență artificială oferite de Apple și Samsung. O versiune îmbunătățită a lui Siri, susținută de tehnologie Google , este așteptată să fie anunțată anul acesta, iar până la finalul lui 2026 ar putea apărea mai multe funcții noi bazate pe inteligența artificială a Google. [...]

Google testează integrarea Gemini în Chrome pentru Android - browserul ar putea primi funcții agentice
Google testează integrarea Gemini în Chrome pentru Android , potrivit BleepingComputer , ceea ce ar putea transforma browserul într-un instrument cu funcții „agentice” pe mobil. Informația pornește de la indicii apărute în proiectul Chromium, codul-sursă al Chrome. Semnalarea a fost făcută de un utilizator numit Leo pe X, iar baza tehnică este un set de referințe noi identificate în Chromium . Într-o postare din Chromium, un inginer Google menționează că dimensiunea binarului crește deoarece modificarea aduce mult cod pentru a susține „Chrome Glic”, care ar urma să fie activat în Chrome pentru Android „în viitorul apropiat”. „Glic” este numele de cod pentru Gemini în Chrome. Deocamdată, aceste indicii nu arată clar cum va fi integrat Gemini în Chrome pentru Android, dar sugerează că funcția este luată în calcul. Articolul compară posibilul mod de funcționare cu integrarea Copilot în Edge pentru Android, de pildă printr-un buton plutitor care să permită rezumarea unei pagini sau adresarea de întrebări pe baza conținutului. Pe calculator, Gemini poate folosi conținutul filelor deschise pentru ajutor contextual, cum ar fi rezumate sau comparații între informații, însă disponibilitatea este încă limitată. Nu este clar când va începe lansarea pe Android, iar sursa notează că este așteptat un anunț oficial în perioada următoare. [...]

Google lansează „Personal Intelligence” în Gemini - răspunsuri personalizate prin conectarea Gmail, Photos și YouTube
Google lansează „Personal Intelligence” pentru Gemini , ca să ofere răspunsuri mai personalizate , noua funcție ajunge pe Android, iOS și pe web și urmărește să transforme interacțiunea cu asistentul într-una mai adaptată fiecărui utilizator. Odată activată, „Personal Intelligence” se integrează cu toate modelele disponibile în Gemini și poate folosi informații din aplicații precum Gmail, YouTube și Google Photos pentru a formula răspunsuri mai bine ajustate la întrebările utilizatorului. Google subliniază că legarea aplicațiilor este la alegerea utilizatorului, configurarea este gândită să fie simplă și sigură, iar conectarea serviciilor se poate face rapid. Funcția este în fază beta, este disponibilă doar pentru conturi Google personale și nu poate fi folosită, deocamdată, de utilizatorii Workspace din mediul de afaceri, organizații sau educație. Este dezactivată implicit, iar utilizatorii pot decide ce aplicații conectează. În plus, Gemini va continua să se raporteze la conversațiile anterioare pentru a-și ghida răspunsurile, însă această opțiune poate fi oprită din setarea „Past Gemini chats”, iar istoricul poate fi gestionat sau șters manual. „Personal Intelligence” se lansează pe 14 ianuarie 2026 pentru abonații Google AI Pro și AI Ultra din Statele Unite. Deși debutul vizează utilizatorii cu abonamente plătite, Google spune că extinderea va ajunge la toate conturile eligibile în decurs de o săptămână, urmând ca pe parcursul anului să fie disponibilă și pentru varianta gratuită și în alte țări. [...]

SUA aprobă exporturile către China ale cipurilor Nvidia H200; livrările vor fi condiționate de testare și cote
Administrația Trump a aprobat exportul către China al cipurilor Nvidia H200 potrivit Reuters , printr-o regulă care ar urma să deblocheze livrările celui de-al doilea cel mai puternic cip de inteligență artificială al companiei, în pofida criticilor venite din rândul politicienilor americani preocupați de ascensiunea Chinei. Conform noilor reglementări, cipurile vor fi verificate de un laborator independent pentru a confirma capacitățile tehnice înainte de expediere. În plus, China nu poate primi mai mult de 50% din volumul total de cipuri vândute clienților americani. Nvidia trebuie să certifice că există suficiente cipuri H200 disponibile în Statele Unite, iar clienții chinezi trebuie să demonstreze „proceduri de securitate suficiente” și nu au voie să folosească cipurile în scopuri militare. Nvidia și Ambasada Chinei la Washington nu au comentat imediat. Decizia vine după ce președintele Donald Trump a anunțat luna trecută că va permite aceste vânzări în schimbul unei taxe de 25% pentru guvernul SUA, măsură contestată de critici care se tem că livrările ar putea întări capacitățile militare ale Beijingului și ar reduce avantajul american în inteligența artificială. Administrația Trump, coordonată pe acest dosar de David Sacks , susține însă că exporturile ar descuraja rivalii chinezi, inclusiv Huawei, să accelereze recuperarea decalajului față de proiectele avansate ale Nvidia și AMD. Reuters amintește că administrația Biden blocase anterior vânzările de cipuri avansate către China, iar luna trecută agenția relata că SUA lansaseră o analiză care putea duce la primele livrări către China. [...]

Anthropic restrânge accesul la Claude Pro - reacții din industrie indică o posibilă schimbare de paradigmă în AI
Decizia companiei Anthropic de a restrânge accesul la Claude Pro doar pentru versiunea Claude Code a stârnit reacții puternice în comunitatea tehnologică , mulți văzând în acest gest un semnal al presiunii crescânde asupra sustenabilității serviciilor AI comerciale. Anunțul, făcut pe 9 ianuarie 2026, a fost interpretat de unii ca fiind „primul semn al prăbușirii bulei AI”, în timp ce alții îl consideră o simplă ajustare în pragul listării la bursă. Anthropic limitează accesul publicului larg la funcționalitățile complete ale modelului Claude, permițând în continuare acces doar la Claude Code , o versiune specializată pentru dezvoltatori, web și aplicații. Cei care doresc să folosească modelul pentru alte scopuri vor trebui să acceseze platformele API sau ACP (Anthropic Console Platform), destinate companiilor. În opinia lui Brian Cardarella ( @bcardarella ), voce cunoscută în cercurile tech, aceasta este o mișcare de limitare a accesului și scădere a calității serviciilor , în ciuda așteptărilor ca odată cu scăderea costurilor de calcul, utilizatorii finali să beneficieze de avantaje. „Dacă crezi că firmele vor transfera economiile rezultate din hardware către clienți, îți vând un pod”, scrie el ironic pe X (fostul Twitter). Reacții împărțite în industrie Unii utilizatori văd în această decizie o simplă strategie corporatistă: „Doar o companie care își optimizează marja de profit înainte de IPO” , scrie Drew Bredvick (@DBredvick). Daniel Kim (@learnwdaniel) atrage atenția că „200 de dolari pentru 10.000 de dolari echivalent în inferență nu era sustenabil pe termen lung” . Chris Huber (@chubes4) speculează că „ Claude urmează să devină și mai bun, iar compania vrea să aibă exclusivitate” . Alții însă, cred că mișcarea va avea efect de bumerang: „Dacă își închid modelele, oamenii pur și simplu vor merge mai departe” , avertizează Trent (@SevereSig), menționând alternative ca GLM sau DeepSeek, care va fi lansat în februarie. Eru (@MysticEru) spune că „entuziaștii AI vor uita de Anthropic dacă devine irelevantă” . Tendințe emergente: modele locale și open-source Mulți utilizatori susțin că viitorul va aparține modelelor open-source rulate local , pe hardware propriu. „Plătești doar electricitatea, nu și tokenii” , afirmă @neuralamp4ever, subliniind avantajul economic al acestei soluții. De asemenea, utilizatori precum @v_lugovsky subliniază că astfel de schimbări vor forța dezvoltatorii să „livreze rezultate reale, nu doar impresii” . Ce urmează? Există două tabere distincte în această dezbatere: cei care cred că industria AI trece printr-o maturizare normală , cu corecturi necesare în prețuri și servicii, și cei care văd în aceste mișcări semnele unei crize imediate de sustenabilitate , în care marile modele închise își vor pierde relevanța. Cu alternative deschise din ce în ce mai competitive și interes pentru localizare, utilizatorii par mai puțin dispuși să accepte limitări impuse artificial. [...]

Microsoft cere tarife care să acopere integral consumul de electricitate al centrelor AI; fără subvenționare din facturile populației
Microsoft spune că va plăti integral costurile cu electricitatea pentru centrele AI potrivit Ars Technica , compania anunțând că va cere utilităților și autorităților de reglementare tarife suficient de mari încât să acopere complet consumul și investițiile de infrastructură necesare centrelor sale de date. Brad Smith , președintele Microsoft, recunoaște că în ultimele luni tarifele rezidențiale au crescut în zeci de state americane, pe fondul inflației, al problemelor din lanțurile de aprovizionare și al modernizărilor rețelei, și susține că noile investiții sunt binevenite în comunități doar dacă nu duc la facturi mai mari sau la presiuni asupra resurselor de apă. Microsoft afirmă că nu este de acord ca publicul să suporte costurile suplimentare de electricitate generate de extinderea centrelor AI , argumentând că, în condițiile în care companiile de tehnologie sunt foarte profitabile, o astfel de abordare ar fi „nedreaptă” și „nerealistă politic”. În Wisconsin, compania spune că sprijină o structură de tarifare care ar taxa „clienții foarte mari”, inclusiv centrele de date, pentru costul energiei necesare deservirii lor. Pe partea de apă folosită la răcire, Microsoft își propune o îmbunătățire de 40% a intensității utilizării apei până în 2030 și anunță un nou design de centru de date cu sistem închis, care recirculă constant lichidul de răcire și reduce semnificativ consumul de apă. În această configurație, deja implementată în Wisconsin și Georgia, compania spune că nu mai este nevoie de apă potabilă pentru răcire. În același timp, Smith afirmă că Microsoft nu va cere autorităților locale reduceri de taxe pe proprietate și că își va plăti integral obligațiile, obiectivul fiind ca aceste angajamente să fie puse în practică în prima jumătate a lui 2026. [...]

Samsung Vision AI la CES 2026; modul AI Soccer Mode Pro schimbă felul în care urmărești meciurile
Samsung a prezentat la CES 2026 funcția AI Soccer Mode Pro, parte din suita Vision AI, care transformă experiența vizionării meciurilor de fotbal. Potrivit Mobilissimo , această tehnologie permite utilizatorilor să elimine comentariul sau zgomotul publicului pentru o imersiune mai profundă. De asemenea, funcția vizuală scoate mingea în evidență pe ecran, îmbunătățind claritatea vizuală a meciului. În plus, AI-ul integrat poate face predicții despre câștigătorul meciului și oferă utilizatorilor informații suplimentare, cum ar fi statistici ale echipelor sau curiozități despre meci. Această tehnologie nu se limitează doar la fotbal; Vision AI poate îmbunătăți și experiența de vizionare a filmelor, oferind informații despre actori sau un sinopsis al filmului. Samsung combină tehnologiile Gemini și Bixby în această nouă suită AI, promițând o experiență de vizionare mai interactivă și personalizată. Aceasta marchează un pas important în modul în care consumatorii pot interacționa cu conținutul media, fie că este vorba de sport sau divertisment. [...]

Cătălin Măruță și echipa sa, afectate de schimbările din televiziune; impactul inteligenței artificiale asupra industriei media
Oprirea emisiunii „La Măruță” de la ProTV a fost anunțată fără consultarea vedetei Cătălin Măruță, marcând un posibil început al epocii Inteligenței Artificiale în televiziunea din România , potrivit HotNews.ro . Emisiunea va continua până pe 6 februarie, iar decizia a fost comunicată la scurt timp după încheierea unei ediții recente. În spatele producției se afla o echipă de aproximativ 40 de persoane, incluzând jurnaliști, cameramani și editori de montaj, reflectând complexitatea unei producții live zilnice. Emisiunea, cunoscută pentru incursiunile sale în „România profundă” și pentru prezentarea unor cazuri sociale și povești de succes, a fost un format costisitor pentru ProTV. Deși criticată în trecut pentru senzaționalism, „La Măruță” a devenit un program popular, reprezentativ pentru un segment larg al publicului. Oprirea emisiunii vine în contextul în care ProTV a anunțat crearea unui departament de Inteligență Artificială, care, deși nu va produce emisiuni în primă fază, va prelua realizarea automată a spoturilor de promovare. Această mișcare reflectă tendința globală de a integra AI în diverse industrii, inclusiv media. Studiile arată că algoritmii, spre deosebire de oameni, tind să promoveze alte algoritme, datorită eficienței lor și lipsei de emoții. În media, AI influențează deja ce consumă publicul, modelând și controlând accesul la informație și divertisment. În comunicatul ProTV, decizia de a opri emisiunea a fost justificată ca parte a unei strategii de adaptare la cerințele publicului digital. Declarația lui Măruță, deși mulțumind echipei și telespectatorilor, nu menționează canalul TV, sugerând un impact personal și profesional semnificativ al acestei decizii. Acest episod poate fi văzut ca un indicator al schimbărilor viitoare în piața muncii, nu doar în media, pe măsură ce companiile se îndreaptă către soluții mai eficiente și mai puțin costisitoare oferite de Inteligența Artificială. [...]

Musk comentează parteneriatul Apple-Google pentru Siri; riscuri de concentrare a puterii
Elon Musk și-a exprimat îngrijorarea cu privire la parteneriatul dintre Apple și Google pentru dezvoltarea unui Siri mai personalizat, folosind platforma Gemini. Musk a postat pe rețeaua socială X că acest parteneriat ar putea duce la o concentrație nejustificată de putere pentru Google, care deține deja Android și Chrome. Musk, care este directorul executiv al xAI, compania ce dezvoltă Grok, un competitor al Gemini, a subliniat riscurile unei astfel de colaborări. Deși nu se așteaptă un răspuns public din partea Apple sau Google, știrea va fi actualizată în cazul unor declarații oficiale. Apple și Google au anunțat că Gemini va contribui la dezvoltarea unor funcții viitoare ale Apple Intelligence, inclusiv o versiune mai personalizată a asistentului Siri, programată să fie lansată anul acesta. Se preconizează că noua versiune Siri va fi disponibilă odată cu iOS 26.4, în martie sau aprilie. Anul trecut, xAI a intentat un proces împotriva Apple și OpenAI, acuzându-le de conspirație pentru a-și menține dominația pe piața inteligenței artificiale. Această acțiune subliniază tensiunile existente în industria tehnologică legate de controlul și influența în sectorul AI. Parteneriatul dintre Apple și Google nu se limitează doar la Siri, ci va extinde colaborarea la o serie de funcții viitoare ale Apple Intelligence. Această colaborare pe termen lung se bazează pe modelele Gemini și tehnologia de cloud a Google. Dezvoltarea unui Siri mai personalizat și integrarea tehnologiei Gemini ar putea aduce inovații semnificative pentru utilizatori, dar ridică și întrebări legate de monopolul tehnologic și protecția datelor personale. Rămâne de văzut cum vor evolua aceste aspecte și ce impact vor avea asupra pieței și utilizatorilor finali. [...]
