Știri
Știri din categoria Inteligență artificială

Apple continuă să folosească tehnologia Anthropic în operațiuni interne, în ciuda faptului că Siri va funcționa cu AI-ul Google Gemini, relatează Bloomberg. Inițial, Apple intenționa să reconstruiască Siri folosind tehnologia Claude AI de la Anthropic, dar cerințele financiare ridicate ale startup-ului au determinat compania să colaboreze cu Google.
Mark Gurman de la Bloomberg a dezvăluit într-un podcast că Apple a renunțat la planurile de a folosi Claude AI după ce Anthropic a cerut „sume uriașe de bani”, care ar fi crescut anual pentru următorii trei ani. Această schimbare explică de ce Apple a ales să colaboreze cu Google, al cărui AI, Gemini, va alimenta noua versiune a Siri, așteptată să fie lansată odată cu iOS 26.4 în primăvara acestui an.
„Anthropic era într-o poziție de negociere puternică”, a spus Gurman. „Apple folosește Anthropic în acest moment. Anthropic alimentează multe dintre lucrurile pe care Apple le face intern în ceea ce privește dezvoltarea de produse și multe dintre instrumentele lor interne.”
În ciuda pierderii Anthropic ca partener AI pentru consumatori, Apple continuă să utilizeze intens tehnologia startup-ului în culise. Compania folosește versiuni personalizate ale Claude AI pe serverele sale interne pentru dezvoltarea produselor și instrumente interne.
Decizia de a colabora cu Google a fost influențată de lansarea Gemini 3 în noiembrie 2025, care a dominat clasamentele de performanță AI. În ianuarie 2026, Apple și Google au anunțat un parteneriat pe mai mulți ani, iar CEO-ul Apple, Tim Cook, a declarat că tehnologia AI a Google va oferi cea mai capabilă fundație pentru modelele fundamentale ale Apple.
Apple a decis să prioritizeze colaborarea cu Google după ce a evaluat incertitudinile legate de un caz antitrust în desfășurare, care implica acordul de căutare Safari între Apple și Google. Cu toate acestea, lansarea Gemini 3 a consolidat poziția Google, determinând Apple să opteze pentru această colaborare.
Pe lângă tehnologia Anthropic, Apple utilizează și ChatGPT de la OpenAI pentru anumite funcții de inteligență artificială din pachetul său Creator Studio. Această diversificare a parteneriatelor și tehnologiilor reflectă strategia Apple de a integra cele mai avansate soluții AI disponibile pentru a-și îmbunătăți produsele și serviciile.
În concluzie, deși Apple a ales să colaboreze cu Google pentru dezvoltarea Siri, continuă să se bazeze pe tehnologia Anthropic pentru operațiuni interne, demonstrând un angajament față de inovația tehnologică și diversificarea parteneriatelor.
Recomandate

Inteligența artificială începe să schimbe radical modul în care este scris software-ul , iar mulți programatori spun că rolul lor se transformă din autori de cod în „arhitecți” care coordonează agenți AI, potrivit unei analize publicate de The New York Times . Articolul, bazat pe interviuri cu peste 70 de dezvoltatori de la companii precum Google, Amazon sau Microsoft, descrie o schimbare majoră în industrie: în tot mai multe cazuri, inteligența artificială scrie cea mai mare parte a codului , iar programatorii doar explică în limbaj natural ce vor să construiască și verifică rezultatul. Programatorii discută cu AI-ul, nu mai scriu cod Un exemplu este Manu Ebert, cofondator al start-up-ului Hyperspell, care folosește Claude Code – un instrument dezvoltat de compania Anthropic. În trecut, dezvoltarea unei funcții software putea dura o zi întreagă; acum, AI-ul poate genera și testa codul în aproximativ 30 de minute. În loc să scrie manual fiecare linie de program, dezvoltatorii: descriu ce trebuie să facă aplicația analizează planul propus de AI verifică testele și rezultatele generate automat Astfel, munca programatorilor devine mai apropiată de designul și arhitectura sistemelor software decât de scrierea efectivă a codului. Productivitatea ar putea crește de zeci de ori Mai mulți dezvoltatori spun că AI-ul le crește productivitatea semnificativ. Unele estimări indică: creșteri de 10 până la 20 de ori în start-up-uri până la 100 de ori mai rapid pentru anumite sarcini simple aproximativ 10% creștere a eficienței în companii foarte mari precum Google În firmele mari, unde există miliarde de linii de cod vechi, AI-ul este util mai ales pentru: analizarea codului existent găsirea erorilor sugerarea de modificări sau optimizări Programatorii devin „arhitecți” ai sistemelor În noul model de lucru, dezvoltatorii se concentrează mai mult pe: proiectarea sistemului software coordonarea agenților AI verificarea calității codului generat Mulți programatori spun că se simt mai degrabă „arhitecți” care proiectează sistemul , în timp ce AI-ul face munca de construcție. Impactul asupra pieței muncii Schimbarea ridică însă și întrebări despre viitorul profesiei. Date analizate de economiști de la Stanford arată că numărul locurilor de muncă pentru programatori foarte tineri a scăzut cu aproximativ 16% din 2022 , sugerând că posturile de început ar putea fi cele mai afectate. În același timp, există și argumentul invers: dacă dezvoltarea software devine mult mai ieftină și rapidă, mai multe companii vor crea propriile aplicații, ceea ce ar putea crește cererea totală pentru programatori. O schimbare similară cu evoluția limbajelor de programare Unii veterani din industrie cred că transformarea actuală este doar o nouă etapă a evoluției programării. În trecut, limbaje precum Python sau JavaScript au simplificat mult scrierea codului, eliminând sarcini tehnice complexe precum gestionarea memoriei. Acum, inteligența artificială reprezintă un nou nivel de abstractizare , în care programatorii descriu intenția, iar sistemele automate transformă acea descriere în cod funcțional. [...]

Armata SUA testează utilizarea chatboților de inteligență artificială pentru planuri de război , potrivit unei analize publicate de WIRED , care descrie demonstrații realizate de compania americană Palantir pentru Pentagon. În cadrul acestor prezentări, sisteme de inteligență artificială precum Claude sau ChatGPT sunt integrate într-o platformă capabilă să analizeze rapid cantități mari de informații militare și să sugereze scenarii de acțiune pentru comandamentele armatei. Tehnologia ar funcționa ca un instrument de asistență strategică , capabil să combine date provenite din surse diverse: rapoarte de informații, imagini satelitare, poziții ale trupelor sau informații despre logistică. Pe baza acestor date, chatbotul poate genera rapid opțiuni tactice sau planuri de operațiuni pe care analiștii militari le pot evalua ulterior. În demonstrațiile prezentate, platforma dezvoltată de Palantir permite operatorilor să pună întrebări în limbaj natural, iar sistemul răspunde prin: analizarea situației militare; identificarea riscurilor și oportunităților; sugerarea unor pași operaționali sau scenarii posibile. Scopul declarat al acestor sisteme nu este înlocuirea deciziei umane, ci accelerarea procesului de analiză și planificare într-un mediu în care informațiile se schimbă rapid. În paralel însă, utilizarea inteligenței artificiale în domeniul militar a generat controverse. Compania Anthropic , dezvoltatoarea modelului Claude , a refuzat recent să ofere guvernului american acces nelimitat la sistemele sale, argumentând că acestea nu ar trebui folosite pentru supraveghere în masă sau pentru arme complet autonome. Ca reacție, Pentagonul a catalogat produsele companiei drept un posibil „risc pentru lanțul de aprovizionare”, decizie contestată în instanță de Anthropic. Disputa evidențiază tensiunea tot mai mare dintre industria tehnologică și sectorul militar, într-un moment în care inteligența artificială devine un instrument strategic în analiza datelor, planificarea operațiunilor și dezvoltarea tehnologiilor de apărare. [...]

Modelul AI „Avocado” dezvoltat de Meta ar putea fi amânat , după ce testele interne au arătat că sistemul nu reușește să egaleze performanțele celor mai noi modele create de Google și Anthropic, potrivit Benzinga . Modelul „Avocado” este conceput ca un sistem de inteligență artificială fundamental care ar urma să stea la baza viitoarelor produse AI ale Meta, inclusiv chatboți, instrumente de programare asistată de inteligență artificială și alte aplicații integrate în platformele companiei. În cadrul testelor interne, sistemul a arătat rezultate mai bune decât generațiile anterioare de modele dezvoltate de Meta și chiar a depășit o versiune mai veche a modelului Google Gemini . Cu toate acestea, potrivit unor persoane familiarizate cu proiectul, performanțele sale nu reușesc să ajungă la nivelul celei mai recente versiuni Gemini și nici la cele ale modelelor dezvoltate de compania Anthropic. Din acest motiv, conducerea Meta ar fi decis să își reevalueze calendarul de lansare. Dacă inițial compania plănuia să prezinte modelul în martie 2026, lansarea ar putea fi amânată cel puțin până în luna mai. În paralel, există discuții interne privind posibilitatea ca Meta să licențieze temporar tehnologie bazată pe modelul Gemini al Google pentru a susține anumite produse AI, însă o decizie finală nu a fost anunțată. Întârzierea apare într-un moment în care Meta investește masiv în dezvoltarea inteligenței artificiale, domeniu considerat esențial pentru strategia companiei conduse de Mark Zuckerberg . Pentru anul 2026, Meta estimează cheltuieli de până la 135 de miliarde de dolari pentru infrastructură și dezvoltarea tehnologiilor AI, aproape dublu față de aproximativ 72 de miliarde de dolari investite anul trecut. În paralel cu „Avocado”, compania lucrează și la alte modele aflate în dezvoltare, printre care „Mango”, dedicat generării de imagini și video, și un sistem viitor cu numele de cod „Watermelon”, toate acestea făcând parte din planul Meta de a concura direct cu liderii actuali ai industriei AI. [...]

Apple a dezvoltat un sistem de inteligență artificială care poate recunoaște gesturi ale mâinii chiar și fără exemple anterioare , folosind semnale musculare colectate de senzori purtabili, potrivit unui studiu publicat de companie. Cercetarea, prezentată pe blogul Apple Machine Learning Research și programată pentru conferința ICLR 2026 , introduce un model numit EMBridge , capabil să identifice mișcări ale mâinii pe baza semnalelor electromiografice (EMG). Aceste semnale reprezintă activitatea electrică generată de mușchi în timpul contracției. Cum funcționează tehnologia Sistemul folosește senzori care detectează semnale EMG și le corelează cu poziția reală a mâinii pentru a învăța tipare de mișcare. Principalele etape ale procesului: modelul este antrenat folosind date EMG și poziții ale mâinii colectate simultan; sistemul învață să asocieze semnalele musculare cu gesturile corespunzătoare ; ulterior, poate recunoaște gesturi noi pe care nu le-a văzut în timpul antrenării . În testele realizate pe două seturi mari de date – emg2pose și NinaPro – sistemul a depășit performanța altor metode existente, reușind să identifice gesturi necunoscute chiar și cu aproximativ 40% din datele de antrenare . Posibile aplicații pentru dispozitive Apple Deși studiul nu confirmă produse viitoare, cercetătorii sugerează că tehnologia ar putea fi utilizată în dispozitive purtabile pentru controlul altor gadgeturi. Printre scenariile posibile: controlul dispozitivelor AR/VR , precum Apple Vision Pro; interacțiune fără atingere cu iPhone, Mac sau Apple Watch ; controlul protezelor robotice sau avatarurilor virtuale. Tehnologia ar putea funcționa printr-un dispozitiv purtat la încheietură care interpretează semnalele musculare ale mâinii și le transformă în comenzi digitale. O tendință în creștere în industria tech Controlul dispozitivelor prin semnale musculare devine tot mai explorat în domeniul realității augmentate și al tehnologiei purtabile. Companii precum Meta testează deja concepte similare , folosind brățări capabile să interpreteze semnale neuronale pentru controlul dispozitivelor inteligente. Potrivit cercetătorilor Apple, astfel de sisteme ar putea deschide noi metode de interacțiune cu tehnologia, mai intuitive și mai accesibile. [...]

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]

Google Cloud și Nvidia introduc GPU-uri fracționate pentru costuri mai mici în AI , potrivit Google Cloud , într-un parteneriat extins anunțat la GTC 2026, care vizează accelerarea adoptării inteligenței artificiale în mediul enterprise. GPU-uri „la porție” pentru companii Noutatea centrală este lansarea mașinilor virtuale G4 fracționate, care permit împărțirea unui GPU Nvidia RTX Pro 6000 în mai multe segmente: 1/8 GPU – pentru sarcini ușoare, precum desktopuri virtuale 1/4 GPU – pentru aplicații AI moderate 1/2 GPU – pentru inferență avansată și simulări Această abordare reduce costurile și oferă flexibilitate, permițând companiilor să plătească doar pentru resursele utilizate, într-un context în care cererea pentru infrastructură AI crește rapid. Integrare software și modele AI Parteneriatul merge dincolo de hardware și include integrarea profundă a tehnologiilor Nvidia în ecosistemul Google: Nvidia NeMo integrat în Vertex AI Nvidia Dynamo conectat la GKE Inference Gateway modele Nemotron 3 disponibile în Vertex AI Model Garden Aceste instrumente sunt concepute pentru a accelera dezvoltarea și implementarea modelelor AI complexe, inclusiv a celor de tip „agentic AI”, considerate următorul val în industrie. Infrastructură de nouă generație Google Cloud a confirmat și că va adopta sistemele Vera Rubin NVL72 în a doua jumătate a lui 2026. Acestea includ: Componentă Specificație GPU-uri 72 unități Rubin CPU-uri 36 procesoare Vera Utilizare antrenare și inferență la scară mare Clienți importanți, precum General Motors sau Salesforce, folosesc deja infrastructura comună pentru aplicații AI avansate, inclusiv platforme autonome și sisteme de analiză complexă. Miza: dominația în AI enterprise Anunțul reflectă o direcție clară: transformarea infrastructurii AI într-un serviciu flexibil și scalabil pentru companii. Nvidia și Google Cloud încearcă astfel să răspundă competiției din partea Amazon și Microsoft, dar și să capitalizeze cererea tot mai mare pentru modele AI capabile să opereze autonom. În paralel, Nvidia promovează ideea că „tokenii devin o resursă economică”, sugerând că viitorul industriei va depinde nu doar de puterea de calcul, ci și de eficiența utilizării acesteia. [...]