Știri
Știri din categoria Inteligență artificială

Elon Musk și-a exprimat îngrijorarea cu privire la parteneriatul dintre Apple și Google pentru dezvoltarea unui Siri mai personalizat, folosind platforma Gemini. Musk a postat pe rețeaua socială X că acest parteneriat ar putea duce la o concentrație nejustificată de putere pentru Google, care deține deja Android și Chrome.
Musk, care este directorul executiv al xAI, compania ce dezvoltă Grok, un competitor al Gemini, a subliniat riscurile unei astfel de colaborări. Deși nu se așteaptă un răspuns public din partea Apple sau Google, știrea va fi actualizată în cazul unor declarații oficiale.
Apple și Google au anunțat că Gemini va contribui la dezvoltarea unor funcții viitoare ale Apple Intelligence, inclusiv o versiune mai personalizată a asistentului Siri, programată să fie lansată anul acesta. Se preconizează că noua versiune Siri va fi disponibilă odată cu iOS 26.4, în martie sau aprilie.
Anul trecut, xAI a intentat un proces împotriva Apple și OpenAI, acuzându-le de conspirație pentru a-și menține dominația pe piața inteligenței artificiale. Această acțiune subliniază tensiunile existente în industria tehnologică legate de controlul și influența în sectorul AI.
Parteneriatul dintre Apple și Google nu se limitează doar la Siri, ci va extinde colaborarea la o serie de funcții viitoare ale Apple Intelligence. Această colaborare pe termen lung se bazează pe modelele Gemini și tehnologia de cloud a Google.
Dezvoltarea unui Siri mai personalizat și integrarea tehnologiei Gemini ar putea aduce inovații semnificative pentru utilizatori, dar ridică și întrebări legate de monopolul tehnologic și protecția datelor personale. Rămâne de văzut cum vor evolua aceste aspecte și ce impact vor avea asupra pieței și utilizatorilor finali.
Recomandate

Inteligența artificială începe să schimbe radical modul în care este scris software-ul , iar mulți programatori spun că rolul lor se transformă din autori de cod în „arhitecți” care coordonează agenți AI, potrivit unei analize publicate de The New York Times . Articolul, bazat pe interviuri cu peste 70 de dezvoltatori de la companii precum Google, Amazon sau Microsoft, descrie o schimbare majoră în industrie: în tot mai multe cazuri, inteligența artificială scrie cea mai mare parte a codului , iar programatorii doar explică în limbaj natural ce vor să construiască și verifică rezultatul. Programatorii discută cu AI-ul, nu mai scriu cod Un exemplu este Manu Ebert, cofondator al start-up-ului Hyperspell, care folosește Claude Code – un instrument dezvoltat de compania Anthropic. În trecut, dezvoltarea unei funcții software putea dura o zi întreagă; acum, AI-ul poate genera și testa codul în aproximativ 30 de minute. În loc să scrie manual fiecare linie de program, dezvoltatorii: descriu ce trebuie să facă aplicația analizează planul propus de AI verifică testele și rezultatele generate automat Astfel, munca programatorilor devine mai apropiată de designul și arhitectura sistemelor software decât de scrierea efectivă a codului. Productivitatea ar putea crește de zeci de ori Mai mulți dezvoltatori spun că AI-ul le crește productivitatea semnificativ. Unele estimări indică: creșteri de 10 până la 20 de ori în start-up-uri până la 100 de ori mai rapid pentru anumite sarcini simple aproximativ 10% creștere a eficienței în companii foarte mari precum Google În firmele mari, unde există miliarde de linii de cod vechi, AI-ul este util mai ales pentru: analizarea codului existent găsirea erorilor sugerarea de modificări sau optimizări Programatorii devin „arhitecți” ai sistemelor În noul model de lucru, dezvoltatorii se concentrează mai mult pe: proiectarea sistemului software coordonarea agenților AI verificarea calității codului generat Mulți programatori spun că se simt mai degrabă „arhitecți” care proiectează sistemul , în timp ce AI-ul face munca de construcție. Impactul asupra pieței muncii Schimbarea ridică însă și întrebări despre viitorul profesiei. Date analizate de economiști de la Stanford arată că numărul locurilor de muncă pentru programatori foarte tineri a scăzut cu aproximativ 16% din 2022 , sugerând că posturile de început ar putea fi cele mai afectate. În același timp, există și argumentul invers: dacă dezvoltarea software devine mult mai ieftină și rapidă, mai multe companii vor crea propriile aplicații, ceea ce ar putea crește cererea totală pentru programatori. O schimbare similară cu evoluția limbajelor de programare Unii veterani din industrie cred că transformarea actuală este doar o nouă etapă a evoluției programării. În trecut, limbaje precum Python sau JavaScript au simplificat mult scrierea codului, eliminând sarcini tehnice complexe precum gestionarea memoriei. Acum, inteligența artificială reprezintă un nou nivel de abstractizare , în care programatorii descriu intenția, iar sistemele automate transformă acea descriere în cod funcțional. [...]

Apple a dezvoltat un sistem de inteligență artificială care poate recunoaște gesturi ale mâinii chiar și fără exemple anterioare , folosind semnale musculare colectate de senzori purtabili, potrivit unui studiu publicat de companie. Cercetarea, prezentată pe blogul Apple Machine Learning Research și programată pentru conferința ICLR 2026 , introduce un model numit EMBridge , capabil să identifice mișcări ale mâinii pe baza semnalelor electromiografice (EMG). Aceste semnale reprezintă activitatea electrică generată de mușchi în timpul contracției. Cum funcționează tehnologia Sistemul folosește senzori care detectează semnale EMG și le corelează cu poziția reală a mâinii pentru a învăța tipare de mișcare. Principalele etape ale procesului: modelul este antrenat folosind date EMG și poziții ale mâinii colectate simultan; sistemul învață să asocieze semnalele musculare cu gesturile corespunzătoare ; ulterior, poate recunoaște gesturi noi pe care nu le-a văzut în timpul antrenării . În testele realizate pe două seturi mari de date – emg2pose și NinaPro – sistemul a depășit performanța altor metode existente, reușind să identifice gesturi necunoscute chiar și cu aproximativ 40% din datele de antrenare . Posibile aplicații pentru dispozitive Apple Deși studiul nu confirmă produse viitoare, cercetătorii sugerează că tehnologia ar putea fi utilizată în dispozitive purtabile pentru controlul altor gadgeturi. Printre scenariile posibile: controlul dispozitivelor AR/VR , precum Apple Vision Pro; interacțiune fără atingere cu iPhone, Mac sau Apple Watch ; controlul protezelor robotice sau avatarurilor virtuale. Tehnologia ar putea funcționa printr-un dispozitiv purtat la încheietură care interpretează semnalele musculare ale mâinii și le transformă în comenzi digitale. O tendință în creștere în industria tech Controlul dispozitivelor prin semnale musculare devine tot mai explorat în domeniul realității augmentate și al tehnologiei purtabile. Companii precum Meta testează deja concepte similare , folosind brățări capabile să interpreteze semnale neuronale pentru controlul dispozitivelor inteligente. Potrivit cercetătorilor Apple, astfel de sisteme ar putea deschide noi metode de interacțiune cu tehnologia, mai intuitive și mai accesibile. [...]

Samsung, SK Hynix și Micron își dispută supremația memoriei AI la GTC 2026 , potrivit Digitimes , într-un moment în care cererea pentru infrastructură dedicată inteligenței artificiale transformă profund industria semiconductorilor. Conferința NVIDIA GTC, desfășurată începând cu 16 martie 2026 la San Jose, a devenit principala scenă unde liderii pieței – SK Hynix, Samsung și Micron – își prezintă cele mai avansate soluții HBM4 și își consolidează relațiile cu gigantul american. Samsung a adus în prim-plan noua generație HBM4E , un cip de memorie de generația a șaptea, capabil să atingă viteze de până la 16 Gbps per pin și o lățime de bandă de aproximativ 4,0 TB/s. Compania mizează pe integrarea completă a componentelor pentru servere AI, incluzând atât memoria HBM, cât și soluții de stocare și module dedicate procesoarelor, în special pentru platforma NVIDIA Vera Rubin . SK Hynix, considerată lider în livrările actuale de HBM, a prezentat o gamă extinsă de produse deja utilizate în ecosistemul NVIDIA, dar și soluții noi orientate spre eficiență și scalabilitate: memorii HBM4 și HBM3E integrate în acceleratoare AI module LPDDR5X utilizate în supercomputere AI soluții de stocare avansate, inclusiv eSSD optimizate pentru centre de date În paralel, Micron își accelerează intrarea în producția de masă pentru HBM4, încercând să recupereze decalajul și să obțină contracte strategice în zona platformelor AI. Contextul este unul de presiune majoră asupra industriei: cererea pentru AI crește rapid, iar estimările indică scumpiri semnificative ale memoriei și posibile blocaje în aprovizionare până spre finalul deceniului. În acest ecosistem, NVIDIA joacă rolul central, stabilind standardele tehnologice și direcția de dezvoltare. GTC 2026 confirmă astfel o schimbare de paradigmă: memoria de mare viteză nu mai este un element secundar, ci devine nucleul competiției globale pentru performanță în inteligența artificială. [...]

Google Cloud și Nvidia introduc GPU-uri fracționate pentru costuri mai mici în AI , potrivit Google Cloud , într-un parteneriat extins anunțat la GTC 2026, care vizează accelerarea adoptării inteligenței artificiale în mediul enterprise. GPU-uri „la porție” pentru companii Noutatea centrală este lansarea mașinilor virtuale G4 fracționate, care permit împărțirea unui GPU Nvidia RTX Pro 6000 în mai multe segmente: 1/8 GPU – pentru sarcini ușoare, precum desktopuri virtuale 1/4 GPU – pentru aplicații AI moderate 1/2 GPU – pentru inferență avansată și simulări Această abordare reduce costurile și oferă flexibilitate, permițând companiilor să plătească doar pentru resursele utilizate, într-un context în care cererea pentru infrastructură AI crește rapid. Integrare software și modele AI Parteneriatul merge dincolo de hardware și include integrarea profundă a tehnologiilor Nvidia în ecosistemul Google: Nvidia NeMo integrat în Vertex AI Nvidia Dynamo conectat la GKE Inference Gateway modele Nemotron 3 disponibile în Vertex AI Model Garden Aceste instrumente sunt concepute pentru a accelera dezvoltarea și implementarea modelelor AI complexe, inclusiv a celor de tip „agentic AI”, considerate următorul val în industrie. Infrastructură de nouă generație Google Cloud a confirmat și că va adopta sistemele Vera Rubin NVL72 în a doua jumătate a lui 2026. Acestea includ: Componentă Specificație GPU-uri 72 unități Rubin CPU-uri 36 procesoare Vera Utilizare antrenare și inferență la scară mare Clienți importanți, precum General Motors sau Salesforce, folosesc deja infrastructura comună pentru aplicații AI avansate, inclusiv platforme autonome și sisteme de analiză complexă. Miza: dominația în AI enterprise Anunțul reflectă o direcție clară: transformarea infrastructurii AI într-un serviciu flexibil și scalabil pentru companii. Nvidia și Google Cloud încearcă astfel să răspundă competiției din partea Amazon și Microsoft, dar și să capitalizeze cererea tot mai mare pentru modele AI capabile să opereze autonom. În paralel, Nvidia promovează ideea că „tokenii devin o resursă economică”, sugerând că viitorul industriei va depinde nu doar de puterea de calcul, ci și de eficiența utilizării acesteia. [...]

Nvidia a lansat DLSS 5 și un cip AI pentru centre de date spațiale , potrivit CNBC , marcând o dublă direcție strategică: grafică avansată pentru jocuri și extinderea inteligenței artificiale în orbită. Anunțul a fost făcut de CEO-ul Jensen Huang în cadrul conferinței GTC 2026 din San Jose. DLSS 5: un salt major în grafica jocurilor Noua versiune DLSS 5 schimbă abordarea clasică a randării, introducând un model neuronal capabil să reconstruiască în timp real lumina, materialele și detaliile scenelor la rezoluții de până la 4K. Spre deosebire de versiunile anterioare, care îmbunătățeau performanța prin upscaling, această tehnologie „înțelege” scena și adaugă detalii fotorealiste direct la nivel de pixeli. Printre elementele cheie: randare neuronală în timp real control artistic păstrat pentru dezvoltatori suport anunțat de studiouri mari precum Ubisoft, Capcom sau Warner Bros. DLSS 5 este programat pentru lansare în toamna lui 2026, însă demonstrațiile actuale arată cerințe hardware ridicate, fiind necesare două plăci video RTX 5090 pentru rulare optimă. AI în spațiu: Vera Rubin Space-1 Nvidia a prezentat și Vera Rubin Space-1 , un modul de calcul proiectat pentru funcționare în orbită, destinat centrelor de date spațiale. Acesta ar oferi de până la 25 de ori mai multă putere de procesare AI comparativ cu GPU-ul H100. Caracteristici principale: optimizat pentru analiză în timp real și operațiuni autonome adaptat condițiilor extreme din spațiu (radiații, lipsa convecției) destinat viitoarelor infrastructuri de tip „data center orbital” Compania colaborează deja cu parteneri precum Axiom Space și Planet Labs, iar primul test ar putea avea loc în noiembrie 2026, prin lansarea unui satelit echipat cu acest modul. Provocări și miză Deși ambițiile sunt mari, Nvidia recunoaște dificultățile tehnice, în special legate de răcirea sistemelor în spațiu. Totuși, interesul pentru centre de date orbitale crește, pe fondul accesului la energie solară continuă și al cererii uriașe pentru putere de calcul AI. Prin aceste anunțuri, Nvidia încearcă să își consolideze poziția atât în industria jocurilor, cât și în infrastructura globală de inteligență artificială, extinzând competiția dincolo de Pământ. [...]

OpenAI își schimbă strategia și se concentrează pe programare și clienți business , potrivit The Wall Street Journal , într-o mișcare care marchează o retragere din proiectele secundare și o încercare de a valorifica mai eficient avantajul tehnologic. Decizia este analizată de CEO-ul Sam Altman și de Mark Chen , iar angajații urmează să primească detalii oficiale în perioada următoare, după ce planul a fost deja prezentat intern de Fidji Simo ca un efort de a fixa direcția companiei pe activitățile esențiale. Schimbarea nu vine din senin, ci continuă o serie de ajustări începute încă din 2025, când OpenAI a suspendat inițiative precum publicitatea, agenți pentru sănătate sau funcții de cumpărături, pentru a redirecționa resursele către îmbunătățirea ChatGPT. Noua etapă merge însă mai departe și stabilește două priorități clare: dezvoltarea instrumentelor de programare extinderea soluțiilor pentru companii Această repoziționare apare pe fondul unei competiții intense, în special cu Anthropic, ale cărei modele sunt percepute ca fiind mai performante în sarcini de codare. Deși OpenAI susține că produsul său Codex și-a triplat numărul de utilizatori săptămânali din ianuarie 2026, piața rămâne una disputată, iar integrarea în ecosisteme populare devine decisivă. În paralel, conducerea companiei consideră că principala problemă nu mai este capacitatea tehnologică, ci implementarea în mediul real. Directorul financiar Sarah Friar sublinia încă din ianuarie că obiectivul pentru 2026 este „adopția practică”, adică transformarea capabilităților AI în instrumente utilizate zilnic de companii și instituții. Câteva repere relevante pentru contextul actual: Indicator Valoare estimată Utilizatori săptămânali ChatGPT peste 900 milioane Venituri recurente anuale peste 20 miliarde dolari Evaluare companie (martie 2026) aproximativ 730 miliarde dolari În acest context, presiunea este dublă: competiția tehnologică și nevoia de a demonstra că investițiile masive pot genera venituri sustenabile, mai ales în perspectiva unei posibile listări la bursă spre finalul anului 2026. Practic, OpenAI încearcă să treacă de la statutul de lider în cercetare la cel de jucător dominant în aplicații comerciale. [...]