Știri
Știri din categoria Inteligență artificială

Apple a dezvoltat un sistem de inteligență artificială care poate recunoaște gesturi ale mâinii chiar și fără exemple anterioare, folosind semnale musculare colectate de senzori purtabili, potrivit unui studiu publicat de companie.
Cercetarea, prezentată pe blogul Apple Machine Learning Research și programată pentru conferința ICLR 2026, introduce un model numit EMBridge, capabil să identifice mișcări ale mâinii pe baza semnalelor electromiografice (EMG). Aceste semnale reprezintă activitatea electrică generată de mușchi în timpul contracției.

Sistemul folosește senzori care detectează semnale EMG și le corelează cu poziția reală a mâinii pentru a învăța tipare de mișcare.
Principalele etape ale procesului:
În testele realizate pe două seturi mari de date – emg2pose și NinaPro – sistemul a depășit performanța altor metode existente, reușind să identifice gesturi necunoscute chiar și cu aproximativ 40% din datele de antrenare.

Deși studiul nu confirmă produse viitoare, cercetătorii sugerează că tehnologia ar putea fi utilizată în dispozitive purtabile pentru controlul altor gadgeturi.
Printre scenariile posibile:
Tehnologia ar putea funcționa printr-un dispozitiv purtat la încheietură care interpretează semnalele musculare ale mâinii și le transformă în comenzi digitale.

Controlul dispozitivelor prin semnale musculare devine tot mai explorat în domeniul realității augmentate și al tehnologiei purtabile. Companii precum Meta testează deja concepte similare, folosind brățări capabile să interpreteze semnale neuronale pentru controlul dispozitivelor inteligente.
Potrivit cercetătorilor Apple, astfel de sisteme ar putea deschide noi metode de interacțiune cu tehnologia, mai intuitive și mai accesibile.
Recomandate

Cercetătorii de la Universitatea din Sydney au creat un cip AI care procesează date folosind lumină. Potrivit EurekAlert , prototipul utilizează structuri nanofotonice pentru a realiza calcule la scări de timp extrem de mici, de ordinul picosecundelor – adică trilioane de fracțiuni de secundă – ceea ce ar putea duce la sisteme de inteligență artificială mult mai rapide și mai eficiente energetic decât cele actuale. Cipul a fost dezvoltat în cadrul centrului Nano Hub al Universității din Sydney și funcționează diferit față de procesoarele convenționale. În loc să transmită electroni prin circuite electrice, dispozitivul manipulează fotoni – particule de lumină – care trec prin structuri nanometrice. Aceste structuri realizează automat operațiile matematice necesare pentru funcționarea modelelor de inteligență artificială, reducând semnificativ consumul de energie și cantitatea de căldură generată în timpul procesării. Potrivit profesorului Xiaoke Yi , coordonatorul grupului de cercetare în fotonică al universității, tehnologia ar putea rezolva una dintre marile probleme ale industriei AI: consumul masiv de energie al centrelor de date. Utilizarea luminii pentru calcul ar permite dezvoltarea unor acceleratoare AI mult mai rapide și mai compacte. Pentru a testa prototipul, cercetătorii au antrenat rețeaua neuronală nanofotonică să analizeze peste 10.000 de imagini biomedicale, inclusiv scanări RMN ale sânului, toracelui și abdomenului. În experimente și simulări, cipul a obținut o acuratețe de aproximativ 90–99% în clasificarea imaginilor. Proiectul se înscrie într-un domeniu de cercetare aflat în expansiune, numit calcul fotonic, care încearcă să folosească lumina în locul electricității pentru procesarea datelor. Alte echipe de cercetare, inclusiv de la MIT, au demonstrat în ultimii ani procesoare fotonice capabile să execute operații de rețea neuronală în mai puțin de o jumătate de nanosecundă, iar companii tehnologice dezvoltă deja acceleratoare comerciale bazate pe această tehnologie. Echipa din Sydney lucrează acum la extinderea conceptului pentru rețele neuronale fotonice mai mari și a depus deja o cerere de brevet pentru noul cip, care a fost realizat cu sprijinul infrastructurii Australian National Fabrication Facility . [...]

Apple amână lansarea hubului pentru locuințe inteligente până în toamna lui 2026 , potrivit Bloomberg , deoarece noua generație a asistentului Siri, bazată pe inteligență artificială, nu este încă pregătită. Dispozitivul, cunoscut intern sub numele de cod J490 , urma inițial să fie lansat în primăvara anului 2025, însă planurile companiei au fost modificate de mai multe ori din cauza întârzierilor în dezvoltarea noilor funcții software. Inițial, Apple spera să aducă produsul pe piață în martie 2026, dar dezvoltarea funcțiilor avansate de inteligență artificială pentru Siri a necesitat mai mult timp. Conform informațiilor citate de publicația americană, compania analizează acum o lansare în jurul lunii septembrie 2026 , când sunt așteptate și actualizări majore ale sistemelor de operare Apple , care ar integra noua platformă AI. Surse apropiate proiectului susțin că hardware-ul dispozitivului este deja finalizat , însă Apple preferă să amâne lansarea până când experiența software va fi complet pregătită. Strategia reflectă politica companiei de a lansa produse doar atunci când integrarea dintre hardware și software este considerată suficient de matură. Cum ar putea arăta noul dispozitiv Hubul pentru locuințe inteligente este conceput ca un ecran central pentru controlul ecosistemului Apple din casă. Potrivit informațiilor disponibile, dispozitivul ar avea: un design apropiat de un iPad pătrat posibilitatea de montare pe perete sau pe un suport cu difuzor o interfață inspirată din ecranul principal al Apple Watch recunoaștere facială pentru identificarea utilizatorilor În funcție de persoana recunoscută, dispozitivul ar putea afișa informații personalizate precum: agenda zilnică notificările primite notițe sau mementouri recomandări de muzică și știri Rolul Siri în noul ecosistem AI Apple Asistentul vocal Siri ar urma să devină elementul central al dispozitivului. Apple dezvoltă o versiune complet revizuită a asistentului, cu capabilități avansate de inteligență artificială care să permită interacțiuni mai naturale și control mai eficient al dispozitivelor din locuința inteligentă. Proiectul face parte dintr-o strategie mai largă a companiei de a integra AI în ecosistemul său. Printre produsele aflate în dezvoltare se numără: AirPods echipate cu camere ochelari inteligenți diverse dispozitive purtabile bazate pe inteligență artificială Multe dintre aceste proiecte depind însă de finalizarea noii platforme Siri. Presiunea competiției Întârzierea subliniază presiunea asupra Apple de a recupera teren în domeniul inteligenței artificiale și al locuințelor inteligente. Rivali precum Amazon și Google oferă deja dispozitive mature pentru controlul casei conectate, integrate cu asistenți vocali și servicii AI avansate. Pentru Apple, succesul noului hub pentru locuințe inteligente ar putea deveni un pas important în extinderea ecosistemului său dincolo de iPhone, iPad și Mac, într-o piață în care inteligența artificială devine tot mai centrală. [...]

Modelul AI „Avocado” dezvoltat de Meta ar putea fi amânat , după ce testele interne au arătat că sistemul nu reușește să egaleze performanțele celor mai noi modele create de Google și Anthropic, potrivit Benzinga . Modelul „Avocado” este conceput ca un sistem de inteligență artificială fundamental care ar urma să stea la baza viitoarelor produse AI ale Meta, inclusiv chatboți, instrumente de programare asistată de inteligență artificială și alte aplicații integrate în platformele companiei. În cadrul testelor interne, sistemul a arătat rezultate mai bune decât generațiile anterioare de modele dezvoltate de Meta și chiar a depășit o versiune mai veche a modelului Google Gemini . Cu toate acestea, potrivit unor persoane familiarizate cu proiectul, performanțele sale nu reușesc să ajungă la nivelul celei mai recente versiuni Gemini și nici la cele ale modelelor dezvoltate de compania Anthropic. Din acest motiv, conducerea Meta ar fi decis să își reevalueze calendarul de lansare. Dacă inițial compania plănuia să prezinte modelul în martie 2026, lansarea ar putea fi amânată cel puțin până în luna mai. În paralel, există discuții interne privind posibilitatea ca Meta să licențieze temporar tehnologie bazată pe modelul Gemini al Google pentru a susține anumite produse AI, însă o decizie finală nu a fost anunțată. Întârzierea apare într-un moment în care Meta investește masiv în dezvoltarea inteligenței artificiale, domeniu considerat esențial pentru strategia companiei conduse de Mark Zuckerberg . Pentru anul 2026, Meta estimează cheltuieli de până la 135 de miliarde de dolari pentru infrastructură și dezvoltarea tehnologiilor AI, aproape dublu față de aproximativ 72 de miliarde de dolari investite anul trecut. În paralel cu „Avocado”, compania lucrează și la alte modele aflate în dezvoltare, printre care „Mango”, dedicat generării de imagini și video, și un sistem viitor cu numele de cod „Watermelon”, toate acestea făcând parte din planul Meta de a concura direct cu liderii actuali ai industriei AI. [...]

Inteligența artificială începe să schimbe radical modul în care este scris software-ul , iar mulți programatori spun că rolul lor se transformă din autori de cod în „arhitecți” care coordonează agenți AI, potrivit unei analize publicate de The New York Times . Articolul, bazat pe interviuri cu peste 70 de dezvoltatori de la companii precum Google, Amazon sau Microsoft, descrie o schimbare majoră în industrie: în tot mai multe cazuri, inteligența artificială scrie cea mai mare parte a codului , iar programatorii doar explică în limbaj natural ce vor să construiască și verifică rezultatul. Programatorii discută cu AI-ul, nu mai scriu cod Un exemplu este Manu Ebert, cofondator al start-up-ului Hyperspell, care folosește Claude Code – un instrument dezvoltat de compania Anthropic. În trecut, dezvoltarea unei funcții software putea dura o zi întreagă; acum, AI-ul poate genera și testa codul în aproximativ 30 de minute. În loc să scrie manual fiecare linie de program, dezvoltatorii: descriu ce trebuie să facă aplicația analizează planul propus de AI verifică testele și rezultatele generate automat Astfel, munca programatorilor devine mai apropiată de designul și arhitectura sistemelor software decât de scrierea efectivă a codului. Productivitatea ar putea crește de zeci de ori Mai mulți dezvoltatori spun că AI-ul le crește productivitatea semnificativ. Unele estimări indică: creșteri de 10 până la 20 de ori în start-up-uri până la 100 de ori mai rapid pentru anumite sarcini simple aproximativ 10% creștere a eficienței în companii foarte mari precum Google În firmele mari, unde există miliarde de linii de cod vechi, AI-ul este util mai ales pentru: analizarea codului existent găsirea erorilor sugerarea de modificări sau optimizări Programatorii devin „arhitecți” ai sistemelor În noul model de lucru, dezvoltatorii se concentrează mai mult pe: proiectarea sistemului software coordonarea agenților AI verificarea calității codului generat Mulți programatori spun că se simt mai degrabă „arhitecți” care proiectează sistemul , în timp ce AI-ul face munca de construcție. Impactul asupra pieței muncii Schimbarea ridică însă și întrebări despre viitorul profesiei. Date analizate de economiști de la Stanford arată că numărul locurilor de muncă pentru programatori foarte tineri a scăzut cu aproximativ 16% din 2022 , sugerând că posturile de început ar putea fi cele mai afectate. În același timp, există și argumentul invers: dacă dezvoltarea software devine mult mai ieftină și rapidă, mai multe companii vor crea propriile aplicații, ceea ce ar putea crește cererea totală pentru programatori. O schimbare similară cu evoluția limbajelor de programare Unii veterani din industrie cred că transformarea actuală este doar o nouă etapă a evoluției programării. În trecut, limbaje precum Python sau JavaScript au simplificat mult scrierea codului, eliminând sarcini tehnice complexe precum gestionarea memoriei. Acum, inteligența artificială reprezintă un nou nivel de abstractizare , în care programatorii descriu intenția, iar sistemele automate transformă acea descriere în cod funcțional. [...]

Google introduce funcții bazate pe inteligență artificială în Google Maps , transformând aplicația într-un instrument conversațional capabil să ofere recomandări personalizate și o navigație mult mai vizuală. Noile funcții sunt construite pe baza modelelor Gemini și vizează două direcții principale: modul în care utilizatorii descoperă locuri și modul în care navighează spre destinație. Compania susține că aceasta reprezintă cea mai importantă actualizare a sistemului de navigație din ultimul deceniu. „Ask Maps” – harta care răspunde la întrebări Prima funcție, numită Ask Maps , transformă Google Maps într-o interfață conversațională. Utilizatorii pot adresa întrebări complexe despre locuri sau activități, iar aplicația generează răspunsuri personalizate și afișează rezultatele direct pe hartă. De exemplu, utilizatorii pot întreba: unde pot încărca telefonul fără a sta la coadă într-o cafenea ce terenuri de tenis publice sunt deschise seara ce opriri interesante pot face într-o călătorie Răspunsurile sunt generate pe baza datelor din Google Maps, care include informații despre peste 300 de milioane de locuri și recenzii provenite de la mai mult de 500 de milioane de contributori din comunitatea platformei. Rezultatele sunt personalizate și în funcție de preferințele utilizatorului, cum ar fi locurile salvate sau căutările anterioare. După alegerea unei destinații, utilizatorii pot face rapid rezervări, salva locații sau trimite recomandările prietenilor. Funcția Ask Maps începe să fie lansată treptat în Statele Unite și India , pe dispozitive Android și iOS, iar versiunea pentru desktop va apărea ulterior. „Immersive Navigation” – cea mai mare schimbare a navigației din ultimii 10 ani A doua funcție majoră este Immersive Navigation , un sistem de navigație complet redesenat care introduce o reprezentare tridimensională a traseului. Noua interfață oferă: vedere 3D detaliată a drumurilor și clădirilor evidențierea benzilor de circulație, semafoarelor și trecerilor de pietoni indicații vocale mai naturale previzualizarea destinației cu imagini Street View Sistemul analizează imagini din Street View și fotografii aeriene pentru a construi o reprezentare mai realistă a traseului. Informații în timp real despre trafic și rute alternative Actualizarea aduce și funcții noi pentru planificarea traseelor. Google Maps procesează peste 5 milioane de actualizări de trafic pe secundă și poate explica diferențele dintre rutele alternative. Aplicația va indica, de exemplu: dacă o rută este mai rapidă, dar include taxe de drum dacă un traseu este mai lung, dar evită traficul dacă apar incidente precum accidente sau lucrări rutiere De asemenea, înainte de sosire, utilizatorii pot vedea intrarea clădirii și recomandări pentru locuri de parcare. Funcția Immersive Navigation începe să fie disponibilă în Statele Unite și va fi extinsă treptat pe Android, iOS, Android Auto, CarPlay și în mașinile care au sistemul Google integrat. Prin integrarea modelelor Gemini cu datele globale ale platformei, Google încearcă să transforme hărțile digitale din simple instrumente de orientare în asistenți inteligenți pentru explorarea și planificarea activităților zilnice. [...]

Sam Altman spune că inteligența artificială ar putea fi vândută „la contor”, precum electricitatea , sugerând un model economic în care utilizatorii plătesc strict pentru cantitatea de „inteligență” consumată. Declarația, făcută la un eveniment major al industriei financiare din SUA, a devenit rapid virală și a relansat dezbaterea despre modul în care va fi controlat și tarifat accesul la tehnologiile AI. Potrivit NDTV Profit , directorul OpenAI a vorbit despre această viziune pe 11 martie 2026, la Infrastructure Summit organizat de BlackRock în Washington. Într-o discuție cu Bayo Ogunlesi, președintele Global Infrastructure Partners, Altman a explicat că inteligența artificială ar putea deveni o infrastructură digitală de bază, accesată la cerere, similar cu apa sau electricitatea. Modelul de funcționare este deja vizibil în industria AI. Companiile care dezvoltă modele mari de limbaj taxează utilizarea în funcție de „tokenuri”, unități care reprezintă textul sau datele procesate de sistem. Acest mecanism permite gestionarea eficientă a resurselor de calcul, mai ales în perioadele de cerere intensă pentru servicii bazate pe inteligență artificială. Altman a subliniat că obiectivul companiei este extinderea masivă a accesului la aceste tehnologii. „Vrem să inundăm lumea cu inteligență. Vrem ca oamenii să o folosească pentru orice”, a spus el, indicând că inteligența artificială ar putea deveni un element central al economiei digitale, de la productivitate personală până la procese industriale complexe. Declarațiile vin într-un context de investiții uriașe în infrastructura AI. Potrivit unei analize publicate de Fortune , companiile din domeniu investesc zeci de miliarde de dolari în centre de date și capacitate de calcul pentru a susține dezvoltarea modelelor avansate. În paralel, OpenAI a atras recent finanțări masive pentru extinderea infrastructurii, inclusiv cu sprijinul unor investitori majori din sectorul tehnologic. Reacțiile din mediul online au fost însă împărțite. Unii utilizatori au comparat ideea cu scenarii distopice din cultura pop, sugerând că „inteligența ca utilitate” ar putea transforma gândirea asistată de AI într-un serviciu plătit permanent. Alții au remarcat că analogia cu electricitatea ar putea implica, pe termen lung, și reglementări stricte din partea statului dacă inteligența artificială devine infrastructură critică. Conceptul nu este nou în discursul lui Altman. În 2025, el declara într-un eveniment economic că industria se apropie de momentul în care va putea oferi „inteligență prea ieftină pentru a fi contorizată”, susținând că prețul procesării AI a scăzut de peste zece ori pe an în ultimii ani, după cum relata Inkl . Totuși, în 2026 discuția capătă o dimensiune diferită, pe fondul costurilor uriașe ale infrastructurii, al consumului de energie și al întrebărilor tot mai frecvente despre cine va controla accesul la această tehnologie. [...]