Știri
Știri din categoria Inteligență artificială

Apple își leagă tot mai strâns AI-ul de produse și accesibilitate, iar participarea la CHI 2026 indică direcții concrete de dezvoltare: generare de interfețe cu ajutorul modelelor AI, instrumente pentru variații rapide de design și descrieri automate pentru utilizatori nevăzători, plus cercetarea din spatele reproiectării AirPods Pro 3, potrivit 9to5mac.com.
Apple a confirmat că va prezenta trei studii la ACM Human-Computer Interaction Conference (CHI) 2026, eveniment care are loc între 13 și 17 aprilie, la Barcelona. În plus, compania va organiza o sesiune demonstrativă dedicată cercetării „centrate pe om” care a stat la baza noului design de potrivire (fit) pentru AirPods Pro 3.
Cele trei lucrări anunțate acoperă două zone cu impact operațional direct: cum se proiectează interfețe mai repede și mai bine cu AI și cum poate fi îmbunătățită accesibilitatea prin descrieri generate automat.
În cadrul conferinței, Apple va susține și patru demonstrații practice despre AirPods Pro 3, axate pe „cercetarea centrată pe om” din spatele reproiectării potrivirii în ureche. Compania spune că munca a fost susținută de analiza a peste 10.000 de scanări 3D ale urechii și de peste 100.000 de ore de cercetare cu utilizatori, în arii precum factorul uman, biomecanică, acustică și design industrial.
Participanții sunt invitați să testeze „potrivirea îmbunătățită”, etanșarea acustică și funcția de anulare activă a zgomotului (Active Noise Cancellation), cu scopul de a deschide o discuție despre proiectarea dispozitivelor purtabile pentru diversitatea anatomiei umane.
Demonstrațiile sunt programate astfel (ora locală Barcelona; sursa nu precizează alt fus orar):
Mesajul implicit al participării la CHI 2026 este că Apple împinge AI-ul din zona de „funcții” către instrumente de producție (pentru designeri și dezvoltatori) și către utilizări cu miză socială (accesibilitate), în timp ce își susține hardware-ul cu argumente de cercetare și date. Publicația nu oferă detalii despre momentul în care aceste rezultate vor deveni funcții comerciale sau vor ajunge în produse.
Recomandate

Matei Zaharia a câștigat Premiul ACM 2025, o recunoaștere cu miză directă pentru economia AI , pentru că vizează infrastructura software care face posibilă analiza de date și antrenarea modelelor la scară mare, folosită deja pe scară largă în companii. Informația este prezentată de antena3.ro , care citează anunțul Association for Computing Machinery (ACM). Premiul ACM în Calculatoare este însoțit de o recompensă de 250.000 de dolari (aprox. 1,15 milioane lei) și se acordă cercetătorilor aflați la început sau la mijlocul carierei, pentru contribuții „fundamentale și inovatoare”, cu impact de durată asupra modului în care funcționează tehnologia la nivel global. Distincția este susținută financiar de Infosys. De ce contează pentru companii: infrastructura care „ține” AI-ul la scară mare Potrivit ACM, Zaharia este recunoscut pentru dezvoltarea sistemelor de date distribuite și a infrastructurii de calcul care a permis învățarea automată la scară largă, analitică și AI la nivel global. În termeni practici, premiul validează rolul unor tehnologii care au devenit standarde operaționale în industrie, pentru procesarea și gestionarea volumelor mari de date — un cost și un blocaj major pentru proiectele de inteligență artificială. Ce tehnologii sunt menționate în motivarea premiului Articolul indică trei contribuții principale asociate cu Matei Zaharia: Apache Spark – creat în timpul doctoratului la UC Berkeley; un sistem de calcul distribuit care permite procesarea mai rapidă a datelor și este folosit pe scară largă pentru analiza datelor masive. Delta Lake – tehnologie care a îmbunătățit gestionarea datelor în cloud. MLflow – platformă pentru organizarea și utilizarea modelelor de inteligență artificială. Aceste instrumente sunt utilizate de „mii de organizații”, conform materialului, și au influențat modul în care companiile și instituțiile lucrează cu date și AI. Cine este Matei Zaharia și ce urmează Matei Zaharia este profesor asociat la Departamentul de Inginerie Electrică și Științe Informatice la Universitatea din California, Berkeley și cofondator, respectiv director tehnic (CTO), al Databricks. În trecut, disertația sa despre Spark a primit Premiul ACM pentru disertație doctorală (2014), iar el a fost distins și cu Premiul Prezidențial al SUA pentru tineri cercetători, potrivit aceleiași surse. Materialul nu oferă detalii despre o ceremonie de decernare sau despre pașii următori ai ACM/beneficiarului, dincolo de anunțul premiului pentru 2025. [...]

OpenAI introduce un nou prag de preț la ChatGPT, cu un abonament Pro de 100 dolari/lună (aprox. 460 lei), mizând pe utilizarea intensivă a instrumentului de programare Codex și pe o poziționare directă împotriva ofertei similare a rivalului Anthropic, potrivit Vietnam.vn . Noul plan vine să umple un gol între Plus (20 dolari/lună) și pachetul Pro de top, de 200 dolari/lună, pe care compania spune că îl menține disponibil, chiar dacă nu mai apare pe pagina principală. Unghiul economic este relevant pentru piața de abonamente AI: OpenAI își segmentează mai fin clienții care folosesc ChatGPT în muncă, în special dezvoltatorii, și încearcă să capteze bugete recurente la un nivel unde concurența are deja un reper de preț. Compania afirmă că planul de 100 dolari este construit în jurul Codex (instrument de programare integrat în ChatGPT), oferind de cinci ori mai multă utilizare decât planul Plus. Ce primește utilizatorul și de ce contează pentru costuri Noul Pro de 100 dolari/lună este prezentat ca o opțiune pentru „sesiuni de lucru intense”, unde limitările de utilizare (așa-numitele limite de viteză) devin problema principală. Un reprezentant OpenAI susține că, raportat la Claude Code (oferta Anthropic), Codex ar oferi „mai multe capacități de programare per dolar” în abonamentele plătite. „Noul abonament Pro de 100 USD este conceput pentru a oferi dezvoltatorilor capacități de programare mai practice pentru banii cheltuiți, în special în sesiunile de lucru intense, unde limitările sunt cea mai importantă problemă.” Limite, „nelimitat” și perioada promoțională OpenAI aplică o limită Codex mai mare pentru planul de 100 dolari până la 31 mai, dar avertismentul implicit este că utilizarea „nelimitată” fără notificări privind limitarea ar putea să nu fie permanentă. Publicația notează că, în practică, niciun plan OpenAI nu oferă utilizare complet nelimitată. Pentru utilizatorii cu cerințe foarte mari, pachetul de 200 dolari/lună (aprox. 920 lei) rămâne opțiunea de vârf, cu limite de 20 de ori mai mari decât Plus, conform informațiilor din articol. Context: creșterea Codex și presiunea concurențială Lansarea are loc pe fondul creșterii accelerate a Codex: OpenAI spune că peste 3 milioane de persoane folosesc instrumentul săptămânal la nivel global, de cinci ori mai mult decât în urmă cu trei luni, iar utilizarea ar crește cu peste 70% lunar. În acest context, diferențele de limite de viteză între planuri sunt prezentate ca factorul decisiv în alegerea abonamentului, mai ales pentru cei care folosesc ChatGPT ca unealtă de lucru, nu ocazional. Ce urmează: pentru utilizatorii care vor să testeze noul prag de 100 dolari, fereastra până la 31 mai este importantă, deoarece condițiile de utilizare (în special limitele) pot fi ajustate ulterior. [...]

Serviciile de inteligență artificială din AWS trec de 15 miliarde dolari anualizat (aprox. 65 miliarde lei), o dezvăluire rară care oferă investitorilor primul reper concret despre monetizarea investițiilor Amazon în AI, potrivit profit.ro . Andy Jassy, CEO-ul Amazon, spune că veniturile anualizate din serviciile de inteligență artificială ale companiei, în cadrul diviziei de cloud Amazon Web Services (AWS), depășesc 15 miliarde de dolari. Este pentru prima dată când Amazon publică o cifră pentru acest segment, după investiții de ordinul miliardelor de dolari. Estimarea este bazată pe performanța din primul trimestru și ar reprezenta aproximativ 10% din ritmul anual al veniturilor AWS, evaluat la circa 142 de miliarde de dolari (aprox. 620 miliarde lei). Publicarea indicatorului vine după ani în care investitorii și analiștii au cerut semnale mai clare privind randamentul investițiilor în AI. Dezvăluirea a fost inclusă în scrisoarea anuală către acționari, în care Jassy a prezentat o poziționare mai încrezătoare a companiei în privința ambițiilor din inteligența artificială. În reacție, acțiunile Amazon au urcat cu aproximativ 4,5%, conform informațiilor citate de publicație. De ce contează pentru piață Cifra anualizată din AI oferă un punct de referință pentru evaluarea ritmului de creștere și a capacității AWS de a transforma cererea pentru AI în venituri recurente, într-un moment în care marile companii de tehnologie sunt presate să demonstreze că investițiile masive se traduc în profit. În același context, Amazon a indicat cheltuieli de capital de aproximativ 200 de miliarde de dolari (aprox. 870 miliarde lei) în acest an, majoritatea direcționate către infrastructura de AI, potrivit datelor din articol. Textul sursă furnizat este însă trunchiat, astfel că nu reiese ce alte detalii sau defalcări a mai oferit compania despre aceste investiții și calendarul lor. [...]

Amazon pune pentru prima dată o cifră pe monetizarea AI din AWS, indicând venituri anualizate de peste 15 miliarde de dolari , un reper urmărit de investitori pentru a evalua randamentul investițiilor masive în inteligență artificială, potrivit Profit.ro . Andy Jassy, directorul general al Amazon, a spus că serviciile de inteligență artificială din cadrul diviziei de cloud Amazon Web Services (AWS) generează venituri anualizate de peste 15 miliarde de dolari. Este prima dată când compania publică astfel de date pentru acest segment în care a investit miliarde de dolari. Estimarea este bazată pe performanța din primul trimestru și ar reprezenta aproximativ 10% din ritmul anual al veniturilor AWS, evaluat la circa 142 de miliarde de dolari. Publicarea cifrei vine după o perioadă în care investitorii și analiștii au așteptat indicii mai concrete despre rentabilitatea investițiilor în AI. [...]

Incidentul de securitate de la locuința lui Sam Altman ridică miza protecției pentru companiile de inteligență artificială , după ce poliția din San Francisco a reținut un suspect acuzat că a aruncat un cocktail Molotov la casa CEO-ului OpenAI și a făcut amenințări în fața sediului companiei, potrivit reuters.com . OpenAI a transmis că nimeni nu a fost rănit și că firma colaborează cu autoritățile în anchetă. Compania a mulțumit poliției din San Francisco pentru intervenția rapidă și sprijinul acordat în menținerea siguranței angajaților. Poliția din San Francisco a precizat, într-o postare pe X, că un bărbat necunoscut a aruncat un dispozitiv incendiar la o locuință din cartierul North Beach, după care ar fi formulat amenințări că va incendia o clădire. Suspectul a fost „imediat” reținut, iar în urma investigației ofițerii au stabilit „cauză probabilă” pentru arestarea unui tânăr de 20 de ani. Autoritățile nu au oferit detalii suplimentare despre atac sau amenințări și nu l-au numit pe Altman și nici OpenAI în postarea citată de Reuters. De ce contează pentru industria AI Cazul adaugă presiune pe zona de securitate operațională a companiilor de inteligență artificială, într-un moment în care OpenAI se confruntă cu reacții critice legate de intenția de a încheia un acord cu guvernul SUA pentru utilizarea tehnologiei sale în operațiuni militare clasificate, pe fondul unor tensiuni publice în industrie. Reuters mai notează și un indicator de percepție publică: un sondaj NBC News a constatat că inteligența artificială este mai puțin populară decât agenția americană de imigrație ICE. [...]

Google va folosi procesoare Intel Xeon și IPU-uri personalizate potrivit Tom’s Hardware , care relatează despre un acord multianual anunțat joi de Intel și Google pentru infrastructura de cloud și inteligență artificială a companiei. În cadrul colaborării, Google va continua să implementeze platforme Intel Xeon pentru următoarea generație de infrastructură AI și cloud. Aceste platforme se vor baza atât pe viitoarele procesoare Xeon ale Intel, cât și pe unități de procesare pentru infrastructură (IPU-uri), cipuri specializate pentru sarcini din centrele de date, proiectate împreună de Intel și Google. Anunțul vine într-un context în care tot mai multe companii adoptă procesoare personalizate bazate pe arhitectura Arm pentru sarcini de inteligență artificială, în încercarea de a optimiza costurile și performanța în centrele de date. Directorul general al Intel, Lip-Bu Tan , a declarat că extinderea sistemelor AI „necesită mai mult decât acceleratoare” și că „procesoarele și IPU-urile sunt esențiale” pentru performanță, eficiență și flexibilitate. La rândul său, Amin Vahdat, vicepreședinte senior și director tehnologic pentru infrastructura AI la Google, a spus că procesoarele și accelerarea infrastructurii rămân o componentă de bază a sistemelor AI, de la coordonarea antrenării până la inferență și implementare. Pentru piață, parteneriatul semnalează că Google mizează în continuare pe o combinație între procesoare generale (CPU) și cipuri specializate pentru infrastructură, în locul unei dependențe exclusive de acceleratoare sau de procesoare dezvoltate intern, iar Intel își consolidează poziția ca furnizor pentru centre de date într-o perioadă de competiție intensă pe segmentul AI. [...]