Știri
Știri din categoria Inteligență artificială

Nothing mută dictarea cu AI la nivel de sistem pe telefoanele sale, o abordare care poate schimba modul în care utilizatorii folosesc transcrierea în aplicații, printr-o integrare directă în software-ul dispozitivului, nu doar ca aplicație separată, potrivit TechCrunch. Compania a lansat Essential Voice, un instrument care transformă vorbirea în text „formatat” în orice aplicație și elimină automat interjecții precum „um” și „ah”.
Essential Voice este disponibil acum pe Nothing Phone (3), iar compania spune că urmează să fie extins pe Phone (4a) Pro mai târziu în această lună și pe Phone (4a) luna viitoare.
Instrumentul funcționează la nivel de sistem (adică poate fi folosit în diverse aplicații, fără a depinde de o aplicație dedicată) și include câteva funcții orientate spre productivitate:
Accesul se face fie prin apăsarea tastei „Essential” (acolo unde există pe dispozitiv), fie prin activarea din tastatură.
TechCrunch notează că Nothing este printre primele companii care oferă o integrare de dictare la nivel de sistem. În același timp, publicația indică faptul că, după lansarea recentă de către Google a unei aplicații de dictare offline, este posibil ca mai multe companii să vină cu instrumente similare.
Pe termen scurt, Nothing spune că va introduce și „stilizare” personalizată în funcție de aplicație, astfel încât utilizatorii să poată ajusta tonul editării AI în categorii precum „muncă” și „mesagerie” (funcție anunțată pentru viitor, fără un calendar detaliat în material).
Recomandate

Un nou mod de a antrena roboți să învețe singuri din demonstrații umane ar putea accelera folosirea lor în gospodării și la locul de muncă, dar mută discuția spre reguli de siguranță și responsabilitate. Într-un material publicat de NPR , o echipă de cercetători din Elveția descrie un progres care permite roboților să execute sarcini mai complexe după ce „privesc” oameni, fără a fi programați pas cu pas pentru fiecare situație. Cercetarea este realizată la École Polytechnique Fédérale de Lausanne (EPFL) și a fost publicată în revista Science Robotics . Ideea centrală: roboții pot folosi „învățarea automată” (o ramură a inteligenței artificiale) împreună cu ceea ce autorii numesc „inteligență cinematică” – adică o „înțelegere” internă a modului în care propriul corp se poate mișca în siguranță în spațiu – pentru a adapta o acțiune văzută la un om la propriile constrângeri fizice. Ce s-a demonstrat și de ce contează operațional Într-o demonstrație video descrisă în material, roboți cu un singur braț, fixați pe o bază, urmăresc un instructor uman care aruncă o minge într-un recipient. Apoi, roboții repetă sarcina, ajustându-se la poziția lor și la faptul că nu au „corp” uman. Mai mult, abilitățile învățate pot fi transferate către alți roboți. Miza practică este depășirea unei limite vechi în robotică: multe sisteme pot repeta impecabil o mișcare în condiții identice, dar eșuează când se schimbă contextul (poziția obiectelor, lumina, mediul). Cercetătorul Sthithpragya Gupta explică problema printr-un exemplu din tenis: robotul poate învăța un backhand, dar dacă se schimbă condițiile, performanța „se prăbușește”. „Conștienți de sine” sau doar mai buni la auto-corectare? Materialul folosește termenul „self-aware” („conștient de sine”) într-un sens tehnic, legat de capacitatea robotului de a se auto-corecta și de a-și folosi modelul intern al mișcării pentru a învăța. Susan Schneider, cercetătoare în inteligență artificială la Florida Atlantic University, atrage însă atenția că asta nu înseamnă conștiință în sens uman. Diferența, spune ea, este „simțirea” – experiența subiectivă. Cu alte cuvinte, un robot poate învăța și ajusta comportamente fără să aibă trăiri interioare. Implicația-cheie: nevoia de „garduri” și reguli pentru operare Tocmai această capacitate de învățare mai autonomă ridică întrebări de siguranță. Schneider spune că astfel de evoluții „ridică imediat semnale de alarmă” pentru cercetătorii din zona de siguranță a AI, inclusiv prin posibilitatea ca versiuni viitoare să fie folosite ca arme împotriva oamenilor. Cercetătorii afirmă că au inclus protocoale de siguranță pentru a se asigura că roboții nu pot răni oameni, dar recunosc că dezvoltarea ulterioară va avea nevoie de „garduri de protecție”. Gupta indică explicit necesitatea unor cadre de reglementare privind cine operează un robot și în ce condiții. Cât de repede ajung astfel de roboți în case și companii Robert Platt, profesor care studiază ingineria și robotica la Northeastern University, numește rezultatul un posibil „punct de cotitură” și un „progres major”, dar evită să avanseze un calendar pentru adoptarea pe scară largă a roboților în gospodării. Argumentul lui: ritmul schimbării este foarte rapid, iar exemplul modelelor lingvistice mari (chatboți de tip ChatGPT sau Claude) arată cât de repede se poate comprima distanța dintre „suntem departe” și „deja se întâmplă”. În esență, progresul descris sugerează o accelerare a capabilităților operaționale ale roboților în medii variabile – iar asta mută presiunea spre standarde de siguranță, reguli de utilizare și responsabilitate pentru cei care îi pun în funcțiune. [...]

Cipurile TPU ale Google au ajuns la 121 exaflopși, o miză directă pentru costul și viteza rulării modelelor AI : potrivit Google Cloud , cea mai nouă generație de Tensor Processing Units (TPU) poate procesa 121 exaflopși putere de calcul și vine cu o lățime de bandă dublă față de generațiile anterioare, într-un moment în care sarcinile de lucru pentru inteligență artificială devin tot mai „grele”. TPU-urile sunt cipuri specializate, proiectate „pentru un singur job”: efectuarea de calcule matematice la scară foarte mare, necesare pentru antrenarea și rularea modelelor AI. Google spune că le-a proiectat „de la zero” în urmă cu mai bine de un deceniu, tocmai pentru a rula astfel de modele. De ce contează pentru companii: performanță mai mare pe infrastructură dedicată AI În practică, creșterea de putere de calcul și de lățime de bandă are impact operațional: poate reduce timpii de procesare pentru sarcini AI și poate susține modele mai mari sau mai multe cereri simultane, în funcție de modul în care sunt folosite aceste resurse în infrastructură. Google își poziționează TPU-urile ca infrastructură din spatele produselor sale de zi cu zi, subliniind că aceste cipuri sunt construite pentru a accelera calculele care stau la baza funcționării modelelor AI. Ce a comunicat concret Google Din informațiile publicate, elementele tehnice punctuale sunt: TPU = „Tensor Processing Unit”, cip personalizat pentru calcule matematice la scară mare; proiectate de Google de peste un deceniu pentru rularea modelelor AI; cea mai nouă generație: 121 exaflopși și lățime de bandă dublă față de generațiile anterioare. Materialul include și un video explicativ despre modul în care funcționează TPU-urile, fără alte detalii financiare sau de disponibilitate comercială în textul extras. [...]

Inteligența artificială mută presiunea de pe „numărul de joburi” pe „conținutul joburilor” , iar companiile care o adoptă ajung să automatizeze sarcini, nu să elimine profesii întregi, susține CEO-ul Nvidia, Jensen Huang , într-o intervenție citată de Economedia . Mesajul are relevanță economică directă: dacă AI crește productivitatea, cererea se poate muta către competențe noi, nu neapărat către mai puțini angajați. Huang a făcut declarațiile la Stanford Graduate School of Business, în contextul unei discuții mai largi despre temerile legate de impactul AI asupra pieței muncii, potrivit Fortune (sursă citată de Economedia). În opinia lui, „narațiunea” conform căreia AI distruge locuri de muncă este greșită și contraproductivă, pentru că tehnologia schimbă activitățile zilnice, dar nu „elimină pur și simplu” joburile. Exemplul radiologilor: automatizare a sarcinilor, creștere a cererii Pentru a-și susține argumentul, CEO-ul Nvidia a invocat radiologia. În 2016, informaticianul Geoffrey Hinton estima că radiologii vor fi înlocuiți de AI, pe fondul progreselor în analiza imaginilor medicale. Huang spune că, la aproape un deceniu distanță, predicția s-a confirmat doar parțial: AI a ajuns să asiste practic fiecare investigație, însă numărul radiologilor a crescut. Cheia, în explicația lui, este diferența dintre „sarcinile” unui job și „scopul” lui. În radiologie, rolul nu se reduce la interpretarea imaginilor, ci include diagnosticarea și colaborarea cu pacienții și cu alți medici. Cu AI, radiologii pot procesa mai multe cazuri și trata mai mulți pacienți, ceea ce poate alimenta cererea pentru specialiști. Potrivit estimărilor citate, domeniul radiologiei ar urma să crească cu aproximativ 25% până în 2055. România: adopție încă limitată, dar presiune pe competențe În România, impactul AI asupra locurilor de muncă este descris ca moderat, pe fondul unei implementări încă limitate în companii. Un sondaj eJobs menționat de Economedia arată că 8 din 10 angajatori nu se așteaptă ca AI să reducă volumul de recrutare în următorii doi ani, însă anticipează schimbări în competențele cerute candidaților. În același timp, articolul notează că, deși AI începe să automatizeze sarcini repetitive și să crească productivitatea, majoritatea companiilor nu au integrat încă tehnologia la nivel strategic. Concedieri în tech: eficientizare și finanțarea investițiilor în AI În contrast cu mesajul că profesiile nu dispar, Economedia amintește că mari companii tech au început concedieri. Meta Platforms ar urma să reducă 10% din personal (aproximativ 8.000 de angajați) în luna mai, în încercarea de a-și eficientiza operațiunile și de a finanța investiții masive în inteligența artificială. Pentru piața muncii, concluzia practică din aceste exemple este că AI tinde să redistribuie munca: automatizează activități, ridică așteptările de productivitate și mută competiția către calificări, chiar dacă, în unele sectoare, poate coexista cu creșterea cererii de specialiști. [...]

Anthropic a urcat la o evaluare de aproximativ 1 trilion de dolari (aprox. 4,6 trilioane lei) în tranzacții pe piața secundară , un nivel care o plasează peste OpenAI și arată cât de repede se pot repoziționa așteptările investitorilor în AI, potrivit Mobilissimo . Evaluarea este indicată de platforme precum Forge Global și reflectă tranzacții între investitori pe piețe private, nu o cotație oficială de bursă. Anthropic nu este listată, iar interesul ridicat se traduce prin încercări ale investitorilor de a cumpăra acțiuni de la angajați sau investitori timpurii, într-un context cu puțini vânzători. Ce alimentează saltul de evaluare Creșterea este pusă pe seama cererii foarte mari pentru acțiunile companiei, susținută de interesul pentru produsele sale de inteligență artificială, în special asistentul de programare Claude. În unele cazuri, ofertele ar depăși chiar 1,1 trilioane de dolari (aprox. 5,1 trilioane lei), iar tranzacțiile s-ar închide rapid din cauza disponibilității reduse de acțiuni la vânzare. Un element important de context: în urmă cu doar trei luni, Anthropic era evaluată la aproximativ 380 de miliarde de dolari (aprox. 1,7 trilioane lei) după o rundă de finanțare. Potrivit unor investitori citați în material, pe lângă performanțele companiei, contribuie și fenomenul FOMO („teama de a rata oportunitatea”), care poate împinge prețurile în sus chiar și „indiferent de preț”. Efectul asupra competiției cu OpenAI În paralel, interesul pentru acțiunile OpenAI ar fi scăzut, iar unele tranzacții s-ar fi realizat sub evaluarea anterioară, menționată la circa 852 de miliarde de dolari (aprox. 3,9 trilioane lei). Schimbarea de sentiment sugerează o competiție mai dură în sectorul AI, în care percepția investitorilor poate muta rapid „clasamentul” companiilor, chiar și fără schimbări fundamentale majore. Materialul are ca sursă secundară Business Insider, menționat de Mobilissimo. [...]

Administrația SUA spune că analizează măsuri de răspundere după ce a acuzat entități din China că desfășoară operațiuni „la scară industrială” pentru a copia sisteme avansate de inteligență artificială dezvoltate în Statele Unite, potrivit news.ro . Miza pentru companiile americane de profil este una operațională și de securitate: protejarea informațiilor proprietare și a mecanismelor de siguranță ale modelelor. Acuzațiile au fost formulate de Michael Kratsios , principalul consilier pentru știință și tehnologie al președintelui, care a susținut că aceste operațiuni ar implica extragerea sistematică de informații și replicarea modelelor americane. „Nu este nimic inovator în a copia în mod organizat inovațiile industriei americane.” Cum ar funcționa copierea: conturi proxy, „ jailbreaking ” și „distilare” Oficialii americani afirmă că aceste campanii ar fi derulate în principal de entități cu baza în China și ar folosi zeci de mii de conturi proxy, precum și tehnici de ocolire a restricțiilor („jailbreaking”) pentru a accesa informații proprietare despre modelele de inteligență artificială. În acest context este menționat și procesul numit „distilare”, adică antrenarea unor modele mai mici pe baza unor sisteme mai mari și mai performante. Deși practica poate avea utilizări legitime, autoritățile americane avertizează că folosirea neautorizată poate afecta securitatea și integritatea modelelor. De ce contează pentru industrie: produse mai ieftine, dar cu riscuri de siguranță Kratsios a susținut că astfel de metode nu pot reproduce complet performanța sistemelor originale, însă pot permite dezvoltarea unor produse mai ieftine, care pot părea comparabile în anumite teste. În același timp, aceste modele ar putea elimina protocoale de siguranță sau mecanisme menite să asigure neutralitatea și acuratețea informațiilor. Ce urmează: informarea companiilor și opțiuni de contracarare Administrația americană intenționează să informeze companiile americane din domeniul inteligenței artificiale despre aceste practici, inclusiv despre tacticile și actorii implicați, și spune că explorează o gamă largă de măsuri pentru a contracara astfel de activități. În material nu sunt detaliate, deocamdată, ce măsuri concrete ar putea fi adoptate sau un calendar. [...]

Nvidia își extinde utilizarea internă a OpenAI Codex , iar peste 10.000 de angajați folosesc deja varianta bazată pe GPT-5.5 , într-o mișcare care indică o accelerare a automatizării muncii de programare și a fluxurilor conexe la scară de companie, potrivit IT之家 . Conform informațiilor, Nvidia a transmis printr-un comunicat oficial că Codex este alimentat de cel mai nou model „de frontieră” al OpenAI, GPT-5.5, și rulează pe sistemul de tip rack GB200 NVL72 al Nvidia. În interiorul companiei, utilizarea Codex s-a extins dincolo de echipele de inginerie, acoperind și produs, juridic, marketing, financiar, vânzări, resurse umane, operațiuni și programe pentru dezvoltatori. De ce contează: costul și eficiența fac posibilă rularea la scară „enterprise” Articolul indică faptul că inginerii Nvidia folosesc Codex cu GPT-5.5 de câteva săptămâni, iar creșterea de eficiență „poate fi cuantificată”. Nvidia leagă această scalare de infrastructura GB200 NVL72, despre care afirmă că, față de generația anterioară: reduce costul pe un milion de tokeni (unități de text procesate de modele) de 35 de ori ; crește „outputul” de tokeni pe megawatt pe secundă cu 50 de ori . În logica prezentată, avantajul combinat de cost și eficiență energetică ar fi elementul care face fezabilă inferența (rularea modelului pentru a genera rezultate) la nivel de companie, nu doar în proiecte punctuale. Impact operațional: timpi mai scurți de depanare și livrare de funcționalități În exemplele oferite, sarcini care anterior necesitau zile pentru depanare ar putea fi închise în câteva ore, iar experimente în baze de cod complexe, care durau săptămâni, ar putea produce rezultate „peste noapte”. Textul mai susține că echipele pot livra funcționalități „cap-coadă” prin instrucțiuni în limbaj natural, cu o fiabilitate mai bună decât la modelele mai vechi și cu mai puțin „timp mort” și refaceri. Mesaj intern: Jensen Huang cere adoptare generalizată IT之家 notează că Jensen Huang, fondator și CEO al Nvidia, le-a cerut angajaților într-un e-mail intern să folosească Codex. „Să trecem la viteza luminii, bine ați venit în era AI.” [...]