Știri
Știri din categoria Inteligență artificială

Oura integrează un model AI dedicat sănătății femeilor în chatbotul din aplicație, mizând pe răspunsuri „bazate pe dovezi” și pe date biometrice din inel, într-o zonă în care riscurile de confidențialitate și de utilizare greșită a informațiilor medicale rămân sensibile, potrivit CNET.
Modelul, lansat inițial în februarie ca primul model AI proprietar al companiei, este disponibil din 8 aprilie în Oura Advisor (chatbotul AI din aplicație), după o perioadă de testare în secțiunea Oura Labs. Scopul declarat este să răspundă la întrebări despre menopauză, ciclul menstrual, fertilitate și alte subiecte de sănătate a femeilor, într-un mod „de sprijin” care să nu minimizeze preocupările utilizatoarelor.
Oura spune că modelul a fost creat de echipa proprie de medici certificați și experți în sănătatea femeilor și că este un „model lingvistic de mari dimensiuni” (un tip de AI antrenat să înțeleagă și să genereze text) construit pe baza componentelor de AI generativ din Oura Advisor, împreună cu algoritmii de monitorizare biometrică ai companiei.
În practică, când utilizatoarea pune o întrebare, sistemul ar combina două surse:
Un alt obiectiv menționat este utilitatea în pregătirea consultațiilor medicale, prin explicarea a ceea ce este „tipic”, a ceea ce ar putea indica datele purtabilei și a punctelor relevante de discutat cu medicul.
Pe partea de date, Oura afirmă că nu va vinde sau închiria datele de sănătate și că nu va partaja informații sensibile fără consimțământul utilizatorului, conform poziției companiei citate în articol. Materialul CNET notează explicit că, dincolo de acces și funcționalitate, utilizatorii ar trebui să fie atenți la aspectele de confidențialitate.
Recomandate

Agenția americană NSA folosește modelul de inteligență artificială Mythos Preview al Anthropic , în pofida conflictului prelungit dintre companie și Pentagon, potrivit Engadget . Informația indică faptul că accesul la instrumente avansate de IA pentru securitate cibernetică continuă în interiorul aparatului federal american, chiar și în condițiile unor restricții și dispute la nivel politic și contractual. Potrivit Axios, care citează două surse familiarizate cu situația, NSA utilizează Mythos Preview, un model prezentat de Anthropic la începutul lunii aprilie și descris de companie ca un model de limbaj de uz general „remarcabil de capabil în sarcini de securitate informatică”. Conform acelorași surse, NSA ar fi una dintre aproximativ 40 de organizații care au primit acces la Mythos Preview, iar unul dintre interlocutori susține că instrumentul „este folosit mai larg în cadrul departamentului”. De ce contează: utilizare operațională în ciuda interdicțiilor politice Contextul este cu atât mai relevant cu cât, în februarie, președintele Donald Trump a ordonat agențiilor guvernamentale să înceteze utilizarea serviciilor Anthropic, după ce compania „a refuzat să cedeze” asupra unor măsuri de protecție (safeguards) pentru utilizări militare în timpul negocierilor contractuale. În acest cadru, folosirea Mythos Preview de către NSA sugerează fie existența unor excepții, fie o aplicare neuniformă a ordinului, fie o delimitare între „servicii” și accesul controlat la un model aflat în testare — aspecte pe care materialul nu le clarifică. Întâlniri la Casa Albă și litigii cu Departamentul Apărării Știrea vine la câteva zile după ce CEO-ul Anthropic, Dario Amodei, s-a întâlnit cu șefa de cabinet a Casei Albe, Susie Wiles, și cu alți oficiali, discuțiile vizând, potrivit relatărilor, Mythos. Casa Albă a descris ulterior întâlnirea drept „productivă și constructivă”, însă Trump a declarat că „nu are nicio idee” despre ea, conform Reuters. În paralel, Anthropic rămâne într-o dispută juridică cu guvernul SUA. Compania a dat în judecată Departamentul Apărării în martie, în două instanțe, după ce administrația Trump a etichetat-o drept „risc pentru lanțul de aprovizionare” (supply chain risk). Un tribunal a acordat o ordonanță preliminară care blochează temporar această desemnare, în timp ce judecători federali din cealaltă cauză au respins cererea companiei de a ridica eticheta. [...]

Modelele AI „de ultimă generație” pot da greș la sarcini de birou simple, iar asta împinge companiile spre modele mai mici, mai ieftine și mai rapide , pe fondul presiunii de a scala aplicațiile la volume mari de utilizare, potrivit South China Morning Post , care îl citează pe David Meyer, senior vice-president of product la Databricks . Executivul spune că trăsăturile care fac un model „state-of-the-art” (Sota) performant la probleme complexe pot deveni un dezavantaj în munca de birou. Exemplul dat: pus să identifice un număr greșit pe o factură, un astfel de model „de multe ori corectează greșeala”, în loc să extragă eroarea pentru a fi reparată ulterior în fluxul de lucru. De ce contează pentru companii: cost, viteză și control operațional Diferența de performanță nu se limitează la sarcini administrative. Meyer afirmă că, deși modele avansate precum Claude (Anthropic) sunt puternice la programare, pot rămâne în urmă la „data engineering” (inginerie de date) față de modele cu antrenament și date mult mai specializate pe această zonă. În context, ingineria de date înseamnă transformarea seturilor de date la scară și operațiuni de curățare, inclusiv tratarea valorilor lipsă și a zerourilor. În viziunea lui Meyer, concluzia e una practică: nu există un singur model, indiferent cât de mare, care să fie la fel de bun la toate. „Un singur model, indiferent cât de mare, nu poate fi la fel de bun la toate.” Trecerea la modele mici: „ordine de mărime” mai ieftin și cu latență mai mică Ca alternativă, Meyer indică folosirea unor modele open-source mai mici, rafinate cu „reinforcement learning” (învățare prin recompensă), pentru scopuri specifice. Avantajul invocat este costul de antrenare „cu ordine de mărime” mai mic decât în cazul modelelor Sota. Tendința se vede și în produsele Databricks. Compania folosește, între altele, Genie – un asistent care traduce limbajul natural în interogări de date, susținut de un sistem de „agenți” și modele AI. Observând interacțiunile clienților cu platforma, Meyer spune că preferința pentru modele mai mici a crescut puternic, pe fondul a două beneficii: cost redus și latență mai mică (timpul până la primul răspuns și până la răspunsul complet). „Modelele mici, prin natura lor, sunt mult mai rapide” în timpul până la primul token și până la răspuns. Argumentul devine critic când aplicațiile trebuie să scaleze la „un număr uimitor de mare de interogări pe secundă”, situație în care companiile au nevoie de modele ieftine pentru a susține volumul. Limitări de utilizare: modelele chinezești și bariera de conformitate Meyer mai spune că, deși există entuziasm pentru modelele Qwen, iar modelele open-source din China sunt „uimitoare” ca performanță, latență și cost, preocupările de reglementare și conformitate le limitează, în prezent, utilizarea în mediul enterprise. Seria Qwen este dezvoltată de Alibaba Cloud. Context financiar: investiții accelerate, dar cu atenție la bilanț În pofida acestor constrângeri, graba de a integra AI în companii continuă, alimentată de teama de a nu rămâne în urmă, potrivit lui Meyer. El adaugă că firmele listate tind să fie mai prudente în privința impactului cheltuielilor cu AI asupra bilanțului, în timp ce companiile private sunt, în general, mai dispuse să cheltuiască. Databricks a anunțat în februarie că a încheiat o finanțare de circa 5 miliarde de dolari (aprox. 23 mld. lei) la o evaluare de 134 miliarde de dolari (aprox. 616 mld. lei). Compania a raportat o creștere de peste 65% de la an la an în ultimul trimestru din 2025 și estimează că este pe cale să genereze 5,4 miliarde de dolari (aprox. 25 mld. lei) în următoarele 12 luni. [...]

Roma analizează testarea semafoarelor cu patru culori , inclusiv un semnal alb dedicat vehiculelor autonome, potrivit Libertatea . Ideea este ca lumina albă să se aprindă doar când la intersecție ajunge un număr suficient de mașini autonome, astfel încât opririle „inutile” să fie reduse prin coordonare automată. Inițiativa ar transforma capitala Italiei într-un spațiu de testare pentru o soluție de management al traficului bazată pe inteligență artificială, cu scopul de a fluidiza intersecțiile aglomerate. Conceptul este inspirat din testele făcute în Statele Unite și este analizat de autoritățile locale, conform informațiilor preluate de Libertatea. Cum ar funcționa „semaforul alb” Spre deosebire de roșu, galben și verde, lumina albă ar fi gândită în primul rând pentru mașinile autonome, nu pentru șoferii umani. Conform studiilor realizate la Universitatea din Carolina de Nord, semnalul alb se activează doar când există suficiente vehicule autonome la intersecție, moment în care sistemul preia coordonarea fluxurilor pentru a optimiza circulația. Pentru șoferii de mașini convenționale, regula propusă este diferită de logica obișnuită a semaforului: ei nu ar mai aștepta neapărat „verde”, ci ar urma mișcarea coloanei. În formularea din material, șoferii trebuie să „urmeze mișcarea” vehiculului din față: dacă acesta pornește, pot avansa; dacă se oprește, se opresc și ei. „În loc să aștepte trecerea la verde, aceștia trebuie să «urmeze mișcarea».” De ce contează: timp, consum și emisii Miza economică și de mediu este reducerea timpilor pierduți în trafic. Implementarea unui astfel de semnal alb ar putea reduce timpii de așteptare la intersecții cu peste 25%, relatează Libertatea, citând sursa menționată în text. Prin coordonarea fluxului cu ajutorul inteligenței artificiale, opririle inutile ar fi eliminate mai des, ceea ce ar putea coborî consumul de combustibil și emisiile de dioxid de carbon. Materialul mai arată că, atunci când vehiculele convenționale devin majoritare, sistemul ar reveni la culorile clasice, însă obiectivul pe termen lung rămâne automatizarea gestionării traficului în zone dense pentru a preveni blocajele. Unde se testează și ce condiții sunt necesare Potrivit informațiilor din articol, semafoarele cu lumină albă sunt testate în medii controlate, în zone cu trafic pietonal redus, precum porturi și districte industriale. Pentru extindere la scară largă, ar fi necesar ca între 30% și 40% dintre vehiculele de pe drumuri să fie autonome, ceea ce face tranziția încă îndepărtată. Conceptul a fost dezvoltat de cercetători de la North Carolina State University (NCSU), coordonați de profesorul Ali Hajbabaie. În Statele Unite, testele sunt în desfășurare în Carolina de Nord, cu sprijinul autorităților din Michigan, iar între 2024 și 2025 sistemul a fost verificat în simulări computerizate și în zone industriale cu trafic autonom controlat. Alte idei: semafor albastru și contoare pentru pietoni Modernizarea semnalizării nu se oprește la lumina albă. Start-up-ul francez Mondial analizează un „semafor albastru”, destinat comunicării cu autoturismele conectate, mai notează articolul. Separat, în Franța, guvernul a autorizat testarea contoarelor de timp la semafoarele pietonale, afișaje care arată timpul rămas pentru traversare sau așteptare, o soluție folosită deja în multe orașe mari pentru a reduce accidentele și tensiunea în trafic. Ce urmează și ce trebuie urmărit În cazul Romei, demersul este, deocamdată, la nivel de analiză și intenție de testare, în linie cu ideea de „laborator deschis” pentru această tehnologie. Evoluția proiectului va depinde de cadrul de testare, de gradul de adopție al vehiculelor autonome și de modul în care autoritățile vor integra reguli noi pentru șoferii de mașini convenționale. În esență, „semaforul alb” este o soluție care devine relevantă doar când există suficient trafic autonom pentru ca algoritmii să coordoneze eficient intersecțiile, iar pragul de 30%-40% vehicule autonome indică un orizont încă îndepărtat pentru implementare pe scară largă. Lumina albă s-ar activa doar când la intersecție ajunge un număr suficient de mașini autonome. Inteligența artificială ar coordona vehiculele autonome pentru a optimiza fluxul. Șoferii mașinilor convenționale ar urma mișcarea vehiculului din față, nu neapărat schimbarea la verde. Extinderea ar necesita ca 30%-40% dintre vehicule să fie autonome, conform materialului. [...]

Un model AI major care ar rula integral pe cipuri Huawei ar putea accelera decuplarea de ecosistemul american , avertizează CEO-ul Nvidia, Jensen Huang , într-un material publicat de Gizmochina . Miza, în lectura lui Huang, nu este doar competiția tehnologică, ci riscul ca sistemele AI globale să înceapă să se bazeze mai puțin pe tehnologie din SUA, ceea ce ar slăbi poziția de lider a Americii în domeniu. Potrivit articolului, Huang a spus că ar fi un „rezultat oribil” pentru Statele Unite dacă viitorul model DeepSeek V4 va rula complet pe cipuri Huawei. DeepSeek V4 este așteptat „mai târziu luna aceasta”, iar relatările citate sugerează că ar putea folosi cipurile Ascend ale Huawei, în locul acceleratoarelor grafice (GPU) Nvidia care domină în prezent antrenarea și rularea modelelor AI. De ce contează: controlul ecosistemului, nu doar performanța brută Publicația notează că cipurile Huawei sunt considerate încă „ușor în urmă” față de alternativele americane ca putere brută, însă China ar compensa printr-o strategie diferită: folosirea unui număr mai mare de cipuri în paralel și optimizarea software-ului pentru eficiență. În acest context este menționată și tehnica „Mixture-of-Experts” (o arhitectură care activează selectiv părți ale modelului pentru a reduce costul de calcul), ca exemplu de abordare care poate crește performanța fără a depinde de cel mai avansat hardware. Cum ar putea China să compenseze dezavantajul de hardware Materialul indică două avantaje structurale care ar susține această strategie: un bazin mare de talente în AI; acces la energie mai ieftină, care permite operarea unor infrastructuri de calcul la scară mare. Ideea centrală este că, chiar și cu procesoare mai slabe individual, agregarea multor cipuri poate livra rezultate competitive. Presiune politică și semnale amestecate Gizmochina plasează evoluția într-un context de tensiuni SUA–China în creștere. Pe de o parte, legislatori americani ar împinge spre restricții mai dure pentru firmele chineze de AI; pe de altă parte, unele decizii legate de livrările de cipuri ar sugera o relaxare parțială, ceea ce ar transmite semnale neuniforme dinspre factorii de decizie. Competiția se mută de la „puterea hardware” către eficiență software și controlul ecosistemului. Dacă DeepSeek reușește să ruleze cu succes pe cipuri Huawei, ar putea deveni un punct de inflexiune pentru ierarhia globală din AI, cu efecte pe termen lung asupra dependenței de tehnologiile americane. [...]

Samsung extinde către Galaxy S24 patru funcții AI din One UI 8.5, prelungind utilitatea modelelor fără upgrade de hardware , iar distribuția versiunii finale este programată să înceapă la nivel global în mai 2026, potrivit WinFuture . Actualizarea One UI 8.5 este bazată pe Android 16 și ajunge și pe seria Galaxy S24, după ce modelele Galaxy S25 au trecut deja prin mai multe versiuni beta. În Coreea de Sud, utilizatorii ar urma să primească pachetul la final de aprilie, înaintea lansării globale din mai. Ce aduce One UI 8.5 pe Galaxy S24: patru instrumente AI În centrul update-ului sunt patru funcții orientate spre utilizare de zi cu zi și editare media: Advanced Audio Eraser : reduce zgomotele de fundal în aplicații precum YouTube. Call Screening : o funcție de inteligență artificială locală preia apelurile și generează o transcriere text. Creative Studio : generează desene pe baza unor comenzi text. Photo Assist : permite inserarea de obiecte în imagini prin comandă text. Informațiile despre funcții și calendar provin dintr-o versiune internă de test, cu firmware-ul „S928BXXU5DZD9”, iar publicația notează că Samsung testează interfața încă din decembrie 2025. Potrivit Sam Mobile , înainte de lansare ar fi fost corectate probleme precum un consum ridicat de baterie. Limitări și impact operațional: nu toate funcțiile sunt pentru toate modelele WinFuture menționează și restricții tehnice: Creative Studio ar necesita un stilou , ceea ce ar face funcția utilizabilă doar pe modelul Ultra , care are S Pen integrat. În plus, procesarea locală a datelor vocale pentru Call Screening ar putea solicita mai mult procesoarele dispozitivelor mai vechi, însă Exynos 2400 sau Snapdragon 8 Gen 3 ar avea, potrivit aceleiași surse, suficiente rezerve de performanță. Cum se face distribuția și ce urmează Utilizatorii înscriși în programul beta ar urma să primească versiunea stabilă printr-un update automat. Pe lângă telefoanele „clasice”, Samsung ar intenționa să extindă actualizarea și către dispozitive pliabile. Seria Galaxy S24 a fost lansată în ianuarie 2024, iar Samsung a anunțat atunci o garanție de actualizări de șapte ani, care include atât patch-uri de securitate, cât și extinderi de funcționalitate. [...]

OpenAI își restrânge proiectele „secundare”, iar două plecări la vârf – șeful programului de cercetare științifică, Kevin Weil , și cercetătorul Bill Peebles, asociat cu Sora – indică o reorientare mai fermă către business-ul de inteligență artificială pentru companii , potrivit IT之家 . Mișcarea vine în contextul în care compania își concentrează resursele pe zona enterprise și pregătește lansarea unei „super-aplicații”. Weil și Peebles și-au anunțat plecările vineri, ora locală, într-un moment în care OpenAI ar fi decis să reducă o serie de inițiative considerate „mai puțin importante”, inclusiv Sora (instrumentul de generare video) și proiectul OpenAI de cercetare științifică. Costuri și priorități: Sora, oprită după cheltuieli mari de calcul Publicația notează că Sora ar fi avut un cost zilnic de calcul estimat la 1 milion de dolari (aprox. 4,6 milioane lei) și că a fost oprită luna trecută. În declarația sa, Peebles susține că apariția Sora a stimulat investiții semnificative în zona video la nivel de industrie, dar argumentează că cercetarea necesară pentru astfel de instrumente ar trebui să aibă „spațiu independent”, în afara traseului de business principal al companiei. Ce se întâmplă cu cercetarea științifică din OpenAI OpenAI Science Research este descris ca echipa din spatele platformei Prism, menită să accelereze cercetarea științifică. Weil a spus, în mesajul de plecare, că echipa urmează să fie integrată în „alte echipe de cercetare”. În același mesaj, Weil a scris: „Ultimii doi ani mi-au deschis ochii: de la director de produs la a mă alătura echipei de cercetare și a crea proiectul OpenAI de cercetare științifică, experiența a fost deosebit de semnificativă. A împinge înainte progresul științific va fi, pe drumul către inteligența artificială generală, unul dintre cele mai pozitive rezultate.” Echipa a fost înființată oficial în octombrie 2025, iar parcursul ei a fost „scurt și cu sincope”, potrivit articolului. IT之家 amintește și un episod în care Weil ar fi susținut pe X că GPT-5 a rezolvat 10 probleme matematice Erdős nerezolvate anterior, afirmație contestată public de un matematician care operează site-ul erdosproblems.com; postarea ar fi fost ulterior ștearsă. Cu o zi înainte de plecarea lui Weil, echipa a publicat modelul GPT-Rosalind , descris ca fiind orientat spre accelerarea cercetării în științele vieții și dezvoltarea de medicamente. Posibile plecări suplimentare IT之家 mai menționează că revista Wired a relatat despre o posibilă plecare a lui Srinivas Narayanan, director tehnic pentru aplicații enterprise la OpenAI, care ar fi invocat nevoia de a petrece mai mult timp cu familia. (În materialul citat nu este oferit un link către Wired.) [...]