Știri
Știri din categoria Inteligență artificială

Spitalele din SUA accelerează implementarea de chatboți medicali proprii, mizând pe faptul că pacienții caută deja răspunsuri la întrebări de sănătate în modele de inteligență artificială, dar fără ca beneficiile clinice să fie încă demonstrate. Tendința, descrisă de Ars Technica, ridică însă probleme operaționale imediate: monitorizare, responsabilitate și riscul ca instrumentele să fie promovate mai repede decât poate fi controlată calitatea răspunsurilor.
În logica spitalelor și a furnizorilor de tehnologie, chatboții „de brand” ar urma să fie mai siguri decât variantele comerciale folosite de public, pentru că pot funcționa „în interiorul” sistemului medical, conectate la dosarul pacientului și la echipa de îngrijire. K Health, partener cu Hartford HealthCare (Connecticut), lansează PatientGPT către zeci de mii de pacienți existenți, iar conducerea companiei descrie momentul drept un „punct de inflexiune” în care cererea pacienților pentru astfel de instrumente crește.
Contextul din spatele valului de adopție este un sistem medical american care, deși operează într-o economie foarte bogată, are rezultate mai slabe decât alte țări cu venituri ridicate, inclusiv la speranța de viață și decese evitabile, potrivit unor analize citate în material. În plus, un raport din 2023 indică faptul că aproape o treime dintre americani — peste 100 de milioane de persoane — nu au un medic de familie.
Pe acest fond, utilizarea chatboților de inteligență artificială pentru informații medicale a devenit deja un comportament de masă. Un sondaj KFF citat de Ars Technica arată că 1 din 3 adulți a folosit un chatbot AI pentru informații de sănătate, iar dintre cei care au folosit astfel de instrumente, 41% au încărcat informații medicale personale (de exemplu, rezultate de analize). Motivele invocate includ:
Materialul notează și un element cu impact operațional: mulți utilizatori nu au mers ulterior la medic după „consultația” cu AI, inclusiv 58% dintre cei care au întrebat despre sănătate mintală și 42% dintre cei care au întrebat despre sănătate fizică.
Ars Technica trece în revistă avertismentele tot mai frecvente despre calitatea răspunsurilor. Un studiu publicat în Nature Medicine, cu aproape 1.300 de participanți, a evaluat acuratețea unor modele (GPT-4o, Llama 3 și Command R+) în interacțiuni „din lumea reală”. Când cercetătorii au furnizat modelelor descrieri standardizate ale unor scenarii medicale, acestea au identificat corect afecțiunea în circa 95% din cazuri și „pasul următor” corect în circa 56% din cazuri. Însă când participanții au formulat singuri întrebările pentru aceleași scenarii, modelele au identificat corect afecțiunea doar în aproximativ o treime din cazuri și au indicat pasul următor potrivit în 43% din cazuri.
Un alt risc ține de contaminarea cu informații false: Nature News a relatat recent despre „bixonimania”, o afecțiune inventată de cercetători din Suedia, care a ajuns să fie discutată de modele AI după ce au fost publicate online două studii false (ulterior retrase).
În ciuda acestor semnale, implementările avansează. PatientGPT a fost lansat în versiune beta luna trecută pentru un grup selectat, iar extinderea către zeci de mii de pacienți urma să continue în această săptămână, potrivit Stat News (citat de Ars Technica).
Hartford a publicat și un preprint (studiu ne-evaluat inter pares) pe 75 de participanți, care sugerează că testarea iterativă („red teaming”, adică testare adversarială pentru a găsi erori) a redus rata de eșec în scenarii „cu risc ridicat” de la 30% la 8,5%. Ars Technica notează însă că semnificația practică a acestui rezultat rămâne neclară, inclusiv cât de grave sunt eșecurile rămase.
Potrivit descrierii citate, PatientGPT ar funcționa în două moduri:
Cheia, din perspectivă operațională, este supravegherea: în pilot, Hartford monitoriza fiecare interacțiune, dar odată cu extinderea va trece la revizuirea umană a 20 de interacțiuni pe zi, în timp ce un alt agent AI va monitoriza restul; în plus, vor fi făcute analize „în lot” la fiecare 1.000 de conversații.
Separat, Epic (compania din spatele sistemului de dosare medicale electronice MyChart) lansează Emmie, un asistent AI integrat în portal, implementat treptat de unele sisteme de sănătate, inclusiv Sutter Health (California) și Reid Health (Indiana). În documentația Sutter, Emmie este prezentat ca un instrument care poate răspunde la întrebări generale și poate găsi sau rezuma informații deja vizibile în fișa pacientului, dar cu limitări explicite: nu oferă sfaturi medicale personalizate și nu ia decizii de îngrijire.
Dincolo de promisiunea de „acces 24/7” și de direcționare către servicii, materialul subliniază o problemă de fond: experți citați avertizează că nu există încă o bază solidă de dovezi că integrarea chatboților în sistemele medicale îmbunătățește rezultatele pentru pacienți. În paralel, extinderea rapidă a acestor instrumente mută discuția din zona de experiment în cea de operare la scară, unde întrebările despre monitorizare, răspundere și controlul erorilor devin decisive.
Recomandate

Raportul anual al Stanford arată că percepția publicului despre AI se îndepărtează rapid de cea a experților , un decalaj care riscă să alimenteze presiuni de reglementare și costuri operaționale pentru companiile care dezvoltă și implementează tehnologia, potrivit TechCrunch . Documentul notează o creștere a anxietății legate de AI și, în SUA, îngrijorări privind efectele asupra locurilor de muncă, îngrijirii medicale și economiei. În timp ce liderii din industrie își concentrează discursul pe riscuri de tip AGI (inteligență artificială generală – o formă teoretică de „superinteligență” capabilă să facă orice sarcină umană), publicul se uită mai degrabă la impactul imediat: salarii, stabilitatea joburilor și posibile scumpiri ale energiei pe fondul construirii de centre de date mari consumatoare de electricitate. Diferențe mari între experți și public pe joburi, economie și sănătate Raportul Stanford sintetizează mai multe seturi de date despre sentimentul public, inclusiv rezultate din cercetări Pew Research citate în raport. Un exemplu: doar 10% dintre americani au spus că sunt mai entuziasmați decât îngrijorați de utilizarea tot mai mare a AI în viața de zi cu zi, în timp ce 56% dintre experții în AI consideră că tehnologia va avea un impact pozitiv asupra SUA în următorii 20 de ani. Pe domenii, diferențele sunt și mai pronunțate: Îngrijire medicală: 84% dintre experți anticipează un impact în mare parte pozitiv, față de 44% din publicul general din SUA. Modul în care oamenii își fac munca: 73% dintre experți sunt optimiști, comparativ cu 23% din public. Economie: 69% dintre experți văd un efect pozitiv, dar doar 21% dintre respondenții din public sunt de acord, pe fondul temerilor legate de concedieri și perturbări la locul de muncă. Piața muncii: aproape două treimi dintre americani (64%) cred că AI va duce la mai puține locuri de muncă în următorii 20 de ani. Încrederea în reglementare rămâne un punct sensibil Raportul indică și o problemă de guvernanță: SUA ar avea cel mai scăzut nivel de încredere în capacitatea guvernului de a reglementa responsabil AI, la 31%, în comparație cu alte țări. Singapore apare cu cel mai ridicat nivel, 81%, pe baza datelor Ipsos incluse în raport. Separat, o altă sursă citată în raport arată că, la nivel național în SUA, 41% dintre respondenți cred că reglementarea federală a AI nu va merge suficient de departe , în timp ce 27% spun că ar merge „prea departe”. Context: reacții online și o generație mai furioasă, deși folosește AI TechCrunch notează că raportul vine pe fondul unei intensificări a sentimentului negativ față de AI, cu Gen Z „în avangardă”, potrivit unui sondaj Gallup citat de publicație: tinerii ar fi mai puțin optimiști și mai furioși, deși aproximativ jumătate folosesc AI zilnic sau săptămânal. Diviziunea dintre „insideri” și public a devenit vizibilă și în reacțiile online la atacurile recente asupra locuinței CEO-ului OpenAI, Sam Altman , unde unele comentarii au părut să laude incidentul, în timp ce persoane din industrie s-au declarat surprinse de tonul acestor reacții. Un semnal mixt: beneficii percepute în creștere, dar și nervozitate mai mare La nivel global, ponderea celor care cred că produsele și serviciile AI aduc mai multe beneficii decât dezavantaje a crescut ușor, de la 55% în 2024 la 59% în 2025. În același timp, a crescut și ponderea celor care spun că AI îi face „nervoși”, de la 50% la 52%. Pentru companii, mesajul implicit al raportului este că acceptarea socială și încrederea în reglementare pot deveni la fel de importante ca performanța tehnică: dacă publicul rămâne concentrat pe efectele asupra veniturilor și costurilor (inclusiv energie), presiunea pentru reguli mai stricte și pentru limitarea unor proiecte de infrastructură ar putea crește. [...]

Oura integrează un model AI dedicat sănătății femeilor în chatbotul din aplicație , mizând pe răspunsuri „bazate pe dovezi” și pe date biometrice din inel, într-o zonă în care riscurile de confidențialitate și de utilizare greșită a informațiilor medicale rămân sensibile, potrivit CNET . Modelul, lansat inițial în februarie ca primul model AI proprietar al companiei, este disponibil din 8 aprilie în Oura Advisor (chatbotul AI din aplicație), după o perioadă de testare în secțiunea Oura Labs. Scopul declarat este să răspundă la întrebări despre menopauză, ciclul menstrual, fertilitate și alte subiecte de sănătate a femeilor, într-un mod „de sprijin” care să nu minimizeze preocupările utilizatoarelor. Cum funcționează modelul și ce promite utilizatorilor Oura spune că modelul a fost creat de echipa proprie de medici certificați și experți în sănătatea femeilor și că este un „model lingvistic de mari dimensiuni” (un tip de AI antrenat să înțeleagă și să genereze text) construit pe baza componentelor de AI generativ din Oura Advisor, împreună cu algoritmii de monitorizare biometrică ai companiei. În practică, când utilizatoarea pune o întrebare, sistemul ar combina două surse: o bibliotecă „curatoriată” de cercetare despre sănătatea femeilor; datele colectate de Oura Ring , pentru a oferi răspunsuri pe care compania le descrie ca fiind bazate pe dovezi. Un alt obiectiv menționat este utilitatea în pregătirea consultațiilor medicale, prin explicarea a ceea ce este „tipic”, a ceea ce ar putea indica datele purtabilei și a punctelor relevante de discutat cu medicul. Ce spune compania despre confidențialitate Pe partea de date, Oura afirmă că nu va vinde sau închiria datele de sănătate și că nu va partaja informații sensibile fără consimțământul utilizatorului, conform poziției companiei citate în articol. Materialul CNET notează explicit că, dincolo de acces și funcționalitate, utilizatorii ar trebui să fie atenți la aspectele de confidențialitate. [...]

Google.org alocă încă 15 milioane de dolari (aprox. 69 mil. lei) pentru cercetare independentă despre impactul AI , extinzând finanțarea programului Digital Futures Fund și orientând-o spre teme cu efect direct asupra economiei, infrastructurii și guvernanței tehnologiei, potrivit Google Blog . Finanțarea vizează un nou „cohort” (grup) de think tank-uri și instituții academice care să analizeze implicațiile inteligenței artificiale, într-un moment în care deciziile de politici publice și investițiile în infrastructură sunt influențate tot mai mult de ritmul adoptării AI. Ce se finanțează: trei direcții cu miză economică și de politici publice Google.org spune că noul val de cercetări se va concentra pe trei „piloni”: Muncă și economie : impactul AI asupra pieței muncii, transformări pe sectoare (inclusiv producție și sănătate) și politici necesare pentru a crește oportunitățile pentru forța de muncă. Inovație și infrastructură : cerințe de infrastructură și consum energetic pentru a susține dezvoltarea și utilizarea AI, plus legătura cu competitivitatea la nivel național. Securitate și guvernanță : cadre pentru „inovație responsabilă” și evaluarea modului în care AI poate întări securitatea instituțiilor și a companiilor. Dimensiunea programului și organizații incluse Google.org precizează că această extindere duce angajamentul total pentru Digital Futures Fund la peste 35 milioane de dolari la nivel global de la lansare. Între organizațiile menționate ca parte a cohortei 2026 se numără American Compass, The Center for Strategic and International Studies , Urban Institute și Centro Nacional de Inteligencia Artificial (CENIA). De ce contează Accentul pus pe infrastructură, energie, piața muncii și guvernanță indică o direcție în care cercetarea finanțată va alimenta dezbateri și decizii cu impact economic: de la costurile și capacitatea infrastructurii necesare pentru AI, până la politici pentru adaptarea forței de muncă și cadre de securitate. Google.org nu detaliază în material cum vor fi distribuite sumele pe organizații sau proiecte și nici calendarul livrabilelor de cercetare. [...]

Google pune la dispoziția dezvoltatorilor Gemini Robotics-ER 1.6 prin API, mizând pe autonomie mai mare în roboți potrivit Google Blog , care prezintă o versiune actualizată a modelului „reasoning-first” (axat pe raționament) pentru sarcini din lumea reală. Modelul, denumit Gemini Robotics-ER 1.6, este descris ca un upgrade care îmbunătățește „logica spațială” și „înțelegerea multi-view” (capacitatea de a integra mai multe perspective vizuale) pentru a crește autonomia agenților fizici. În termeni practici, Google indică trei zone-cheie pentru robotică: înțelegere vizuală și spațială, planificarea sarcinilor și detectarea reușitei unei sarcini. Ce se schimbă operațional pentru dezvoltatori Începând de astăzi (14 aprilie 2026), Gemini Robotics-ER 1.6 este disponibil dezvoltatorilor prin: Gemini API; Google AI Studio. Această disponibilitate prin canale standard de dezvoltare sugerează o orientare către integrare mai rapidă în aplicații și prototipuri de robotică, fără ca materialul să ofere însă detalii despre prețuri, limite de utilizare sau condiții comerciale. O capabilitate nouă: citirea instrumentelor industriale Google menționează „instrument reading” ca funcție nouă, adică abilitatea roboților de a citi indicatoare și elemente precum manometre și „sight glasses” (vizor/indicator de nivel). Compania spune că această capabilitate a fost identificată în urma unei colaborări cu Boston Dynamics . Siguranță: „cel mai sigur model” de robotică al companiei, conform Google În aceeași prezentare, Google afirmă că Gemini Robotics-ER 1.6 este „cel mai sigur” model de robotică al său de până acum și că demonstrează o conformare mai bună la politicile de siguranță în teste de raționament spațial adversarial (scenarii concepute să forțeze erori). Materialul nu include rezultate numerice sau metodologie de evaluare, astfel că amploarea îmbunătățirilor nu poate fi cuantificată din informațiile publicate. [...]

Evaluarea de 852 mld. dolari (aprox. 3.900 mld. lei) a OpenAI este pusă sub semnul întrebării de unii dintre propriii investitori , pe fondul schimbărilor repetate de strategie și al pivotării către clienți corporate, potrivit The Next Web , care citează Financial Times. Îngrijorările vizează „turbulența” strategică din ultimele luni: OpenAI și-a revizuit de două ori foaia de parcurs a produselor în șase luni, mai întâi sub presiunea competiției cu Google, apoi cu Anthropic , și a renunțat între timp la mai multe inițiative, inclusiv lansarea Sora pentru generare video și un chatbot „adult”. Unii investitori au spus pentru Financial Times că aceste schimbări rapide pot lăsa compania vulnerabilă în fața Anthropic și a unui Google aflat în revenire, în timp ce OpenAI se pregătește pentru o posibilă listare la bursă chiar din trimestrul IV 2026. Un investitor timpuriu a criticat direcția companiei, invocând creșterea ChatGPT și întrebând de ce OpenAI „vorbește despre enterprise și cod”, concluzionând că este „o companie profund nefocusată”. Separat, Jai Das, președintele Sapphire Ventures (care nu investește în OpenAI sau Anthropic), a comparat OpenAI cu „Netscape of AI”, sugerând riscul de a fi depășită într-o piață care se consolidează rapid. Un alt investitor, care a finanțat ambele companii, a spus că pentru a justifica ultima rundă de finanțare ar trebui presupusă o evaluare la IPO de cel puțin 1,2 trilioane de dolari (aprox. 5.500 mld. lei). Răspunsul OpenAI: finanțare record și pondere în creștere a veniturilor enterprise Conducerea OpenAI a respins criticile. Directoarea financiară Sarah Friar a indicat runda de finanțare de 122 mld. dolari (aprox. 560 mld. lei) închisă luna trecută — descrisă drept cea mai mare rundă privată din istoria Silicon Valley — ca dovadă a încrederii investitorilor, între care sunt menționați SoftBank, Amazon, Nvidia, Andreessen Horowitz, Sequoia Capital și Thrive Capital, alături de peste 25 de investitori. „Sugestia că investitorii nu susțin strategia noastră contrazice faptele”, a spus Friar. „Runda noastră, cea mai mare din istorie, a fost suprasubscrisă, închisă în timp record și susținută de un set larg de investitori globali.” Friar a mai declarat pentru CNBC că segmentul enterprise reprezintă acum 40% din veniturile totale ale OpenAI și este pe cale să ajungă la nivelul business-ului de consum până la finalul lui 2026. Miza competitivă: venituri „annualizate” și disputa de contabilizare cu Anthropic În centrul tensiunilor se află ritmul de creștere al veniturilor Anthropic. Potrivit materialului, venitul annualizat (run rate) al companiei care dezvoltă Claude ar fi urcat de la aproximativ 9 mld. dolari la final de 2025 la 30 mld. dolari la final de martie 2026, pe fondul cererii pentru instrumente de programare. OpenAI susține că a atins 25 mld. dolari venit annualizat în februarie. Diferența a declanșat o reacție dură din partea noului director comercial (CRO) al OpenAI, Denise Dresser (angajată în decembrie 2025, venind din rolul de CEO al Slack). Într-un memo intern, Dresser a acuzat Anthropic că și-ar supraevalua run rate-ul cu circa 8 mld. dolari, din cauza unei diferențe de raportare: Anthropic ar înregistra „brut” (gross) veniturile generate prin parteneri de distribuție în cloud (Amazon Web Services și Google Cloud), în timp ce OpenAI ar raporta „net” (după deducerea părții partenerului) veniturile din parteneriatul cu Microsoft. Articolul precizează că ambele abordări sunt permise de standardele contabile americane (US GAAP). Dacă analiza OpenAI ar fi corectă, run rate-ul comparabil al Anthropic ar fi mai aproape de 22 mld. dolari, nu de 30 mld. dolari. Anthropic a contestat interpretarea, iar o persoană apropiată companiei a spus pentru Financial Times că recunoaște veniturile „brut” prin parteneri deoarece este „principalul” în tranzacție, iar partenerii cloud sunt canalul de distribuție. Ce urmează: capacitate de calcul și ofensiva pe enterprise OpenAI vizează 30 gigawați de capacitate de calcul până în 2030 și le-a spus investitorilor că a securizat deja 8 gigawați, susținând că Anthropic nu ar ajunge la acest nivel până la finalul lui 2027. În memo-ul intern, Dresser a recunoscut că focusul Anthropic pe programare i-a oferit un avantaj inițial în enterprise, dar a argumentat că o poziționare îngustă, centrată pe dezvoltatori, poate deveni o vulnerabilitate pe măsură ce utilizarea AI se extinde dincolo de echipele de inginerie. Documentul a enumerat și priorități pentru trimestrul al doilea, inclusiv un nou model cu nume de cod „Spud”, dezvoltarea platformei de agenți „Frontier”, extinderea printr-un parteneriat anunțat cu Amazon și construirea unui „motor de implementare” numit DeployCo. [...]

Atacul cu cocktail Molotov asupra locuinței lui Sam Altman ridică miza de securitate pentru industria AI , după ce suspectul ar fi vizat explicit uciderea CEO-ului OpenAI și ar fi amenințat ulterior sediul companiei, potrivit Adevărul . Incidentul a avut loc vineri, 10 aprilie, la casa lui Altman din California. O purtătoare de cuvânt a OpenAI a confirmat atacul și a spus că aceeași persoană „a făcut și amenințări la sediul nostru din San Francisco”, conform BBC. Nu au existat răniți, iar compania a mulțumit poliției pentru intervenție. După atac, suspectul ar fi fugit și, aproximativ o oră mai târziu, a apărut în fața unui birou OpenAI, unde ar fi amenințat că „va da foc clădirii”, potrivit autorităților. Atunci a fost arestat. Ce știu autoritățile despre suspect și acuzații Poliția a transmis că suspectul este un texan în vârstă de 20 de ani, Daniel Moreno-Gama , informație relatată de News.ro. El a fost inculpat pentru tentativă de distrugere cu ajutorul unor explozivi și deținerea unei arme neînregistrate. Autoritățile mai susțin că, după atacul asupra locuinței, tânărul a ajuns la sediul OpenAI și a încercat să pătrundă forțat. La intervenția poliției, avea asupra sa combustibil, o brichetă și un document intitulat „Ultimul tău avertisment”. „Manifest” împotriva AI și țintirea conducerii companiilor Documentul găsit asupra suspectului „promova lupta împotriva AI şi încuraja la omor şi alte infracţiuni penale” împotriva patronilor şi investitorilor din sectorul inteligenței artificiale, potrivit Departamentului Justiției. Conform autorităților, tânărul ar fi scris că a încercat să-l omoare pe Sam Altman: „Dacă supravieţuieşti printr-o minune, voi lua asta drept un semn divin al răscumpărării tale”. Într-o postare pe blog, la scurt timp după incident, Sam Altman a cerut o „dezescaladare a retoricii şi metodelor”, interpretată ca o aluzie la criticile tot mai dure la adresa industriei AI. Context: o companie de sute de miliarde, într-un sector sub presiune Locuința lui Altman se află în cartierul Russian Hill din San Francisco, iar averea sa este estimată de Forbes la circa 3,4 miliarde de dolari (aprox. 15,3 miliarde lei). OpenAI, fondată în 2015 și cunoscută pentru ChatGPT, este evaluată la aproximativ 852 de miliarde de dolari (aprox. 3.834 miliarde lei), conform informațiilor din articol. [...]