Inteligență artificială15 apr. 2026
Spitalele din SUA implementează chatboți AI pentru asistență medicală - Răspuns la cererea tot mai mare a pacienților pentru soluții digitale în sănătate
Spitalele din SUA accelerează implementarea de chatboți medicali proprii , mizând pe faptul că pacienții caută deja răspunsuri la întrebări de sănătate în modele de inteligență artificială, dar fără ca beneficiile clinice să fie încă demonstrate. Tendința, descrisă de Ars Technica , ridică însă probleme operaționale imediate: monitorizare, responsabilitate și riscul ca instrumentele să fie promovate mai repede decât poate fi controlată calitatea răspunsurilor. În logica spitalelor și a furnizorilor de tehnologie, chatboții „de brand” ar urma să fie mai siguri decât variantele comerciale folosite de public, pentru că pot funcționa „în interiorul” sistemului medical, conectate la dosarul pacientului și la echipa de îngrijire. K Health, partener cu Hartford HealthCare (Connecticut), lansează PatientGPT către zeci de mii de pacienți existenți, iar conducerea companiei descrie momentul drept un „punct de inflexiune” în care cererea pacienților pentru astfel de instrumente crește. Cererea există, dar motivele sunt și economice, și de acces Contextul din spatele valului de adopție este un sistem medical american care, deși operează într-o economie foarte bogată, are rezultate mai slabe decât alte țări cu venituri ridicate, inclusiv la speranța de viață și decese evitabile, potrivit unor analize citate în material. În plus, un raport din 2023 indică faptul că aproape o treime dintre americani — peste 100 de milioane de persoane — nu au un medic de familie. Pe acest fond, utilizarea chatboților de inteligență artificială pentru informații medicale a devenit deja un comportament de masă. Un sondaj KFF citat de Ars Technica arată că 1 din 3 adulți a folosit un chatbot AI pentru informații de sănătate, iar dintre cei care au folosit astfel de instrumente, 41% au încărcat informații medicale personale (de exemplu, rezultate de analize). Motivele invocate includ: 19%: nu își permit îngrijirea medicală; 18%: nu au un furnizor medical obișnuit sau nu pot obține o programare; 65%: vor un răspuns rapid. Materialul notează și un element cu impact operațional: mulți utilizatori nu au mers ulterior la medic după „consultația” cu AI, inclusiv 58% dintre cei care au întrebat despre sănătate mintală și 42% dintre cei care au întrebat despre sănătate fizică. Riscul: performanță mai slabă în lumea reală și „halucinații” medicale Ars Technica trece în revistă avertismentele tot mai frecvente despre calitatea răspunsurilor. Un studiu publicat în Nature Medicine, cu aproape 1.300 de participanți, a evaluat acuratețea unor modele (GPT-4o, Llama 3 și Command R+) în interacțiuni „din lumea reală”. Când cercetătorii au furnizat modelelor descrieri standardizate ale unor scenarii medicale, acestea au identificat corect afecțiunea în circa 95% din cazuri și „pasul următor” corect în circa 56% din cazuri. Însă când participanții au formulat singuri întrebările pentru aceleași scenarii, modelele au identificat corect afecțiunea doar în aproximativ o treime din cazuri și au indicat pasul următor potrivit în 43% din cazuri. Un alt risc ține de contaminarea cu informații false: Nature News a relatat recent despre „bixonimania”, o afecțiune inventată de cercetători din Suedia, care a ajuns să fie discutată de modele AI după ce au fost publicate online două studii false (ulterior retrase). Cum arată „industrializarea” chatboților în spitale: PatientGPT și Emmie În ciuda acestor semnale, implementările avansează. PatientGPT a fost lansat în versiune beta luna trecută pentru un grup selectat, iar extinderea către zeci de mii de pacienți urma să continue în această săptămână, potrivit Stat News (citat de Ars Technica). Hartford a publicat și un preprint (studiu ne-evaluat inter pares) pe 75 de participanți, care sugerează că testarea iterativă („red teaming”, adică testare adversarială pentru a găsi erori) a redus rata de eșec în scenarii „cu risc ridicat” de la 30% la 8,5%. Ars Technica notează însă că semnificația practică a acestui rezultat rămâne neclară, inclusiv cât de grave sunt eșecurile rămase. Potrivit descrierii citate, PatientGPT ar funcționa în două moduri: un mod general de întrebări și răspunsuri medicale, care poate incorpora informații despre pacient; un mod de „triaj/înregistrare” („medical intake”), în care pacientul introduce simptome, iar chatbotul urmează fluxuri clinice; după colectarea informațiilor, recomandă un pas următor (programare la medicul de familie sau îngrijire urgentă/urgență). Dacă recomandă urgența, chatbotul se oprește din a mai răspunde. Cheia, din perspectivă operațională, este supravegherea: în pilot, Hartford monitoriza fiecare interacțiune, dar odată cu extinderea va trece la revizuirea umană a 20 de interacțiuni pe zi, în timp ce un alt agent AI va monitoriza restul; în plus, vor fi făcute analize „în lot” la fiecare 1.000 de conversații. Separat, Epic (compania din spatele sistemului de dosare medicale electronice MyChart) lansează Emmie, un asistent AI integrat în portal, implementat treptat de unele sisteme de sănătate, inclusiv Sutter Health (California) și Reid Health (Indiana). În documentația Sutter, Emmie este prezentat ca un instrument care poate răspunde la întrebări generale și poate găsi sau rezuma informații deja vizibile în fișa pacientului, dar cu limitări explicite: nu oferă sfaturi medicale personalizate și nu ia decizii de îngrijire. Ce rămâne de urmărit Dincolo de promisiunea de „acces 24/7” și de direcționare către servicii, materialul subliniază o problemă de fond: experți citați avertizează că nu există încă o bază solidă de dovezi că integrarea chatboților în sistemele medicale îmbunătățește rezultatele pentru pacienți. În paralel, extinderea rapidă a acestor instrumente mută discuția din zona de experiment în cea de operare la scară, unde întrebările despre monitorizare, răspundere și controlul erorilor devin decisive. [...]