Inteligență artificială28 ian. 2026
ChatGPT evaluează greșit sănătatea inimii unui jurnalist – Apple Health, sursă de confuzie pentru AI
Integrarea dintre ChatGPT și Apple Health oferă rezultate instabile și evaluări eronate , potrivit unei investigații realizate de The Washington Post . Jurnalistul Geoffrey Fowler a testat recent această funcție, oferind chatbotului acces la un deceniu de date personale din aplicația Apple Health – inclusiv 29 de milioane de pași și 6 milioane de măsurători ale ritmului cardiac. Rezultatul? ChatGPT i-a acordat nota F pentru sănătatea cardiacă – un diagnostic alarmant, complet infirmat de medicul său. Ce este ChatGPT Health și cum funcționează Lansat la începutul lunii ianuarie 2026, ChatGPT Health este un nou serviciu opțional dezvoltat de OpenAI, care permite utilizatorilor să primească răspunsuri pe teme medicale, folosind date din aplicații și platforme de sănătate precum: Apple Health MyFitnessPal Peloton Weight Watchers Instacart AllTrails În plus, utilizatorii pot conecta dosarele medicale pentru a obține analize mai personalizate, inclusiv interpretarea rezultatelor de laborator. Această funcționalitate se află momentan în fază beta și este disponibilă doar pentru un grup restrâns de utilizatori. Cu toate acestea, problemele identificate în testul efectuat de Fowler ridică semne serioase de întrebare privind utilitatea reală a acestei integrări. Problemele identificate în testul jurnalistic Fowler a raportat că, deși ChatGPT a avut acces complet la datele sale de sănătate, chatbotul a oferit evaluări contradictorii și uneori nefondate: Problemă observată Detalii Inconsistență în răspunsuri Nota pentru sănătatea cardiacă a variat între F și B, fără schimbarea datelor de intrare Lipsă de memorie contextuală ChatGPT uita frecvent informații de bază, cum ar fi sexul și vârsta utilizatorului Evaluări alarmiste Acordarea notei F a fost respinsă categoric de un medic specialist Medicul personal al jurnalistului a declarat că riscul cardiac este atât de scăzut încât nu ar justifica nici măcar o investigație suplimentară, iar cardiologul Eric Topol de la Scripps Research Institute a calificat analiza AI drept „fără fundament”. Claude, alternativa de la Anthropic, nu impresionează Fowler a repetat experimentul folosind Claude – chatbotul concurent produs de compania Anthropic. Acesta a fost puțin mai rezervat, oferind o notă C, însă și în acest caz au fost identificate probleme similare: ignorarea limitărilor din datele colectate de Apple Watch și imposibilitatea de a formula concluzii corecte în lipsa unor parametri clinici relevanți. Ce spun dezvoltatorii și autoritățile OpenAI a reacționat spunând că serviciul este încă în proces de îmbunătățire și că lansarea cu acces pe bază de listă de așteptare le permite „să învețe și să optimizeze experiența”. Ashley Alexander, vicepreședinte OpenAI, a precizat că feedbackul este valoros pentru rafinarea funcționalităților. La nivel instituțional, Administrația pentru Alimente și Medicamente din SUA (FDA) a declarat recent că își propune „să nu blocheze inovația”, însă a trasat o linie clară: AI-ul nu trebuie să ofere diagnostice sau să facă afirmații clinice fără avizul agenției. Cu toate acestea, atât OpenAI, cât și Anthropic afirmă că nu oferă diagnostice, ci doar „informații”. Riscurile unei utilizări premature Cardiologul Eric Topol avertizează că evaluările automate precum cele făcute de ChatGPT pot speria nejustificat oamenii sănătoși sau, dimpotrivă, pot liniști fals persoane aflate în risc. În lipsa unui cadru clar de reglementare și a unor validări științifice, astfel de instrumente pot produce confuzie, mai ales în rândul utilizatorilor fără pregătire medicală. Concluzie : Integrarea AI-ului cu aplicațiile de sănătate promite multe, dar, în stadiul actual, poate produce mai multă dezinformare decât beneficii. Testele reale evidențiază lipsa de fiabilitate și riscurile asumate de utilizatorii care iau în serios evaluările algoritmilor. [...]