Studiu: ChatGPT nu recunoaște mereu urgențele medicale
Instrumentele de inteligență artificială pentru sănătate pot avea dificultăți în identificarea situațiilor medicale grave. Un nou studiu arată că ChatGPT Health nu reușește întotdeauna să recunoască atunci când utilizatorii au nevoie de îngrijiri medicale urgente, scrie zdgust.md cu referire la EuroNews.
Potrivit companiei OpenAI, peste 230 de milioane de persoane pe săptămână folosesc ChatGPT pentru sfaturi legate de sănătate – de la verificarea siguranței unor alimente până la gestionarea alergiilor sau tratarea simptomelor unei răceli.
Totuși, un studiu publicat în revista științifică Nature arată că sistemul nu recomandă întotdeauna prezentarea la urgență în situații care ar necesita îngrijiri medicale imediate.
Cercetarea a constatat că, deși instrumentul gestionează corect urgențele evidente, acesta a subestimat mai mult de jumătate dintre cazurile care necesitau intervenție medicală urgentă. „Am vrut să răspundem la o întrebare simplă: dacă cineva trece printr-o urgență medicală reală și cere ajutorul ChatGPT Health, îi va spune clar să meargă la camera de gardă?”, a declarat Ashwin Ramaswamy, autorul principal al studiului.
Potrivit cercetătorilor, sistemul a oferit răspunsuri corecte în situații clasice de urgență, precum accidentul vascular cerebral sau reacțiile alergice severe. Cu toate acestea, modelul a avut dificultăți în cazurile în care gravitatea situației nu era imediat evidentă.
De exemplu, într-un scenariu legat de astm, chatbotul a recunoscut semnele timpurii ale insuficienței respiratorii, dar a recomandat pacientului să aștepte, în loc să sugereze prezentarea imediată la urgență.
Testarea a zeci de scenarii medicale
Pentru realizarea studiului, cercetătorii au creat 60 de scenarii clinice din 21 de specialități medicale. Cazurile au variat de la afecțiuni minore, care pot fi tratate acasă, până la urgențe medicale reale.
Nivelul corect de urgență pentru fiecare caz a fost stabilit de trei medici independenți, care au folosit ghiduri medicale elaborate de 56 de societăți profesionale din domeniul sănătății.
ChatGPT Health a fost lansat de OpenAI în ianuarie 2026 și permite utilizatorilor să conecteze informații medicale personale, precum dosare medicale sau date din aplicații de wellness, inclusiv MyFitnessPal, pentru a primi răspunsuri mai personalizate.
Probleme în identificarea riscului de suicid
Studiul a analizat și modul în care chatbotul răspunde utilizatorilor care menționează gânduri de auto-vătămare. În mod ideal, sistemul ar trebui să încurajeze imediat persoana să caute ajutor și să contacteze servicii de criză.
Cercetătorii au constatat însă că avertismentul „Ajutorul este disponibil”, care trimite către linii de prevenire a suicidului, a apărut inconsecvent în timpul testelor. Mai mult, mecanismul de protecție a funcționat uneori mai bine atunci când utilizatorul nu menționa o metodă concretă de auto-vătămare decât în situațiile în care aceasta era descrisă. „Modelul observat nu a fost doar inconsistent, ci paradoxal invers față de gravitatea clinică”, se arată în studiu.
Instrument util, dar nu înlocuiește medicul
În ciuda acestor limitări, cercetătorii nu recomandă renunțarea completă la instrumentele AI pentru sănătate. „Ca studentă la medicină care se formează într-o perioadă în care instrumentele AI pentru sănătate sunt deja în mâinile a milioane de oameni, le văd ca pe tehnologii pe care trebuie să învățăm să le integrăm cu atenție în îngrijirea medicală, nu ca pe înlocuitori ai judecății clinice”, a declarat Alvira Tyagi, a doua autoare a studiului.
Autorii studiului recomandă ca persoanele care experimentează simptome care se agravează sau sunt îngrijorătoare – inclusiv durere în piept, dificultăți de respirație, reacții alergice severe sau schimbări ale stării mentale – să solicite direct îngrijire medicală, în loc să se bazeze exclusiv pe recomandările unui chatbot.
De asemenea, studiul subliniază că modelele de inteligență artificială sunt actualizate constant, iar performanța lor se poate schimba în timp.
Expresul



Lasă un răspuns