Logo: RheumaGuide

Künstliche Intelligenz (KI)Gutes und weniger Gutes zur Patientenaufklärung mithilfe von KI

20.12.2024Ausgabe 1/20252min. Lesedauer

Chatbots wie ChatGPT dürften in Zukunft mehr und mehr auch bei der Patientenaufklärung eingesetzt werden, um das medizinische Personal zu entlasten. Aktuelle Daten verdeutlichen aber, dass die KI derzeit für Rheuma-Patienten nicht immer ein Fortschritt ist. Es hängt vom Thema und der Fragestellung ab, wie zwei aktuelle Studien zeigen.

Patientenfragen zu SLE konnte die KI noch gut beantworten ...

Positiv sind die Ergebnisse der ChatSLE-Studie von Wissenschaftlern aus Hamburg und Marburg ausgefallen. In der Studie wurden ChatGPT-4 die 100 häufigsten Fragen von Patienten mit systemischem Lupus erythematodes (SLE) gestellt, die der Verband Lupus Europe auf der Website lupus100.org mit Antworten in 14 Sprachen präsentiert; darunter Fragen zu den Ursachen, der Therapie und dem Umgang mit Lupus. „Bei der verblindeten Evaluation erreichten die KI-generierten Antworten höhere Qualitätswerte als die der Rheumatologinnen und Rheumatologen der Website“, berichtete Studienleiterin Dr. Isabell Haase aus Hamburg der Deutschen Gesellschaft für Rheumatologie (DGRh). Auch im Hinblick darauf, wie empathisch die Antworten wirkten, schnitt ChatGPT sehr gut ab und lag mit den Experten-Statements gleichauf.

... bei konkreten Anwendungen fehlte die Evidenz

Weniger gut fielen in einer weiteren Studie die Ergebnisse von ChatGPT (Version 3.5) bei der Patientenaufklärung zum deutlich schwierigeren Thema der Anwendbarkeit von Verfahren der Komplementär– und Alternativmedizin (CAM) (Homöopathie, Ayurveda, Phytotherapie) bei SLE, rheumatoider Arthritis und Granulomatose mit Polyangiitis aus. Bei offenen Fragen zu den Behandlungsmöglichkeiten schnitt die maschinelle Beratung noch recht gut ab (mittlerer Score 6,2 auf der 7-stufigen Likert-Skala). Bei Fragen nach konkreten Anwendungen wurden zahlreiche CAM-Verfahren erwähnt, die nicht durch wissenschaftliche Evidenz gestützt sind. Die Ergebnisse hingen auch sehr deutlich von der Art der Fragestellung ab (Scores zwischen 2,8 und 6,5). Suggerierte die Frage eine Anwendungsabsicht der CAM, entfielen häufig Hinweise auf die fehlende Evidenz.

Quellen
  • Haase I et al. ChatSLE: consulting ChatGPT-4 for 100 frequently asked lupus questions. Lancet Rheumatol 2024; 6 (4): e196–e199. doi.org/10.1016/S2665-9913(24)00056-0
  • Pressemitteilung DGRh, 22.04.2024. iww.de/s12075.
  • Keyer G et al. Welches Potential hat ChatGPT für eine qualifizierte Patienteninformation? Versuch einer systematischen Analyse. DGRh 2024, Abstract doi.org/10.3205/24dgrh053

(ID:50262229)