Künstlich intelligente Sprachmodelle Den Chatbot in der Kitteltasche

e-Health Autor: Isabel Aulehla

Man muss stets prüfen, ob die KI auch die Wahrheit sagt Man muss stets prüfen, ob die KI auch die Wahrheit sagt © LALAKA - stock.adobe.com

Seit ChatGPT ist klar: Künstliche Intelligenz, die Texte generiert, könnte auch in der Medizin Zeit sparen. In einer neuen Podcast-Folge von O-Ton Innere Medizin erklären zwei Experten, wie sich KI-Anwendungen bisher schlagen. Die Zukunft sehen sie eher in lokal arbeitenden, medizinisch trainierten Modellen. 

Sprachmodelle auf Basis Künstlicher Intelligenz könnten Praxen und Kliniken enorm entlasten. Sie könnten zu einem „Multitool“ für die Kitteltasche werden, so selbstverständlich wie ein Stethoskop, meint Dr. Jasmin Zernikow in einer neuen Folge des Podcasts O-Ton Innere Medizin. Sie ist Ärztin in Weiterbildung für Innere Medizin und Kardiologie am Deutschen Herzzentrum der Charité – Universitätsmedizin Berlin am Campus Mitte.

Schon jetzt erleichtere ihr die KI auf Station manchmal den Alltag, erzählt sie. Vor Kurzem sei sie in einer hastigen Situation bei der EKG-Analyse nicht sicher gewesen: Handelte es sich um eine AV-Knoten-Reentrytachykardie oder eine AV-Reentrytachykardie? Sie fragte ChatGPT, an welchen Punkten sie sich orientieren kann. Das Sprachmodell lieferte eine differenzierte, stichpunktartige Übersicht

Auch bei administrativen Aufgaben wie Dokumentation und Arztbrieferstellung könnten zuverlässige Sprachmodelle künftig entlasten. Bei ersten Versuchen sei dies aber noch recht mühsam gewesen, berichtet Prof. Dr. Sebastian Spethmann. Er ist stellvertretender Direktor der Klinik für Kardiologie, Angiologie und Intensivmedizin des Deutschen Herzzentrums der Charité am Campus Mitte. Er leitet außerdem die AG „Digitale Versorgungsforschung“ der Deutschen Gesellschaft für Innere Medizin. 

Hinzu komme, dass personenbezogene Daten bei Anwendungen wie ChatGPT nur anonymisiert eingegeben werden dürfen, da sie in den USA verarbeitet werden. Die Zukunft der KI in Kliniken und Praxen sieht Prof. Spethmann daher eher in „Small Language Models“, die lokal arbeiten und mit spezifischem Fachwissen trainiert werden. 

ChatGPT hat das „Medical Licensing Exam“ bestanden

Patienten nutzen Sprachmodelle wie ChatGPT teils, um von ihren Symptomen auf eine Erkrankung zu schließen. Und tatsächlich sei die KI fähig, häufigere ebenso wie seltene klinische Szenarien zu benennen und detailliert zu begründen, berichtet Dr. Zernikow. So habe ChatGPT beispielsweise das „Medical Licensing Exam“ bestanden, das Ärztinnen und Ärzte in den USA ablegen müssen, um tätig werden zu dürfen. Dennoch müsse man sich immer fragen, ob ChatGPT wirklich die Wahrheit sage – und das sei leider nicht der Fall. Es habe stets eine sorgfältige Prüfung zu erfolgen, so Dr. Zernikow.

In einer Studie von 2023 verglichen Wissenschaftler in Kalifornien, wie Arzt- und KI-Antworten auf ausgewählte Gesundheitsfragen von Patientinnen und Patienten auf der Social-Media-Plattform Reddit bewertet wurden. Das Ergebnis: Der Chatbot antwortete ausführlicher und empathischer, auch die Qualität wurde besser eingestuft. Der Anteil der als „sehr gut“ oder „gut“ beantworteten Fragen lag bei ChatGPT bei 78 %, bei Ärztinnen und Ärzten bei 22 %. 

Wie sinnvoll die Ergebnisse sind, die ein Sprachmodell liefert, hängt davon ab, wie gut die „Prompts“ sind, die eingegebenen Befehle. Worauf es dabei ankommt, erklären Dr. Zernikow und Prof. Spethmann in der aktuellen Podcast-Folge. Und auch, warum sie gegenüber der KI manchmal das Wort „bitte“ verwenden. 

Mehr zum O-Ton Innere Medizin

O-Ton Innere Medizin ist der Podcast für Internist:innen. So vielfältig wie das Fach sind auch die Inhalte. Die Episoden erscheinen alle 14 Tage donnerstags auf den gängigen Podcast-Plattformen.