ChatGPT Prof. Dr. Alexander Hann über die Chancen, Risiken und Grenzen des Bots

Autor: Elisa Sophia Breuer

In einem Interview geht Prof. Dr. Alexander Hann auf die Chancen, Risiken und Grenzen einer künstlichen Inelligenz ein.
In einem Interview geht Prof. Dr. Alexander Hann auf die Chancen, Risiken und Grenzen einer künstlichen Inelligenz ein. © graphiCrash – stock.adobe.com

ChatGPT ist in aller Munde. Auch Vorgehensweisen in der Medizin könnte die Künstliche Intelligenz deutlich verändern. Prof. Dr. ­Alexander ­Hann, Uniklinikum Würzburg, hat bereits die Entstehung der Vorgängerversionen beobachtet und forscht selber in diesem Feld. Lesen Sie, wann seine Arbeitsgruppe den Prototypen bereits nutzt, welche weiteren Möglichkeiten er in naher Zukunft sieht und warum doch nicht alles so einfach ist.

Was ist besonders an ChatGPT?

Prof. Dr. Alexander Hann: Diese Assistenten haben eigentlich keine Grenze – einschließlich der Kreativität. Sie können neue Texte erstellen. ChatGPT wurde anhand einer Unmenge von Informationen aus dem Internet trainiert, vermutlich mit allem, was frei verfügbar ist. Wir kennen jedoch nicht die Trainingsdaten.

Wie gut lässt sich die Technologie einschätzen, wenn man die Trainingsdaten nicht kennt?

Prof. Hann: Nur stark eingeschränkt. Hinzu kommt, dass wir nicht wissen, wie das Modell programmiert und verschaltet ist. Was wir jedoch wissen ist, dass Menschen die bevorzugte Antwort während des Trainings ausgewählt und darauf die KI trainiert haben. Sie haben dabei beide Rollen eingenommen: einmal die der Benutzenden, einmal die des Computers, der eine Antwort liefern soll.

OpenAI warnt, dass ChatGPT nicht dafür gedacht ist, Rat zu erteilen. Aber genau das tut es, wenn man Fragen stellt. Wie passt das zusammen? 

Prof. Hann: ChatGPT ist ein Prototyp, die Firma muss sich absichern. Ich finde den Disclaimer demnach sinnvoll. Viele Antworten sind teilweise noch fehlerhaft. Zudem erweckt ChatGPT häufig den Eindruck, den Kontext zu verstehen, in den man seine Frage einbettet. Hier muss man aufpassen, denn meiner Meinung nach bekommt man häufig nicht sofort die Antwort, die man erwartet hätte, sondern muss immer wieder nachfragen oder seine Frage spezifizieren. Das nennt sich „prompt engineering“ und führt dazu, dass Fragen immer länger werden und man immer mehr unbewusste Annahmen in diese Fragen integriert, um die gewünschte Information zu erhalten. Ich bin mir jedoch ziemlich sicher, dass dieser Prototyp durch jede Nutzung immer besser wird, die Absicht hinter der Frage zu identifizieren. Schließlich kann man jedes Mal bewerten, ob die Antwort hilfreich war oder nicht.  

Chat ... was?

Im November 2022 veröffentlichte OpenAI das Sprachmodell ChatGPT. Gegründet wurde OpenAI u.a. von Elon Musk und Sam Altman. 2019 ist Microsoft in das KI-Forschungsunternehmen eingestiegen und nutzt die Technologie u.a. für die Suchleiste Bing. Viele weitere Firmen und Institutionen gehören zu den Spendengebern. Die Abkürzung ChatGPT steht für „Chatbot Generative Pre-trained Transformer“. Der Prototyp wurde anhand von Millionen von Texten und Sprachaufnamen trainiert. Laut eigener Aussage ist eine der großen Stärken die Fähigkeit, kontextbezogene Gespräche zu führen.

Wie schnell entwickelt sich eine KI, die täglich anhand von unzähligen Datenmengen lernt? Wann kann man mit einer Vollversion rechnen?

Prof. Hann: Das Vorgängermodell von 2019 hatte 1,5 Milliarden Parameter (gelernte Einstellungen) gehabt, das von 2021 bereits 175 Milliarden. ChatGPT nutzen bereits viele Millionen Anwender:innen. Dementsprechend ist zu erwarten, dass diese Software deutlich schneller ausreifen wird.

Inwiefern nutzen Sie die KI bereits und gibt es schon Einsatzgebiete in der Medizin? 

Prof. Hann: Es gibt noch keine Standardanwendungen in der Medizin bei diesem Protoypen. Ein Großteil meiner Arbeitsgruppe befragt jedoch ChatGPT, wenn beim Programmieren ein Code nicht funktioniert oder etwas optimiert werden muss. Denn das System kann Fehler erkennen und selber programmieren. 

Welche Möglichkeiten wären hier in der Zukunft denkbar? 

Prof. Hann: Das Verfassen von diktierten Arztbriefen ist bereits mit einer Spracherkennungs-KI möglich. Wie ich finde, liest sich das Diktierte dann oft nicht so flüssig. Hier könnte ich mir vorstellen, dass eine weitere KI künftig den Text umstrukturieren und auch kürzen kann. 

Spannend wäre zudem der Vorschlag von Philipp Sodmann aus meinem Team, eine „smarte Anamnese“ zu etablieren. Wir Ärzte und Ärztinnen haben ja bei Weitem nicht so viel Zeit für Patient:innen, wie wir uns das wünschen. Wenn die gesamte strukturierte Anamnese-­Erhebung laienverständlich durch eine KI erfolgen würde, bliebe mehr Zeit für vertiefende Gespräche danach.

Daneben könnten repetitive, monotone Aufgaben von uns Ärzt:innen erleichtert werden. Etwa Befunde, Untersuchungsergebnisse und weitere Informationen mit einer KI zu verarbeiten. Diese müsste natürlich am besten aufgrund von Datenschutzrichtlinien lokal laufen. Die KI könnte dann auf Grundlage der vorhandenen Befunde vorschlagen, welche Untersuchungen angemeldet werden sollten. Das müsste noch einmal von einer Ärztin, einem Arzt kontrolliert werden. 

Ich finde es zudem eine reizvolle Idee, wenn man auf Fehler aufmerksam gemacht werden würde. Etwa, wenn ChatGPT bei einem Arztbrief aufzeigen würde, was eine Fachärztin, ein Facharzt daran bemängeln würde. Es könnten zum Beispiel Inkonsistenzen, fehlende Diagnosen oder falsche Schlüsse  identifiziert werden. Das würde uns Arbeit abnehmen. 

Welche Risiken sehen Sie? 

Prof. Hann: Wenn die smarte Anamnese gelingt, befürchte ich ein De­skilling, dass Ärzt:innen mit der Zeit also schlechter selbst die Anamnese durchführen können. Das sehen wir jetzt bereits bei der körperlichen Untersuchung, welche durch Röntgen und Ultraschall in ihrer Wichtigkeit zurückgedrängt wurde. 

Ein weiterer Risikofaktor wäre der Datenmissbrauch. ChatGPT warnt am Anfang, dass keine sensiblen Daten eingegeben werden sollen, weil ein Teil dieser Informationen für das Training verwendet wird. Wenn man aber Patient:innendaten in so eine Anfrage einbaut, besteht das Risiko, dass sie durch geschickte Fragestellungen demaskiert werden könnten.

Hinzu kommt der Aspekt der fehlerhaften Fakten. Die KI wurde anhand von „selbstbewusst“ vorgetragenen „Fakten“ trainiert. Vage Behauptungen, bei denen man sich unsicher ist, waren hier vermutlich eher in der Minderheit. Ein Faktencheck erfolgt bislang nicht.

Ein weiterer Aspekt ist die rasante Entwicklung der Onkologie. Mein Chef Prof. Dr. Alexander Meining sagt immer „die Standards von heute sind die Fehler von morgen“. Viele der Therapien, die wir heute anwenden, sind erst vor Kurzem auf internationalen Kongressen vorgestellt worden und noch gar nicht als Publikation erhältlich. Die Trainingsdaten von ChatGPT sind technisch bedingt im Vergleich veraltet und für aktuelle Therapieempfehlungen ungeeignet. 

Außerdem bewertet das Tool auch die Menge an Daten zu einem Thema. Beispielsweise gab es in der Vergangenheit Perioden, in denen Chemotherapeutika en vogue waren. Dadurch besteht aktuell noch ein Übergewicht zu diesem Thema. Und eine KI lernt durch Vorhandensein, nicht durch Abwesenheit. Wenn etwas abwesend ist, hat das keinen Einfluss auf die KI. Ältere und durch ihr längeres Bestehen präsentere Chemotherapeutika würden also stärker gewichtet als neue Wirkstoffe.

Könnte die KI lernen, dass es einen neuen Standard of Care gibt und alte Daten als irrelevant bewerten?

Prof. Hann: Wahrscheinlich ist dies technisch bereits möglich. Aber dafür müsste man aktiv Einfluss auf die KI nehmen können. Bis dahin ließe sich das Problem so lösen, dass man als Anfrage an die KI schreibt, dass man gerne die Daten der neues­ten Leitlinie haben möchte. Aber selbst diese Trainingsdaten könnten veraltet sein. 

Einige Firmen und Schulen haben bereits die Nutzung von Chat­GPT verboten. Was würden Sie sagen, wenn Kliniken nachziehen würden?

Prof. Hann: Es ist nicht sinnvoll, den Zugang zu beschränken, denn diese Technologie wird bald ubiquitär sein – etwa in der Microsoft Suchleiste „Bing“. Aufklärung ist hier viel wichtiger. Jede:r sollte einen kompetenten Umgang mit diesen neuen Technologien erwerben, insbesondere in Unikliniken als Bildungsstätten. Unsere Patienten und Patientinnen werden es zudem auch verwenden. Von daher wäre es nicht ratsam, sich gegen solche Technologien zu wehren. In Deutschland sehe ich zudem ein großes Potenzial für Forschungsprojekte. Denn medizinische Daten sind eher unter Verschluss. Wir könnten also anonymisierte Daten gemeinsam für das transparente Training eines Open-Source-Modells verwenden.  

Wie lautet ihr Fazit zum jetzigen Zeitpunkt?

Prof. Hann: Ich möchte daran appelieren, solche neuen Technologien auszuprobieren. Sie bieten unheimliches Potenzial, von dem alle profitieren können. Man sollte jedoch um die Einschränkungen wissen. 

Interview: Elisa Sophia Breuer

Prof. Dr. ­Alexander ­Hann
Stellvertretender Schwerpunktleiter Gastro­enterologie, Universitätsklinikum Würzburg
Prof. Dr. ­Alexander ­Hann Stellvertretender Schwerpunktleiter Gastro­enterologie, Universitätsklinikum Würzburg © Daniel Peter