Künstliche Intelligenz Digitale Tausendsassa
Wofür nutzen Ärzt:innen in der Onkologie und Hämatologie schon spezialisierte Algorithmen?
Prof. Dr. Stephen Gilbert: In Europa verwenden Mediziner:innen sie vor allem im Bereich der Bildgebung. Dazu zählt z.B. die Auswertung von CT- und Röntgenaufnahmen sowie die histopathologische Diagnostik. Darüber hinaus gibt es sehr einfache Algorithmen in Apps zur Unterstützung der Patient:innen.
Wie unterscheiden sich generalistische medizinische KI-Modelle (GMAI) von diesen Anwendungen?
Prof. Gilbert: Die zuvor genannten Algorithmen wurden hochspezifisch für eine bestimmte Aufgabe entwickelt und anhand ärztlich deklarierter Beispielaufnahmen trainiert. Generalistische KI-Modelle können hingegen ein relativ breites Spektrum von Fragen beantworten, auch ohne spezifisches Training im jeweiligen Bereich.
Wozu sind diese Anwendungen zum jetzigen Zeitpunkt fähig?
Prof. Gilbert: In den USA setzen Ärzt:innen bereits textbasierte Systeme zur Entscheidungsunterstützung ein. Sie geben Symptome sowie weitere Informationen schriftlich ein und das Programm schlägt Krankheiten und Beschwerdeursachen vor. Es ist dabei nicht spezifisch für ein bestimmtes Fachgebiet. Der Algorithmus verarbeitet allerdings noch keine Informationen aus der Bildgebung oder medizinische Signaldaten (z.B. EKG). In Europa ist der Zulassungsprozess für derartige Anwendungen deutlich schwieriger.
Warum eignen sich die europäischen Zulassungsvorschriften schlecht für GMAI?
Prof. Gilbert: Die derzeitigen Vorschriften für Medizinprodukte setzen voraus, dass eine KI für einen spezifischen Zweck entwickelt und von Menschen darauf trainiert wurde. Das trifft auf multifunktionale Anwendungen nicht oder nur beschränkt zu. Darüber hinaus gibt es hohe Anforderungen an die Transparenz und die Qualität der Trainingsdaten. GMAI erhalten aber gerade durch breite, weniger selektierte Datensets die Fähigkeit, vielfältige Anfragen zu verarbeiten.
Chatbots für Patient:innen
Verschiedene kommerzielle Anbieter richten sich mit ihren Produkten an Laien. Dazu zählen u.a. medizinische Chatbots samt virtuellem Avatar. Die WHO veröffentlichte vor Kurzem ebenfalls eine Anwendung namens S.A.R.A.H, die Fragen in mehreren Weltsprachen beantwortet, etwa zu psychischen Problemen. Bisher geben diese Programme nur generische Auskünfte, aber Prof. Gilbert rechnet damit, dass sie zukünftig immer besser werden. Aus seiner Sicht wirft das die Frage auf, ob bestimmte beratende Tätigkeiten dann in menschlicher Hand verbleiben.
Wie sollten die Richtlinien an die neuen Modelle angepasst werden?
Prof. Gilbert: Ich spreche mich nicht grundsätzlich gegen Regulierung aus. Allerdings legt man die Voraussetzungen für die Datenqualität am besten abhängig von der Art der Anwendung fest. Zudem sollten die Zulassungsbehörden berücksichtigen, dass einige KI-Modelle mittlerweile Fragen beantworten können, auf die sie niemals explizit trainiert wurden.
Aus meiner Sicht gibt es bestimmte Anwendungsbereiche und Leistungsversprechen, bei denen definitiv ein detaillierter Zertifizierungsprozess notwendig ist, aber auch andere, wo dies nicht zutrifft. Sinnvoll erscheint mir etwa die US-Vorschrift, die rein textbasierte Entscheidungsunterstützungssysteme unter bestimmten Voraussetzungen ohne einen formalen Zulassungsprozess erlaubt.
Wie lässt sich verhindern, dass Laien unkontrolliert unzertifizierte Anwendungen nutzen?
Prof. Gilbert: In den App-Stores gibt es bereits nicht-zertifizierte Angebote. Ich sehe ein hohes Risiko, dass Anwendungen ohne Qualitätskontrolle in die Hände der Allgemeinheit geraten oder Laien Programme wie ChatGPT nutzen, die nie für diesen Zweck entwickelt wurden. Langfristig lässt sich die Verwendung solch gefährlicher Produkte am besten dadurch verhindern, dass verantwortungsvoll entwickelte Alternativen zur Verfügung stehen.
Sehen Sie weitere Risiken durch die neuartige medizinische KI?
Prof. Gilbert: Insgesamt erkenne ich zwar Risiken, aber auch die Möglichkeit, diese zu kontrollieren. Viele Menschen sorgen sich um den Datenschutz. Bei den eben genannten Apps stellt sich definitiv die Frage, wer Zugang zu persönlichen Informationen hat und wofür diese verwendet werden. Dieses Problem besteht jedoch nicht, wenn man die Technologie verantwortungsbewusst entwickelt und verwendet.
Im Bereich von Entscheidungsunterstützungssystemen gibt es zwei weitere Bedenken. Eine offene Frage betrifft die sogenannte „explainability“. Sobald eine KI erklärt, wie sie zu einem Schluss kam, glauben Ärzt:innen das Resultat eher, auch wenn es falsch ist. Die zweite kontrovers diskutierte Herausforderung bezieht sich auf ein mögliches „Deskilling“. Wenn Ärzt:innen dank KI-Unterstützung Entscheidungen immer seltener allein fällen, beispielsweise die Bewertung histopathologischer Schnitte, könnten sie darin irgendwann schlechter werden. Was passiert dann, falls das System Fehler aufweist oder ausfällt? Darüber hinaus bleibt fraglich, wie solche Mediziner:innen ihre Kontrollfunktion ausüben können.
Überwiegt aus Ihrer Sicht der potenzielle Nutzen gegenüber den Nachteilen?
Prof. Gilbert: Die möglichen Vorteile überwiegen eindeutig. KI-Modelle können hochkomplexe Datensets analysieren, was die menschlichen Fähigkeiten übersteigt. Es geht dabei um personalisierte Analysen verschiedener Marker im Hochdurchsatz und letztendlich um eine individualisierte Therapieplanung. In diesen Bereichen, z.B. der Genomik, darf man also nicht von Verdrängung sprechen. Die Künstliche Intelligenz könnte sich damit auch als zusätzliche „Stimme“ in Tumorboards einbringen.
Neue, KI-unterstützte Arbeitsabläufe helfen richtig implementiert außerdem, Ressourcen besser zu nutzen und dem Personalmangel zu begegnen. Aus meiner Sicht ist dies im Idealfall günstig für einzelne Patient:innen, die öffentliche Gesundheit, die Kosten, die Umwelt und auch das medizinische Fachpersonal selbst. Werden KI-Anwendungen falsch eingeführt, können sie allerdings ebenso viel Schaden anrichten.
Interview: Lara Sommer