Kollege KI Chancen und Grenzen von Künstlicher Intelligenz in der Medizin

Koloproktologen-Kongress 2024 Autor: Friederike Klein

Beim Einsatz von KI in der Medizin müssen zuvor grundlegende Fragen tiefgründig diskutiert werden. Beim Einsatz von KI in der Medizin müssen zuvor grundlegende Fragen tiefgründig diskutiert werden. © Toowongsa – stock.adobe.com

Bei aller Euphorie für den Einsatz von KI in der Medizin: Praxistaugliche Anwendungen brauchen nicht nur Algorithmen, sondern eine solide Datenbasis und externe Validierung. Eine Kollegin klärt über die Tücken auf.

Prof. Dr. Lena Maier-Hein kennt noch die Anfänge der Künstlichen Intelligenz (KI). Bei den „handgestrickten“ neuronalen Netzwerken, inspiriert durch Neurone im Gehirn, „war noch nicht viel ‚magic’ dahinter“, erinnerte sich die Kollegin vom Nationalen Centrum für Tumorerkrankungen am Deutschen Krebsforschungszentrum, Heidelberg. Das hat sich geändert. Heute seien Persönlichkeitscharakteristika von KI-Systemen nicht wesentlich anders als die von Menschen. 

Künstliche Intelligenz hat in der Medizin schon viele Hürden genommen. Mitunter gibt sie sogar qualitativ hochwertigere und empathischere Antworten auf Fragen von Patienten als ein Arzt, wie eine Studie belegt.1 Bis 2022 hatte die amerikanische Zulassungsbehörde FDA bereits 521 KI-Systeme zur medizinischen Anwendung für den US-Markt freigegeben – vor allem im Bereich Bildgebung. Doch nicht alles, was erforscht wurde, hat im wirklichen Leben einen Vorteil, meinte Prof. Maier-Hein. 

Beispielsweise sollte ein Google-Deep-Learning-Algorithmus die Detektion der diabetischen Retinopathie verbessern. Während der Testphasen lagen Sensitivität und Spezifität bei > 90 %. Nachdem die KI in Thailand ausgerollt wurde, erwies sie sich jedoch als nicht praxistauglich.

Prof. Maier-Hein kritisierte, dass es zwar eine Flut von KI-Publikationen gebe, häufig aber grundlegende Fragen die Metrik oder die externe Validierung der entwickelten Systeme betreffend vernachlässigt werden würden. Als Beispiel nannte sie die pixelorientierte Auswertung von digitalem Bildmaterial. Die Kameras würden sich am menschlichen Auge orientieren. „Das macht aus Sicht der Informationswissenschaft wenig Sinn“, erklärte sie. Die multispektrale Bildgebung dagegen geht über das sichtbare Licht hinaus und liefert Ergebnisse im Nahinfrarotbereich (s. Kasten). 

Multispektrale Bildgebung

Die multispektrale Bildgebung gibt Auskunft über Wassergehalt und Oxygenierung. Beispielsweise kann ein entsprechendes laparoskopisches Werkzeug Chirurgen dabei helfen, ischämische Bereiche besser zu erkennen. Zum Einsatz kommt diese Technik bereits bei Nierentransplantationen, Darm-OPs oder funktionellem Neuroimaging. Denkbar ist Prof. Maier-Hein zufolge auch, dass sie bei der Polypen- und Adenomdetektion unterstützen könnte.

Vor Fehlerquellen ist auch die Expertin nicht gefeit. In ihrer Arbeitsgruppe erforschte Prof. Maier-Hein, ob sich das Sepsisrisiko mittels KI-gestützter hyperspektraler Bildgebung der Handinnenfläche voraussagen lässt. Anfangs fand sich eine sehr hohe Genauigkeit von mehr als 97 %. Dann stellte sich heraus, dass eine Fehlkalibrierung des Systems durch den Hersteller zu dem „Erfolg“ beitrug. Die Überprüfung drei Jahre später ergab eine realistischere Area under the Curve (AUC) von 0,753. Es gibt viele Störfaktoren, die nicht immer offensichtlich sind, fügte die Kollegin hinzu. So kann ein KI-System durch medizinisches Equipment im Bild, verschiedene Gerätemodelle oder die Patientenlage fehlgeleitet werden.

Nicht zu vergessen ist die Störvariable „Arzt“. Eine Studie zeigte, dass sich Radiologen mit unterschiedlicher Berufserfahrung bei der Mammografie zu sehr auf KI verlassen, falls diese zur Unterstützung eingesetzt wird.2 Solche Aspekte der Mensch-Maschine-Kommunikation müssen bei der Entwicklung und Implementierung von KI-Systemen stärker beachtet werden, sagte Prof. Maier-Hein.

Quelle: 49. Deutscher Koloproktologen-Kongress
1. Ayers JW et al. JAMA Intern Med 2023; 183: 589-596; DOI: 10.1001/jamainternmed.2023.1838 
2. Dratsch T et al. Radiology 2023; 307: e222176; DOI: 10.1148/radiol.222176