Cartoon Medizin und Markt

Inadäquate Datengrundlage von KI kann zu Fehleinschätzungen und Verzerrungen führen

Friederike Klein

Haben die Ergebnisse von KI-gestützten Anwendungen einen Bias, liegt es oftmals an den Daten, mit denen sie trainiert wurden. Haben die Ergebnisse von KI-gestützten Anwendungen einen Bias, liegt es oftmals an den Daten, mit denen sie trainiert wurden. © Johannes–stock.adobe.com

Angesichts des Tempos, mit dem neue KI-basierte Anwendungen in der Medizin entstehen, scheint Skepsis angebracht. Bislang kann Künstliche Intelligenz klinische Entscheidungen im besten Fall unterstützen, aber die fachkundige Abwägung durch Ärztinnen und Ärzte nicht ersetzen.

Künstliche Intelligenz (KI) wird schon heute in den verschiedensten Bereichen eingesetzt. Auf das, was am Ende herauskommt, kann man sich jedoch nicht immer blind verlassen. So haben KI-Anwendungen teils sogar negative Effekte, berichtete Dr. Joseph Alderman, KI-Forscher von der University of Birmingham. Eine KI in den USA sagte z. B. anhand des Profils von Angeklagten und gelernten Risikofaktoren voraus, wie hoch die Wahrscheinlichkeit für eine erneute Straftat ist. Damit sollten Richterinnen und Richter  in ihrer Entscheidung unterstützt werden, ob und für wie lange eine Person ins Gefängnis muss oder ob sie auf Bewährung frei bleibt. Schwarze US-Amerikanerinnen und -Amerikaner wurden dabei systematisch benachteiligt und kamen im Gegensatz zu weißen häufiger hinter Gitter. Schuld ist die der KI zugrunde liegende historische Datenbasis von Straftaten, die ohne Einzelfallbetrachtung auf die Zukunft extrapoliert wurde.

Zudem gab es bereits Fälle von geschlechtsbedingter Ungleichbehandlung aufgrund einer KI-Anwendung – auch in der Medizin, betonte Dr. Alderman. So erwies sich ein Modell zur Vorhersage von akutem Nierenversagen als nicht generalisierbar: Es war nur bei Männern hilfreich, bei Frauen aber sehr ungenau. Den Algorithmus hatte man mit Infos zu US-Veteranen trainiert, die zu 94 % männlich sind.

Fortgesetzte Benachteiligung einzelner Personengruppen

Doch auch wenn man Daten aus dem allgemeinen Gesundheitswesen oder von Krankenversicherungen heranzieht, kann es zu unerwünschten Effekten kommen. Denn bestehende Ungleichheiten werden fortgeschrieben, erläuterte der Referent. Das zeigte sich z. B. bei der KI-gestützten Auswertung von Röntgenthoraxaufnahmen. Innerhalb von Bevölkerungsschichten mit schlechterem Zugang zum Gesundheitswesen, bei denen Erkrankungen ohnehin häufiger unerkannt bleiben, führte die Auswertung zu weniger Diagnosen und Überweisungen und somit zu einer systematischen Benachteiligung.

Regeln und Standards für KI-Anwendungen 

Ziel muss es sein, im klinischen Alltag nur sichere und effiziente Systeme einzusetzen. Sie dürfen niemanden benachteiligen und sollten zudem möglichst  nachhaltig sein. Erste Schritte dahin werden bereits unternommen:

  • Gesetzgeber schaffen entsprechende Rahmenbedingungen.
  • Internationale Standards für klinische Studien, in denen KI zum Einsatz kommt, werden angestrebt.
  • Algorithmen für Audits wurden entwickelt, um Fehlerquellen zu entdecken und zu verstehen.
  • Seit 2023 gibt es internationale Konsensusempfehlungen zur Generalisierbarkeit von KI-Anwendungen und -Datenbanken. 

Der Einsatz von KI kann zudem enorme Aufwände verursachen. In den USA hatte man in vielen Kliniken das Epic Sepsis Model (ESM) zur Vorhersage einer Sepsis implementiert. Die externe Validierung ergab allerdings, dass der Algorithmus kaum differenzierte: Jeder fünfte Patient sollte nach „Meinung“ der KI auf eine Sepsis hin untersucht werden – ein großer Aufwand, der zu einer regelrechten Alarmmüdigkeit (engl. alert fatigue) beim medizinischen Personal führte. Zwei Drittel der tatsächlichen Sepsisfälle wurden nicht bemerkt.

Studien zu KI-Anwendungen oft ohne externe Validierung

Als weiteren Aspekt führte der Referent an, dass in vielen Studien zu KI-gestützten klinischen Entscheidungen eine externe Validierung fehlt und ein Vergleich mit Entscheidungen aufgrund der Klinik nicht immer durchgeführt wird. Häufig sei auch die Berichtsqualität mangelhaft. Eine verlässliche Interpretation der Ergebnisse hält er daher für insgesamt schwierig.

Auch das Thema Nachhaltigkeit ist im Zusammenhang mit KI-Anwendungen problematisch, stellte Dr. Aldermann fest. So hat die Internationale Energieagentur errechnet, dass im Jahr 2022 Rechenzentren, Kryptowährungen und KI bereits 2 % des weltweiten Energieverbrauchs ausmachten. Es ist davon auszugehen, dass sich dieser Anteil bis 2026 verdoppeln wird.

Kosteneffektivität ist ein ein relevanter Punkt

Zudem sind KI-Anwendungen für Institutionen nicht umsonst zu haben. Die Implementierung und der laufende Betrieb verschlingen enorme Summen. „Möglicherweise ist die KI-gestützte klinische Entscheidung sogar teurer als das bisherige Vorgehen“, spekulierte Dr. Alderman. Deshalb müsse nachgewiesen werden, dass sie wesentlich bessere Ergebnisse bringt als die traditionellen Prozesse und Anschaffung und Unterhalt aufgrund der Kosteneffektivität zu rechtfertigen sind.

Am Ende seines Vortrags fasste er es noch einmal so zusammen: „Es ist unsere Aufgabe, bei der Einführung von KI-Anwendungen im Bereich der klinischen Entscheidungsfindung Patientinnen und Patienten zu schützen. Dazu müssen wir Technologien aufbauen, die bestmöglich auf die Bedürfnisse der Betroffenen abgestimmt sind.“

Quelle: Medical-Tribune-Bericht

Falls Sie diesen Medizin Cartoon gerne für Ihr nicht-kommerzielles Projekt oder Ihre Arzt-Homepage nutzen möchten, ist dies möglich: Bitte nennen Sie hierzu jeweils als Copyright den Namen des jeweiligen Cartoonisten, sowie die „MedTriX GmbH“ als Quelle und verlinken Sie zu unserer Seite https://www.medical-tribune.de oder direkt zum Cartoon auf dieser Seite. Bei weiteren Fragen, melden Sie sich gerne bei uns (Kontakt).


Haben die Ergebnisse von KI-gestützten Anwendungen einen Bias, liegt es oftmals an den Daten, mit denen sie trainiert wurden. Haben die Ergebnisse von KI-gestützten Anwendungen einen Bias, liegt es oftmals an den Daten, mit denen sie trainiert wurden. © Johannes–stock.adobe.com