Rassistisch und diskriminierend Inadäquate Datengrundlage von KI kann zu Fehleinschätzungen und Verzerrungen führen

Medizin und Markt Autor: Friederike Klein

Haben die Ergebnisse von KI-gestützten Anwendungen einen Bias, liegt es oftmals an den Daten, mit denen sie trainiert wurden. Haben die Ergebnisse von KI-gestützten Anwendungen einen Bias, liegt es oftmals an den Daten, mit denen sie trainiert wurden. © Johannes–stock.adobe.com

Angesichts des Tempos, mit dem neue KI-basierte Anwendungen in der Medizin entstehen, scheint Skepsis angebracht. Bislang kann Künstliche Intelligenz klinische Entscheidungen im besten Fall unterstützen, aber die fachkundige Abwägung durch Ärztinnen und Ärzte nicht ersetzen.

Künstliche Intelligenz (KI) wird schon heute in den verschiedensten Bereichen eingesetzt. Auf das, was am Ende herauskommt, kann man sich jedoch nicht immer blind verlassen. So haben KI-Anwendungen teils sogar negative Effekte, berichtete Dr. Joseph Alderman, KI-Forscher von der University of Birmingham. Eine KI in den USA sagte z. B. anhand des Profils von Angeklagten und gelernten Risikofaktoren voraus, wie hoch die Wahrscheinlichkeit für eine erneute Straftat ist. Damit sollten Richterinnen und Richter  in ihrer Entscheidung unterstützt werden, ob und für wie lange eine Person ins Gefängnis muss oder ob sie auf Bewährung frei bleibt. Schwarze US-Amerikanerinnen und -Amerikaner wurden…

Liebe Leserin, lieber Leser, aus rechtlichen Gründen ist der Beitrag, den Sie aufrufen möchten, nur für medizinische Fachkreise zugänglich. Wenn Sie diesen Fachkreisen angehören (Ärzte, Apotheker, Medizinstudenten, medizinisches Fachpersonal, Mitarbeiter der pharmazeutischen oder medizintechnischen Industrie, Fachjournalisten), loggen Sie sich bitte ein oder registrieren sich auf unserer Seite. Der Zugang ist kostenlos.

Bei Fragen zur Anmeldung senden Sie bitte eine Mail an online@medical-tribune.de.