Wann hafte ich? „Es darf kein blindes Vertrauen in KI geben“

Praxismanagement , Praxisführung Autor: Isabel Aulehla

Ob KI in einer Behandlung zum Einsatz kommt, entscheiden Ärztinnen und Ärzte. Ob KI in einer Behandlung zum Einsatz kommt, entscheiden Ärztinnen und Ärzte. © StockPhotoPro – stock.adobe.com

Systeme auf Basis von Künstlicher Intelligenz könnten rechtlich gesehen als Neulandmethode in der Behandlung eingesetzt werden. In manchen Bereichen entwickeln sie sich künftig vielleicht sogar zum Facharztstandard. Haftungsrechtlich gibt es aber einiges zu beachten.

In den kommenden Jahren wird die Nutzung von KI-Anwendungen ein fester Teil der ärztlichen Tätigkeit werden. Damit stellen sich neue rechtliche Fragen: Wer haftet, wenn durch den Einsatz von KI ein Schaden entsteht? Können Patientinnen und Patienten umgekehrt Schadensersatz fordern, wenn eine KI-Anwendung nicht genutzt wurde, obwohl sie in einem Gebiet gemäß Studienlage zuverlässiger arbeitet als Menschen? Auf diese Fragen antwortete die Rechtsreferendarin Dr. Anna Haftenberger beim Fortbildungsformat „DGIM Talk“ der Deutschen Gesellschaft für Innere Medizin.

Darf KI in einer Behandlung eingesetzt  werden?

Ob in einer Behandlung ein System auf Basis Künstlicher Intelligenz genutzt werden sollte, liege im Ermessensspielraum von Ärztinnen und Ärzten, betonte Dr. Haftenberger. Schließlich gelte Therapiefreiheit. Das wichtigste Kriterium in dieser Abwägung bleibe zwar der Facharztstandard, wie ihn etwa Leitlinien festhalten. Gleichzeitig regele das Bürgerliche Gesetzbuch aber, dass von diesem abgewichen werden dürfe, wenn etwas anderes vereinbart ist, z. B. der Einsatz von KI als Neulandmethode.

Welche Pflichten gehen mit der Nutzung einher?

Vor dem Einsatz entsprechender Anwendungen sind laut der Rechtsreferendarin besondere Pflichten einzuhalten. „Wie bei anderen Medizinprodukten auch muss man sich natürlich über das System Kenntnis verschaffen“, erklärte sie. Wie umfassend dies zu erfolgen habe, werde sich in der kommenden Rechtsprechung herauskristallisieren. Die Expertin geht davon aus, dass Ärztinnen und Ärzte  zwar nicht jedes technische Detail werden kennen müssen, mindestens aber die medizinischen Hintergründe, z. B. den Anwendungsbereich der KI, ihre Grenzen und auf welcher Basis der Wissensstand beruht. Außerdem seien die Systeme regelmäßig zu überprüfen, der Input sorgfältig auszuwählen und die Ergebnisse kritisch zu hinterfragen. 

Davon abgesehen gelte es, sich die Risiken bewusst zu machen: Lernt das System kontinuierlich weiter, kann es sich also verbessern oder verschlechtern? Wie steht es um den Datenschutz und die Cybersicherheit? Wie transparent oder intransparent ist die Entscheidungsfindung des Systems für Außenstehende? Vollständig durchschaubar seien viele KI nicht mal mehr für Programmierende selbst, merkte Dr. Haftenberger an. Darin sieht sie jedoch kein Argument gegen die Nutzung.

Was ist bei der Aufklärung zu beachten?

Ob Patientinnen und Patienten über den KI-Einsatz aufgeklärt werden müssen, hängt laut der Rechtsreferendarin davon ab, ob die jeweilige Anwendung eine Neulandmethode darstellt oder bereits den Facharztstandard widerspiegelt. Im ersten Fall sei die Aufklärung über Alternativen und Risiken in jedem Fall verpflichtend, in letzterem herrsche rechtlich noch Unklarheit. „Empfehlenswert ist es“, so Dr. Haftenberger. Gewiss sei hingegen, dass die Aufklärung weiterhin im persönlichen Gespräch erfolgen muss und nicht von einer KI übernommen werden darf.

Wie weit müssen Menschen eine KI beaufsichtigen?

Die KI-Verordnung der EU, die seit August gilt, stuft Medizinprodukte als „Hochrisikosysteme“ ein. Praxen und Kliniken seien demnach „Betreiber“, wenn sie die Systeme in eigener Verantwortung verwenden, resümierte Dr. Haftenberger. In den kommenden Jahren würden nach und nach einzelne Bestimmungen der Verordnung verbindlich, kündigte die Juristin an. Die Einrichtungen müssen dann unter anderem sicherstellen, dass ihr Personal über ausreichende Kompetenz im Umgang mit den Anwendungen verfügt. Außerdem sei eine menschliche Aufsicht über die Entscheidungen der KI vorgesehen, ein „human in the loop“. Rechtlich sei dies nicht überraschend, schließlich dürfe der Kern ärztlicher Arbeit  auch bislang nicht delegiert werden, erinnerte die Expertin. 

In der Praxis sei die menschliche Aufsicht allerdings zeitraubend und nur bedingt umsetzbar, wandte der Moderator der Veranstaltung ein, Prof. Dr. Martin Hirsch, Leiter des Instituts für KI in der Medizin der Philipps-Universität Marburg. Immerhin werde KI künftig in Gebieten eingesetzt, auf denen es Evidenz dafür gebe, dass sie besser arbeitet als Menschen, z. B. in der Melanomerkennung. Damit eine KI also trotz des Kontrollaufwands eine echte Erleichterung darstelle, müsse sie schon sehr gute Ergebnisse erzielen, sind sich die beiden Experten einig.

Ist eine Haftung für Fehler der KI oder den Nicht-Einsatz von KI denkbar?

Es wäre vorstellbar, dass Patientinnen und Patienten ein Schaden entsteht, weil Ärztinnen und Ärzte bei einer Behandlung zwar alles richtig gemacht haben, der KI aber Fehler unterliefen. 

Auch in solch einem Szenario liege die Verantwortung für die Therapie bei den Behandelnden, betont Dr. Haftenberger. Sie dürften niemals blind in eine KI vertrauen. „Eine pauschale Verantwortungsverschiebung zum Medizinproduktehersteller wird es nicht geben.“ Ob Ärztinnen und Ärzte haften müssen, werde letztlich davon abhängen, ob sie die Sorgfaltspflichten eingehalten haben und den Fehler hätten erkennen und eingreifen können.

Eine ärztliche Haftung im Fall, dass keine KI-Anwendung genutzt wurde, obwohl es eine gegeben hätte, sei höchstens dann denkbar, wenn die Verwendung bereits medizinischer Standard sei. Aber selbst dann sei keine Pauschalisierung möglich, da weiter Therapiefreiheit bestehe. „Ärztinnen und Ärzte bleiben die Herrinnen und Herren der Behandlung“, fasste Dr. Haftenberger zusammen.

Fazit

Insgesamt hält Dr. Haftenberger es für „beruhigend“, dass das etablierte Haftungsrecht auf KI-Anwendungen übertragbar ist, auch wenn in einigen Punkten aufgrund fehlender Urteile noch keine vollständige Rechtssicherheit bestehe. Die Rechtslage könnte sich allerdings deutlich verschärfen, wenn die EU ihre geplante KI-Haftungsrichtlinie umsetzt. Diese wurde 2022 vorgeschlagen, inzwischen sei das Gesetzgebungsverfahren jedoch zum Stillstand gekommen, berichtete die Expertin. Ob die Verordnung komme, sei derzeit nicht absehbar.

Quelle: DGIM Talk – KI in Wissensvermittlung und Arbeitsalltag