Unterstützung klinischer Entscheidungen
Zentrale Ethikkommission der BÄK setzt enge Grenzen für KI
Die rote Linie beim Einsatz auf KI basierender Entscheidungsfindungssysteme ist für die Zentrale Ethikkommission der BÄK das Systemvertrauen.
Veröffentlicht:
Künstliche Intelligenz kann Ärzte in der klinischen Entscheidungsfindung sinnvoll unterstützen, findet die Zentrale Ethikkommission der Bundesärztekammer. Dabei müssten die Ärzte Chancen und Risiken genauso im Blick haben wie die Patientenbelange, mahnt sie.
© greenbutterfly / stock.adobe.com
Berlin. Ob als Unterstützung zum Definieren einer optimierten Schmerztherapie bei Krebspatienten oder zum verbesserten Blutzuckermanagement bei Diabetikern, IT-basierte Systeme zur klinischen Entscheidungsfindung – Clinical Decision Support Systems (CDSS) – sind auf dem Vormarsch im medizinischen und pflegerischen Versorgungsalltag. Der gerade erst richtig aufblühende Trend zum Einsatz Künstlicher Intelligenz (KI) zur Entlastung und Unterstützung von zum Beispiel Ärzten im Behandlungsalltag verspricht noch viel Potenzial in puncto CDSS.
Die Bundesärztekammer (BÄK) unterstreicht den Bedarf an CDSS, damit „dem behandelnden Arzt jederzeit zielgerichtet aktuelles medizinisches Wissen zugänglich“ gemacht wird. Gleichwohl sind die Rahmenbedingungen des Einsatzes dieser neuen Technologien dynamisch und ist der Einsatz mit ethischen, rechtlichen und sozialen Herausforderungen verknüpft.
„ÄrzteTag“-Podcast
Warum Ärzte das Problem verzerrter Daten kennen sollten
Daher hat die Zentrale Ethikkommission (ZEKO) bei der BÄK eine Stellungnahme zur „Entscheidungsunterstützung ärztlicher Tätigkeit durch Künstliche Intelligenz“ erarbeitet. Die ZEKO gibt ein Bekenntnis zum Einsatz KI-basierter CDSS ab, die vielfältige Möglichkeiten der Verbesserung der Patientenversorgung böten. Dies sei „aber auch mit verschiedenen Herausforderungen verbunden, die etwa die klare Zuschreibung von Verantwortlichkeiten, die Transparenz der Datengenerierung, den Schutz von Autonomie,
Vertrauen und Privatheit sowie die Qualität der Kommunikation zwischen Ärzten und Patienten betreffen. Vor diesem Hintergrund stellt eine frühzeitige und ausgewogene Abwägung von Chancen und Risiken eine wichtige ethische Aufgabe im Hinblick auf die Gesundheitsversorgung der Zukunft dar. Dies kann nur gelingen, wenn aus dem neuen Mensch-Maschine-Bezug resultierende moralische Herausforderungen ernst genommen werden“, heißt es in der Stellungnahme.
Mindestens gleiche, idealerweise bessere Versorgung
Als Conditio sine qua non für den ärztlichen Einsatz KI-basierter CDSS am Patienten postuliert die ZEKO, dass Ärzte wie auch Patienten darauf vertrauen können müssten, dass durch deren – korrekten – Einsatz „eine mindestens gleiche, idealerweise bessere Versorgung möglich wird.“ Patienten müssten zudem darauf vertrauen können, dass sie – weiterhin – als Person, ihr Wohl und selbstbestimmter Wille im Zentrum der Versorgung stünden und sie nicht den Eindruck bekämen, auf ihre Daten reduziert zu werden.
Eine weitere rote Linie für die ZEKO: „Ebenso sind sie darauf angewiesen, alle für sie relevanten Informationen für eine nicht nur rechtswirksame, sondern tatsächlich autonome Einwilligung in bestimmte Behandlungsvorschläge zu erhalten.“ Wo dies nicht der Fall sei, drohe eine Erosion des für die Erbringung medizinischer Leistungen unabdingbaren Systemvertrauens. Dieses Systemvertrauen zu bewahren, ist, wie die ZEKO unmissverständlich betont, eine Aufgabe der Ärzteschaft – auch dort, wo Ärzte bei Fehlentwicklungen durch den Einsatz von CDSS als Fürsprecher für ihre Patienten aufträten. Zentrale ethische Fragen beträfen auch mögliche Ansprüche von Patienten, ohne den Einsatz von KI behandelt zu werden, so die ZEKO.