Skeptische Wissenschaftler

Der Nutzen der Künstlichen Intelligenz – und ihre Nebenwirkungen

Der Nutzen von Künstlicher Intelligenz sei nicht so groß wie er erscheine, meinen einige Wissenschaftler. Was sie monieren, adressiert die Forschung bereits – wird jedoch noch nicht umgesetzt.

Dr. Thomas MeißnerVon Dr. Thomas Meißner Veröffentlicht:
Symbolbild: Humanoider Roboter ruft digitale künstliche Intelligenz aus einem 3D-Hologramm ab.

Ein humanoider Roboter ruft digitale künstliche Intelligenz aus einem 3D-Hologramm ab. (Symbolbild)

© sdecoret / stock.adobe.com

Toronto. Können wir Künstlicher Intelligenz (KI) vertrauen, zum Beispiel, aber nicht nur, in der Medizin? Sind die Software-basierten Algorithmen nicht eine Blackbox, die Ergebnisse ausspuckt, deren Ursprünge für die Nutzer undurchschaubar bleiben, etwa in der bildgebenden Diagnostik oder bei der Analyse multipler medizinischer Befunde? Wer trägt die Verantwortung, wenn am Ende etwas schief geht?

Der gegenwärtige KI-Enthusiasmus sei übertrieben, meinen nordamerikanische Wissenschaftler um Dr. Boris Babic von der University of Toronto in Kanada in der aktuellen Ausgabe des Magazins „Science“. Es sei erforderlich, mögliche Nachteile näher zu beleuchten (Science 2021; 373: 284-286).

Sie fordern die Entwicklung von Methoden, mit denen Blackbox-Entscheidungen nachvollziehbar gemacht werden, bezweifeln jedoch zugleich, dass dies ausreichend möglich sei. Die Folge könnte sein, dass KI in der Hand unzureichend qualifizierter Nutzer ein falsches Sicherheitsgefühl erzeugen und damit letztlich zu Schäden führen würde.

Babic und Koautoren kritisieren vor diesem Hintergrund die aus ihrer Sicht zu laschen Zulassungsprozesse für KI-basierte medizinische Systeme durch die US-Behörde FDA.

Verständnis für Möglichkeiten

„Für eine Patientin kann der Kopf ihres Arztes zunächst genauso eine Blackbox darstellen wie eine Maschine“, hält der Potsdamer Professor für Medizinische Ethik, Dr. Robert Ranisch, dem entgegen. „Wir müssen auch nicht unbedingt erklären können, warum Flugzeuge fliegen“, heißt es in einer vom Science Media Center Germany (SMC) verbreiteten Stellungnahme. Allerdings hält Ranisch es für nötig, ein breiteres Verständnis für Möglichkeiten und Limitationen von KI in der Medizin zu schaffen.

Nachträglich Erklärungen für Blackbox-Klassifikatoren zu schaffen, sei nicht sinnvoll, meint Professorin Ute Schmid vom Fraunhofer-Institut für Integrierte Schaltungen in Erlangen. Mit der Universität Bamberg entwickle man bereits seit Jahren Ansätze des maschinellen Lernens für die bildgebende Diagnostik, bei denen „induktives logisches Programmieren (ILP)“, eingesetzt wird.

Für eine Patientin kann der Kopf ihres Arztes zunächst genauso eine Blackbox darstellen, wie eine Maschine.

Professor Robert Ranisch, Professor für Medizinische Ethik mit Schwerpunkt auf Digitalisierung Universität Potsdam

Das gehe über das hinaus, was in „Science“ diskutiert werde: Interpretierbare Befunde werden im Lernprozess mit Erklärungen kombiniert. „Beispielsweise kann visuelles Hervorheben von Bereichen in einem Bild mit sprachlichen Erklärungen kombiniert werden, um zu zeigen, wo sich Tumorgewebe befindet.“

Zusätzlich werde angegeben, aufgrund welcher Parameter wie zum Beispiel Größe, Lage und Form des Gewebeareals das KI-System eine bestimmte Tumorklasse identifiziert hat, so Schmid. Gelernte Modelle könnten nie vollständig korrekt sein. „Experten müssen in der Lage sein, Entscheidungen zu korrigieren.“

Angst vor Kontrollverlust

Und der ehemalige Vorsitzende des Deutschen Ethikrats, Professor Peter Dabrock, meint: „Egal wie der Algorithmus entschieden hat, ein Mensch muss die Entscheidung rechtfertigen können.“ Wo dies nicht möglich sei, verdienten KI-Systeme auch kein Vertrauen. Dabrock warnt davor, Algorithmen abstrakt zu betrachten. Sie müssten eingebunden in sozio-technische Systeme bewertet werden.

Hinter der Diskussion um KI in der Medizin wie auch in anderen gesellschaftlichen Bereichen steckt – oft unausgesprochen – die Angst vor Kontrollverlust. Babic und Kollegen sind nicht die ersten, die Transparenz- und Nachvollziehbarkeitsforderungen stellen. Transparenz heißt, die Frage zu beantworten, wie Entscheidungen getroffen werden. Nachvollziehbarkeit bedeutet, dass unabhängige Experten Resultate und das Verhalten von Entscheidungssystemen eigenständig untersuchen können.

Egal wie der Algorithmus entschieden hat, ein Mensch muss die Entscheidung rechtfertigen können.

Professor Peter Dabrock, Professor für Systematische Theologie mit Schwerpunkt Ethik an der Friedrich-Alexander-Universität Erlangen-Nürnberg.

Die Informatikerin Professorin Katharina Zweig von der TU Kaiserslautern beschreibt in ihrem populärwissenschaftlichen Buch „Ein Algorithmus hat kein Taktgefühl“ (Heyne 2019) fünf Regulierungsstufen, die anhand des Schadenspotenzials eines algorithmischen Entscheidungssystems eingesetzt werden könnten.

Diese Stufen bieten die Möglichkeit, vom System getroffene Entscheidungen infrage zu stellen und zu verändern. Bewertet werden separat der individuelle Schaden sowie der gesamtgesellschaftliche Schaden. Dabei geht es um allgemeine Forderungen für KI-Systeme, nicht nur solche für medizinische Anwendungen.

Gesellschaftliche Nebenwirkungen

Alle algorithmischen Systeme ohne Schadenspotenzial kommen in Klasse 0. Bereits ab Klasse 1 fordert Zweig Schnittstellen, die Nachvollziehbarkeitsanalysen erlauben. „Zudem sollte die Gesellschaft informiert werden über das Qualitätsmaß, mit dem das System trainiert wurde und welche Methode des maschinellen Lernens verwendet wurde“, heißt es in dem Buch.

Ab Klasse 2 seien genaue Kenntnis der Art der Inputdaten zu fordern (Transparenz) sowie eine Qualitätsbewertung vorzunehmen (Nachvollziehbarkeit). Für Klasse 3 sind die Anforderungen noch einmal schärfer und Klasse-4-Systeme seien rechtlich oder technisch nicht durchsetzbar, sodass „sie nicht existieren sollten.“ Diese differenzierten Forderungen sollen unter anderem auch dazu beitragen, „nicht jede Idee gleich im Keim zu ersticken“.

Ähnlich wie Dabrock betont Zweig die Bedeutung der Interaktion zwischen digitalem System, Individuen, Institutionen und Gesellschaft. Dies ist mit „sozio-technischem System“ gemeint. Für KI-Entwickler ist das tatsächlich eine neue Perspektive: Ging es bislang bei der Software-Entwicklung hauptsächlich darum, bestimmte Nutzer-Anforderungen zu erfüllen, sollen sich KI-Systeme heute in einen rechtlichen, ethischen und sozialen Kontext einbetten lassen. Dafür gibt es sogar bereits ein neues Berufsbild, nämlich das der Sozioinformatikerin – gefragt immer dann, wenn es um gesellschaftliche Nebenwirkungen von Algorithmen geht.

Ihr Newsletter zum Thema
Mehr zum Thema
Das könnte Sie auch interessieren
Ein Roboter, der Akten wälzt? Künstliche Intelligenz kann bereits mit Leitlinien umgehen – jedenfalls wenn sie so gut strukturiert sind wie die der DEGAM.

© Iaroslav / stock.adobe.com

Digitalisierung in der Medizin

Kollegin Dr. ChatGPT? Wie Künstliche Intelligenz Ärzten helfen könnte

Digital und innovativ: Klinikum Siegen überzeugt von Fluency Direct

© Solventum Germany GmbH

Solventum Spracherkennung

Digital und innovativ: Klinikum Siegen überzeugt von Fluency Direct

Anzeige | 3M Healthcare Germany GmbH
Wie patientenzentriert ist unser Gesundheitssystem?

© Janssen-Cilag GmbH

Video

Wie patientenzentriert ist unser Gesundheitssystem?

Kooperation | In Kooperation mit: Janssen-Cilag GmbH
Höhen- oder Sturzflug?

© oatawa / stock.adobe.com

Zukunft Gesundheitswesen

Höhen- oder Sturzflug?

Kooperation | In Kooperation mit: Janssen-Cilag GmbH
Patientenzentrierte Versorgung dank ePA & Co?

© MQ-Illustrations / stock.adobe.com

Digitalisierung

Patientenzentrierte Versorgung dank ePA & Co?

Kooperation | In Kooperation mit: Janssen-Cilag GmbH
Kommentare
Carl Billmann, Leiter der Stabsstelle IT, Marketing & Kommunikation bei BillmaMED, Medizinstudent mit dem Berufsziel Dermatologe.

© Doctolib

Interview

„Am Empfang haben wir Stress rausgenommen“

Sonderbericht | Mit freundlicher Unterstützung von: Doctolib GmbH
Die Patientin tippt ihre Nachricht ins Smartphone, das Praxisteam antwortet direkt über
den Desktop. So sind Vereinbarungen über ein E-Rezept oder eine Befundmitteilung vom Facharzt schnell übermittelt.

© [M] Springer Medizin Verlag | Foto: A_B_C / stock.adobe .com

Digitale Patientenkommunikation

„Das Potenzial für die Zeitersparnis ist riesig“

Sonderbericht | Mit freundlicher Unterstützung von: Doctolib GmbH
KI-Einsatz mit Robotern im Krankenhaus oder in der ambulanten Pflege? In Deutschland noch schwer vorstellbar. Aber vielleicht ist das dieZukunft. Ein Feld auch für die Geldanlage.

© sirisakboakaew / stock.adobe.com

Interview zum Thema Geldanlage

KI für Anleger: „Ich sollte verstehen, in was ich investiere“

Sonderbericht | Mit freundlicher Unterstützung von: Deutscher Apotheker- und Ärztebank
Vorteile des Logins

Über unser kostenloses Login erhalten Ärzte und Ärztinnen sowie andere Mitarbeiter der Gesundheitsbranche Zugriff auf mehr Hintergründe, Interviews und Praxis-Tipps.

Haben Sie schon unsere Newsletter abonniert?

Von Diabetologie bis E-Health: Unsere praxisrelevanten Themen-Newsletter.

Das war der Tag: Der tägliche Nachrichtenüberblick mit den neuesten Infos aus Gesundheitspolitik, Medizin, Beruf und Praxis-/Klinikalltag.

Eil-Meldungen: Erhalten Sie die wichtigsten Nachrichten direkt zugestellt!

Newsletter bestellen »

Top-Meldungen

Erhöhtes Thromboserisiko

Fallbericht: Lungenembolie bei einem Hobby-Bergsteiger

Lesetipps
Ein Mettbrötchen

© juefraphoto / stock.adobe.com

Tödlicher Einzeller im Hirn

Fallbericht: Amöbenenzephalitis nach Verzehr von rohem Fleisch?

Ärztin misst bei einer Patientin den Blutdruck

© goodluz / stock.adobe.com

Unter 120 mmHg

Striktere Blutdruckkontrolle bei Diabetes wohl doch sinnvoll