Öffentliche Anhörung

Ethikrat: Vier verschiedene Sichtweisen von KI-Forschern

Wie soll Deutschland mit KI im medizinischen Kontext und anderen Szenarien umgehen? Der Ethikrat ist auf Positionssuche. Deswegen hat er vier KI-Forscher angehört. Eine Übersicht über ihre Standpunkte.

Matthias WallenfelsVon Matthias Wallenfels Veröffentlicht:
Diagnostik: Auf Basis welcher Algorithmen entscheidet die KI? Dies könnte für den Ethikrat eine zentrale Frage sein.

Diagnostik: Auf Basis welcher Algorithmen entscheidet die KI? Dies könnte für den Ethikrat eine zentrale Frage sein.

© PhonlamaiPhoto / Getty Images / iStock

Berlin. Was Patienten mit Locked-in-Syndrom, Demenz oder Parkinson durch den Einsatz Künstlicher Intelligenz (KI) helfen kann, kann aber auch die Steilvorlage zum datenschutzrechtlich bedenklichen Machtmissbrauch durch kommerzgetriebene, vor allem US-amerikanische Anbieter dienen, so das Fazit der öffentlichen Anhörung des Deutschen Ethikrates vom Donnerstag zum Thema „KI und Mensch-Maschine-Schnittstellen“.

Die Arbeitsgruppe Mensch und Maschine des Deutschen Ethikrates beschäftigt sich derzeit mit den gesellschaftlichen Auswirkungen der Digitalisierung und den damit verbundenen ethischen Fragen des Verhältnisses von Mensch und Maschine. Im Mittelpunkt stehen Entwicklungen auf dem Gebiet der KI und die immer stärkere Durchdringung aller Lebensbereiche mit digitalen Technologien.

Vier Sachverständige angehört

Im Rahmen der öffentlichen Anhörung hat der Ethikrat vier Sachverständige um Stellungnahmen gebeten, die sich mit der Entwicklung algorithmischer Systeme, maschinellem Lernen und möglichen Schnittstellen und Interaktionen zwischen Menschen und komplexen Maschinen beschäftigen. Dabei äußerten sie sich zum aktuellen Stand und zu absehbaren Entwicklungen ihrer Forschung.

Die Professorin für Theorie des Maschinellen Lernens (ML) spricht KI jede Form der menschlichen Intelligenz ab. Diese sei nicht erkennbar und auch in Zukunft nicht erwartbar. ML sei lediglich das Ergebnis eines programmierten, menschengesteuerten Lernens – mit dem Nebeneffekt des Bias, des Verzerrens durch die Art der Algorithmenmodellierung. Das Dilemma aus ihrer Sicht: KI könne Ärzte dabei unterstützen, Hautkrebs zu detektieren, aber auch Regierungen dabei helfen, autonome Waffensysteme gezielt gegen definierte Gegner einzusetzen – auch ohne demokratische Legitimation. Das Kernproblem sieht von Luxburg in der Erklärbarkeit: Auch für Ärzte könne die Entscheidung eines KI-Tools im Hinblick auf eine Hautkrebs-Diagnostik nicht nachvollziehbar sein – und zwar dann, wenn die Algorithmen nicht transparent seien.

Von Luxburg plädiert mit Blick auf die legislative Ebene für eine klare Regulierung im Hinblick auf die rechtlichen Leitplanken für ein wissenschaftliches und auch wirtschaftliches Engagement in puncto KI. Auf der wissenschaftlichen Ebene fordert sie Transparenz dahingehend ein, dass nachvollziehbar sei, ob alle Akteure im Rahmen des konsentierten demokratischen Verständnisses ihrer Forschung nachkämen. Auch für Wirtschaftsakteure in Europa fordert sie mehr diesbezügliche Kontrolle. Ihre Warnung an die Politik: „Jeder, der Informatik studiert hat, kann mittels Maschinellen Lernens manipulieren.“

Der Professor in Computational Neuroscience and Machine Learning erinnert daran, dass seit Beginn der industriellen Revolution durch die zunehmende Automatisierung ein enormer Produktivitätszuwachs erreicht werden konnte. Diese Automatisierung habe aber eine massive Umstellung der Arbeitsprozesse erfordert, zum Beispiel in Form von Fließbandarbeit oder dem Großmaschineneinsatz in der Landwirtschaft mit vielfältigen negativen Konsequenzen für Mensch, Natur und Umwelt. Der Grund dafür liege in der sehr begrenzten Fähigkeit der klassischen regelbasierten KI- und Automatisierungstechnik, sich an eine variable Umwelt anzupassen.

Das letzte Jahrzehnt sei vom Siegeszug des maschinellen Lernens gekennzeichnet gewesen. Auch wenn die lernende KI weit davon entfernt sei, ausgereift zu sein, nehme der Grad an Flexibilität und Robustheit kontinuierlich zu. Ein entscheidendes Ziel nachhaltiger, menschenzentrierter KI-Forschung sollte daher sein, auf Basis des maschinellen Lernens eine Trendwende zu schaffen, damit sich in Zukunft Maschinen an die Bedürfnisse von Mensch, Natur und Umwelt anpassen und nicht umgekehrt, so Bethges Plädoyer.

Der Geschäftsführende Direktor des Leibniz Instituts für Neurobiologie und Professor für molekulare und zelluläre Neurobiologie an der Otto von-Guericke-Universität Magdeburg, warnt vor zu vielen Heilsversprechen, die derzeit vor allem von Unternehmensseite gemacht würden. Diese reichten von durch KI-Tools zu leistenden Erleichterungen für Patienten mit Blindheit, Taubheit, Lähmungen, Angststörungen, Depressionen oder neurodegenerativen Erkrankungen bis zur Anwendung zur Expansion kognitiver Ressourcen, zur Verhaltensmodulation und als digitale Kommunikationsschnittstelle. Hierfür fehlten noch neurobiologische Erkenntnisse über die Kommunikation von Nervenzellen im menschlichen Gehirn und neuronale Plastizität, was durch den Einsatz von KI-basierten Methoden kompensiert werden solle.

Die Professorin für Kognitive Systeme im Fachbereich Mathematik und Informatik an der Universität Bremen und Direktorin des Cognitive Systems Laboratory arbeitet an der Schnittstelle zwischen Informatik und Medizin. Die Entwicklung autonomer, intelligenter technischer Systeme, kurz Kognitive Systeme genannt, verlaufe rasant. Durch das Zusammenspiel von Maschinellen Lernverfahren, Big Data und Super Computing erreichten sie in Spezialgebieten bereits Human Parity – also seien sie auf Augenhöhe mit dem Menschen.

Von zukünftigen Kognitiven Systemen werde erwartet, dass sie das individuelle Wohlbefinden ihrer Nutzer steigern und Aufgaben des täglichen Lebens übernehmen. Hier tue sich das ethisch aufgeladene Spannungsfeld zwischen der Hilfe für zum Beispiel Patienten mit Locked-in-Syndrom oder auch Demenz und des Human Enhancement auf. Gehe es bei Ersterem um die technische Assistenz der Patienten dergestalt, dass die KI als Transformator diene, Willensäußerungen zu transkribieren/verlautbaren, stehe bei Letzterem das ethisch fragwürdige Menschen-Tuning auf der Tagesordnung.

Wie Schultz betont, sei KI schon längst im Alltag der Menschen angelangt – zur Akquise persönlicher Daten ausnutzen. Dabei würden Menschen rund um die Uhr mit vernetzten Sensoren vermessen: Zu Hause stehen Kamera und Mikrofon, für unterwegs wird das Handgelenk zum Datenhub, ausgestattet mit Inertialsensoren und Elektroden. „Der Trend geht unter die Haut, denn neuartige Sensoren und Chips könnten injiziert oder implantiert werden. Eine differenzierte Auseinandersetzung mit individuellen, gesellschaftlichen und politischen Konsequenzen, die durch die Nutzung derartiger Systeme entstehen, ist von gewinnorientierten IT-Firmen und Überwachungsstaaten nicht zu erwarten“, so Schultz. Vielmehr sollten demokratische Regierungen durch öffentlich geförderte Programme eine kritische Erforschung und Entwicklung von Kognitiven Systemen unterstützen, die Grundrechte respektieren, Nutzer befähigen, ihre Daten zu kontrollieren, Transparenz und Erklärbarkeit der Algorithmen als Open Source umsetzen sowie bestmöglich vor potenziellem Missbrauch und Risiken schützen, fordert sie.

Jetzt abonnieren
Ihr Newsletter zum Thema
Mehr zum Thema

Arztrecht

Bekannter Arzt und Medizinrechtler gründet neue Kanzlei

Arztausbildung

Medizinstudium: Hoffnungsträger KI

Das könnte Sie auch interessieren
Ein Roboter, der Akten wälzt? Künstliche Intelligenz kann bereits mit Leitlinien umgehen – jedenfalls wenn sie so gut strukturiert sind wie die der DEGAM.

© Iaroslav / stock.adobe.com

Digitalisierung in der Medizin

Kollegin Dr. ChatGPT? Wie Künstliche Intelligenz Ärzten helfen könnte

Digital und innovativ: Klinikum Siegen überzeugt von Fluency Direct

© Solventum Germany GmbH

Solventum Spracherkennung

Digital und innovativ: Klinikum Siegen überzeugt von Fluency Direct

Anzeige | 3M Healthcare Germany GmbH
Wie patientenzentriert ist unser Gesundheitssystem?

© Janssen-Cilag GmbH

Video

Wie patientenzentriert ist unser Gesundheitssystem?

Kooperation | In Kooperation mit: Janssen-Cilag GmbH
Höhen- oder Sturzflug?

© oatawa / stock.adobe.com

Zukunft Gesundheitswesen

Höhen- oder Sturzflug?

Kooperation | In Kooperation mit: Janssen-Cilag GmbH
Patientenzentrierte Versorgung dank ePA & Co?

© MQ-Illustrations / stock.adobe.com

Digitalisierung

Patientenzentrierte Versorgung dank ePA & Co?

Kooperation | In Kooperation mit: Janssen-Cilag GmbH
Kommentare
Sonderberichte zum Thema
KI-Einsatz mit Robotern im Krankenhaus oder in der ambulanten Pflege? In Deutschland noch schwer vorstellbar. Aber vielleicht ist das dieZukunft. Ein Feld auch für die Geldanlage.

© sirisakboakaew / stock.adobe.com

Interview zum Thema Geldanlage

KI für Anleger: „Ich sollte verstehen, in was ich investiere“

Sonderbericht | Mit freundlicher Unterstützung von: Deutscher Apotheker- und Ärztebank
Vorteile des Logins

Über unser kostenloses Login erhalten Ärzte und Ärztinnen sowie andere Mitarbeiter der Gesundheitsbranche Zugriff auf mehr Hintergründe, Interviews und Praxis-Tipps.

Haben Sie schon unsere Newsletter abonniert?

Von Diabetologie bis E-Health: Unsere praxisrelevanten Themen-Newsletter.

Das war der Tag: Der tägliche Nachrichtenüberblick mit den neuesten Infos aus Gesundheitspolitik, Medizin, Beruf und Praxis-/Klinikalltag.

Eil-Meldungen: Erhalten Sie die wichtigsten Nachrichten direkt zugestellt!

Newsletter bestellen »

Top-Meldungen

REDUCE-AMI und ABYSS

Betablocker nach Herzinfarkt – so steht es um die Evidenz

Parallelen zum Leistungssport

Höhere Anspannung vor der Operation führt offenbar zu besserem Ergebnis

Lesetipps
Personen greifen nach einer Angel mit Geldscheinen.

© mitay20 / stock.adobe.com

FAQ zum Zuschuss für angehende Ärzte

Weiterbildung: So kommen Sie an die Facharzt-Förderung

Die Ärzte Zeitung hat jetzt auch einen WhatsApp-Kanal.

© prima91 / stock.adobe.com

News per Messenger

Neu: WhatsApp-Kanal der Ärzte Zeitung