Rote Linien ziehen

Was soll Künstliche Intelligenz dürfen?

Die Überlegenheit maschinellen "Denkens" kann für den Menschen sehr nützlich sein. Den Ethikrat treibt die Frage um, welche Rolle das wolkige Konstrukt der Menschenwürde künftig dabei spielen soll.

Helmut LaschetVon Helmut Laschet Veröffentlicht:
Was macht den Menschen aus und was unterscheidet ihn von einem Computer mit menschlichen Fähigkeiten?

Was macht den Menschen aus und was unterscheidet ihn von einem Computer mit menschlichen Fähigkeiten?

© mennovandijk / Getty Images / iStock

Zum Abschluss einer zweitägigen Konferenz des Deutschen Ethikrats wurde David Archard, Vorsitzender des britischen Nuffield Council on Bioethics, philosophisch. Das Schwierigste sei, einen Anfang zu machen, denn der beginne nicht in einer philosophischen Idealwelt, sondern in einer unvollkommenen Wirklichkeit, sagte er.

Archard erzählte dazu einen irischen Witz: "Ein Fremder hat sich verirrt und fragt einen möglicherweise ortskundigen Bauern, wie er denn nach Plummesgate komme. Der Bauer antwortet nach kurzem Überlegen: ,Hm, dann würde ich hier nicht starten."

Zwei Tage mühte sich der Ethikrat um die Auseinandersetzung mit Eingriffen in das Gehirn, in das Genom und Entwicklungen im Bereich der Künstlichen Intelligenz (KI). Und schon der Ausgangspunkt zur Bewertung dieser neuen Technologien, die Menschenwürde, ist ein höchst umstrittenes, schwammiges, interpretierbares und auch missbrauchbares Konzept. Artikel 1 Satz 1 des Grundgesetzes hin und her.

Die österreichische Verfassung, so Christiana Druml von der Bioethikkommission des Wiener Bundeskanzleramtes, kenne das Prinzip der Menschenwürde gar nicht. Es sei ein schwieriger Begriff, der auch inflationär angeführt werde, um Ablehnung deutlich zu machen.

Rote Linien für neue Technologien

In der Schweiz wiederum ist die Menschenwürde in der Verfassung verankert, bleibe aber definitorisch unscharf, so Andrea Bühler von der Nationalen Ethikkommission im Bereich Humanmedizin. Am häufigsten werde das Prinzip der Menschenwürde am Anfang und Ende des Lebens bemüht, "aber wesentlich pragmatischer als in Deutschland".

Es gehe darum, in schwierigen Bemühungen rote Linien für neue Technologien zu ziehen. Dabei sei aber nichts klar definiert, auch weil sich die Ethiker untereinander uneinig seien. Die Konferenz habe gezeigt, dass es nationale Spezifika gebe und generell ein hohes Maß an Pluralität.

Das werde zu einem neuen Prinzip der ethischen Debatte führen, deren Ziel nicht mehr die Konsensfindung oder gar die Postulierung absoluter Positionen sei. Die Ethik als Bestandteil der Wissenschaft werde stets nur vorläufige Ergebnisse bringen und ein Prozess des Herantastens und der Findung von Auslegungsordnungen sein. Also werde die Arbeit von Ethikern nicht sein, gleich nach dem Gesetzgeber zu rufen.

Gerechtigkeit statt Menschenwürde

Der Brite Archard wies darauf hin, dass der Begriff der Menschenwürde (wie auch der der Solidarität) von englischsprachigen Philosophen nicht gern genutzt werde. Eher greife man zu Prinzipien wie Autonomie, Freiheit und Gerechtigkeit.

Auch Archard betont das Prozesshafte bei der Bewertung neuer Technologien und fordert ausdrücklich, Aufklärung und Einbeziehung der Öffentlichkeit und nicht nur der Experten sowie deren Einstellung und Akzeptanz. Wobei die Wissenschaft durch Janusköpfigkeit charakterisiert sei: einerseits die Hoffnung, mit ihr alle Probleme zu lösen – andererseits aber auch die Monstrosität eines Frankenstein.

Sowohl Archard wie auch sein französischer Kollege Frédéric Worms vom Comité Consultatif National d'Ethique betonten die Förderung der öffentlichen Debatte und die Organisation eines Diskurses – ohne selbst Stellung zu beziehen – als ihre wesentliche Aufgabe.

Wissen, mit wem man kommuniziert

Es gibt aber auch Positionierungen, und zwar auf europäischer Ebene. Das machte Christiane Woopen deutlich. Sie ist ehemalige Vorsitzende des Ethikrates (2012 bis 2016) und heutige Vorsitzende des Europäischen Ethikrates (European Group on Ethics in Science and New Technologies), der die Europäische Kommission berät.

Auf Vorschlag des Europäischen Ethikrates habe die EU-Kommission eine Plattform für den Dialog über die Entwicklungen von Künstlicher Intelligenz geschaffen. 52 Experten seien nun dabei, eine Charta der Ethik für Künstliche Intelligenz zu schaffen – mit zwei klaren Grenzziehungen für KI:

» die Bewertung von Menschen durch KI; Woopen: "Das ist eine klare Absage an China, wo dies geschieht und woran auch Lebenschancen geknüpft sind."

» ein relationales Prinzip. Das bedeutet konkret: Menschen müssen wissen, mit wem sie gerade kommunizieren – mit einem anderen Menschen oder mit einer Künstlichen Intelligenz.

Leider sei viel zu wenig bekannt, dass Europa mit seinen Werten und der Institution der Europäischen Gemeinschaft eine weltweite Alleinstellung habe, einen pluralistischen ethischen Diskurs zu organisieren. Dies sei ein hoher Wert, der viel zu wenig kommuniziert werde.

Schlagworte:
Ihr Newsletter zum Thema
Mehr zum Thema

Kolumne „Aufgerollt“ – No. 23

Die Märchen von der ePA

Kommentare
Vorteile des Logins

Über unser kostenloses Login erhalten Ärzte und Ärztinnen sowie andere Mitarbeiter der Gesundheitsbranche Zugriff auf mehr Hintergründe, Interviews und Praxis-Tipps.

Haben Sie schon unsere Newsletter abonniert?

Von Diabetologie bis E-Health: Unsere praxisrelevanten Themen-Newsletter.

Das war der Tag: Der tägliche Nachrichtenüberblick mit den neuesten Infos aus Gesundheitspolitik, Medizin, Beruf und Praxis-/Klinikalltag.

Eil-Meldungen: Erhalten Sie die wichtigsten Nachrichten direkt zugestellt!

Newsletter bestellen »

Top-Meldungen
Lesetipps
Im Vordergrund Savanne und eine Giraffe, im Hintergrund der Kilimandscharo.

© espiegle / stock.adobe.com

Erhöhtes Thromboserisiko

Fallbericht: Lungenembolie bei einem Hobby-Bergsteiger