EvidenzUpdate-Podcast

KI in der Medizin – über böse Uhren und eine euphorisierte Zukünftigkeit

Wird Künstliche Intelligenz Ärztinnen und Ärzte ersetzen können? Bekommt jede Praxis künftig einen eigenen Chatbot? Und ist KI wirklich intelligent, oder kann das weg? Teil drei der Jahreswechsel-Episoden vom „EvidenzUpdate“-Podcast.

Prof. Dr. med. Martin SchererVon Prof. Dr. med. Martin Scherer und Denis NößlerDenis Nößler Veröffentlicht:

An dieser Stelle finden Sie Inhalte aus Podigee Um mit Inhalten aus Podigee und anderen sozialen Netzwerken zu interagieren oder diese darzustellen, brauchen wir Ihre Zustimmung. Ich bin damit einverstanden, dass mir Inhalte aus Sozialen Netzwerken und von anderen Anbietern angezeigt werden. Damit können personenbezogene Daten an Drittanbieter übermittelt werden. Dazu ist ggf. die Speicherung von Cookies auf Ihrem Gerät notwendig. Weitere Information dazu finden Sie hier.

Im dritten Teil unserer 2023/24er Jahreswechsel-Episoden beschäftigen wir uns mit Apparaturen und völlig verrückter Technik, die kaum ein Mensch noch versteht: artifizielle Intelligenz (AI), Large Language Modells (LLM), Chatbots, Deep Learning, neuronale Netze. Sprechen in Zukunft nur noch virtuelle Ärztinnen mit virtuellen Patientinnen?

Wir haben Literatur darüber gesucht, was solche Systeme heute schon in der Medizin leisten können. Gefunden haben wir einige Arbeiten aus der Onkologie, der Augenheilkunde und der Primärversorgung. Die Evidenzlage hinkt, wie so oft, der technischen Entwicklung hinterher.

Also überlegen wir, wo solche Apparate künftig einen Nutzen haben könnten. Sind es Leitlinien und deren aufwändige Erstellung? Womöglich wird es erstmal deren automatisierte Zusammenfassung sein. Wird KI beim Bluthochdruck oder Diabetes helfen können? Oder gefährdet sie eher die Patientenautonomie? Oder die Augenheilkunde: Könnten KI-Apparaturen vielleicht eine Antwort auf ein Versorgungsproblem sein? Und was sagt eigentlich die Ethik dazu? (Dauer: 1:24:22 Minuten)

Anregungen? Kritik? Wünsche?

Schreiben Sie uns: evidenzupdate@springer.com

Zusammenfassung

(Erstellt von ChatGPT Version 4)

Das Interview ist ein umfangreiches Gespräch zwischen Martin Scherer, Präsident der Deutschen Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM), und Denis Nößler, Chefredakteur der Ärzte Zeitung. Es behandelt verschiedene Themen rund um die Zukunft der Medizin, insbesondere die Rolle der Künstlichen Intelligenz (KI). Es wird diskutiert, wie KI in verschiedenen medizinischen Bereichen eingesetzt werden kann, darunter die Notfallversorgung, Radiologie, Augenheilkunde und Krebsfrüherkennung. Scherer und Nößler beleuchten sowohl die potenziellen Vorteile als auch die Herausforderungen und ethischen Fragen, die mit dem Einsatz von KI im Gesundheitswesen einhergehen. Besonders betont wird die Notwendigkeit, die Qualität und Anwendbarkeit von KI-gestützten Tools gründlich zu evaluieren und in den richtigen Versorgungskontext einzubetten. Das Interview enthält auch persönliche Anekdoten und Meinungen der Beteiligten, die den Gesprächsstil lebendig und zugänglich machen.

Quellen

  1. Beck D. Experten warnen vor Auslöschung der Menschheit durch KI. SWR. 2023. https://www.swr.de/wissen/experten-warnen-vor-ausloeschung-der-menschheit-durch-ki-100.html (accessed 21 Jan 2024).
  2. Giani A, Schäfer S, Frey U, et al. Goodbye Guidelines für Grundversorgende – welcome ChatGPT? Prim Hosp Care Allg Inn Med 2023;23:348–9. doi:https://doi.org/10.4414/phc-d.2023.1288315986
  3. Malik P, Pathania M, Rathaur V. Overview of artificial intelligence in medicine. Journal of Family Medicine and Primary Care 2019;8:2328. doi:https://doi.org/10.4103/jfmpc.jfmpc_440_19
  4. Sinsky C, Colligan L, Li L, et al. Allocation of Physician Time in Ambulatory Practice: A Time and Motion Study in 4 Specialties. Annals of Internal Medicine 2016;165:753. doi:https://doi.org/10.7326/m16-0961
  5. Precht RD. Künstliche Intelligenz und der Sinn des Lebens. Goldmann Verlag 2020.
  6. Fitzgerald RC, Antoniou AC, Fruk L, et al. The future of early cancer detection. Nature Medicine 2022;28:666–77. doi:https://doi.org/10.1038/s41591-022-01746-x
  7. Ting DSW, Pasquale LR, Peng L, et al. Artificial intelligence and deep learning in ophthalmology. British Journal of Ophthalmology 2018;103:167–75. doi:https://doi.org/10.1136/bjophthalmol-2018-313173
  8. Wiesing U. Heilswissenschaft Über Verheißungen der modernen Medizin. S. Fischer 2020.
  9. Luo J, Pan M, Mo K, et al. Emerging Role of Artificial Intelligence in Diagnosis, Classification and Clinical Management of Glioma. Seminars in Cancer Biology 2023;91:110–23. doi:https://doi.org/10.1016/j.semcancer.2023.03.006
  10. Riesewieck M, Block H. Die digitale Seele. Goldmann 2020.
  11. Milne-Ives M, Cock C de, Lim E, et al. The Effectiveness of Artificial Intelligence Conversational Agents in Health Care: Systematic Review. Journal of Medical Internet Research 2020;22:e20346. doi:https://doi.org/10.2196/20346
  12. Morley J, Machado CCV, Burr C, et al. The ethics of AI in health care: A mapping review. Social Science & Medicine 2020;260:113172. doi:https://doi.org/10.1016/j.socscimed.2020.113172
  13. Deutscher Ethikrat. Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme. 2023. https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf (accessed 21 Jan 2024).

Transkript

Nößler: Was droht uns 2024? Wird in diesem Jahr vielleicht auch im Bundesgesundheitsministerium künstliche Intelligenz einkehren? Oder vielleicht sonst wo? Zeit für eine Spurensuche. Und damit herzlich willkommen zum Teil 3 des Jahresausblicks vom EvidenzUpdate-Podcast. Wir, das sind ...

Scherer: Martin Scherer.

Nößler: Präsident der Deutschen Gesellschaft für Allgemeinmedizin und Familienmedizin der DEGAM und Direktor des Instituts und Poliklinik für Allgemeinmedizin am UKE in Hamburg. Und hier am Mikro ist Denis Nößler, Chefredakteur der Ärzte Zeitung aus dem Haus Springer Medizin. Moin, Herr Scherer!

Scherer: Moin, Herr Nößler!

Nößler: Wie war denn Ihr Start ins Jahr?

Scherer: Danke, der ist geglückt. Allerdings ist das Jahr erst zwei Wochen alt, da konnte jetzt noch nicht so viel schiefgehen. Aber ich hoffe, es wird ein gutes Jahr. Wie war es bei Ihnen?

Nößler: Ich würde mal sagen turbulent. Es ging ja direkt los. Am 9. Januar hatten wir diesen sogenannten Krisengipfel mit den Hausärztinnen und Hausärzten, Ihren Kolleginnen und Kollegen im Ministerium. Entbudgitierung hausärztlicher Leistungen. Und jetzt soll auch mal die Notfallversorgung umgebaut werden, wiederum mit mehr ambulanten Leistungen. Also, da kommt ein bisschen was auf uns zu.

Scherer: Da kommt was auf uns zu. Das ist ein längst überfälliger Schritt mit der Entbudgetierung. Das bedeutet konkret, dass keine Praxis Geld verliert und alle Leistungen voll bezahlt werden. Das war längst nötig. Die weiteren Aspekte sind die der hausarztzentrierten Versorgung. Da gibt es noch die jahresbezogene hausärztliche Versorgungspauschale und noch andere Dinge. Und wichtig ist, dass das jetzt wirklich auch umgesetzt wird.

Nößler: Und wir wollen heute über etwas anderes sprechen. Aber Notfallversorgung ist ja auch so ein Riesenthema. Haben wir auch schon öfter darüber gesprochen hier im Podcast. Da gibt es ja auch durchaus Arbeiten, die Sie gemacht haben mit Kollegen am UKE, Richtung Patientensteuerung, wer gehört in die ZNA hinein, wer nicht. Kann man das mit eine Portalpraxis lösen, mit einem gemeinsamen Tresen. Entbudgetierung, sagen Sie, ist intelligent. Ist das Thema Notfallreform auch intelligent?

Scherer: Absolut. Das sind auch Schritte in die richtige Richtung. Wichtig ist nur, dass auch die Umsetzung erfolgt. Und da liegt der Ball ganz klar bei der Politik und der ärztlichen Selbstverwaltung.

Nößler: Lassen wir es dafür einstweilen bei diesem Thema. Und dann warten wir mal ab, wenn es dann irgendwann mal Eckpunkte gibt, dann können wir ja noch mal die Evidenz aus Deutschland in dieser Angelegenheit mit den Plänen der Politik abgleichen. Heute bleiben wir intelligent. Also ausnahmsweise wollen wir in diesem Podcast mal intelligent sein – künstlich intelligent, um genau zu sein – und wollen uns dieses KI-Thema, AI-Thema in der Medizin anschauen. Da wollen wir ein bisschen sprechen, weil wir glauben, das wird uns mindestens 2024 und darüber hinaus beschäftigen. Das haben wir aus unserem Jahresrück- und -ausblick rübergerettet. Wir machen ja immer so Vorgespräche und da habe ich Ihnen mal ChatGPT gezeigt. Und Herr Scherer, jetzt würde ich Sie tatsächlich mal bitten, dass Sie in die Tasten hauen und ChatGPT mal folgende Frage stellen: Müssen wir jetzt alle sterben?

Scherer: Eine Sekunde. Müssen wir jetzt alle sterben? Also, was sagt ChatGPT dazu? Nein, wir müssen nicht jetzt alle sterben. Diese Frage klingt sehr besorgt oder philosophisch. Wenn Sie spezifische Bedenken oder Fragen zur Gesundheit, Sicherheit oder anderen ernsten Themen haben, lassen Sie es mich bitte wissen, damit kann ich Ihnen dann genauer helfen. Also ernste Themen. Also ChatGPT möchte nicht verkackeiert werden.

Nößler: Klingt so ein bisschen wie: Bei Risiken und Nebenwirkungen lesen Sie ...

Scherer: Vielleicht irgendwie anders?

Nößler: Probieren wir es anders.

Scherer: Also vielleicht lassen wir das „jetzt“ mal weg. Müssen wir alle sterben?

Nößler: Jetzt bin ich gespannt.

Scherer: Ja, der Tod ist ein natürlicher Teil des Lebens, und alle Lebewesen, einschließlich Menschen, müssen irgendwann sterben. Dies ist ein grundlegender Aspekt der Biologie und des Lebenszyklus. Wenn Sie Fragen zu spezifischen Aspekten des Lebens, des Todes oder verwandten philosophischen oder existenziellen Themen haben, stehe ich Ihnen gerne zur Verfügung – wer ist „ich“?, würde ich da fragen, aber egal –, um darüber zu sprechen oder Informationen bereitzustellen.

Nößler: Klingt immer noch nach Packungsbeilage.

Scherer: Reicht Ihnen das noch nicht?

Nößler: Nicht wirklich. Herr Scherer, vielleicht probieren wir es mal anders. Also das war jetzt mal ChatGPT, reden wir gleich noch mal drüber. Probieren Sie doch mal Google, unsere Allerweltsmaschine.

Scherer: Okay, ich frage mal Google. Was frage ich denn da mal? Wird künstliche Intelligenz die Welt beherrschen?

Nößler: Nach der Antwort von ChatGPT nicht.

Scherer: Tatsächlich, da gibt es einen SWR-Beitrag: Menschheit erwartet Auslöschung durch KI.

Nößler: Ups.

Scherer: Also zumindest gibt es Autoren, die nach Atomkrieg, Klimakatastrophe und Pandemien die KI als viertes Vernichtungsszenario oder als vierte Vernichtungsoption benennen.

Nößler: SWR, haben Sie gesagt?

Scherer: Ja, das ist ein SWR-Beitrag: Menschen erwartet Auslöschung durch KI. Das können wir auch gerne wohin packen?

Nößler: In die Shownotes, danke. Wollte ich Sie gerade auch fragen. Dann schicken Sie mir diesen Link und dann packen wir das in die Scherer’schen Shownotes. Also die Menschheit erwartet, dass wir alle sterben müssen, und vor allem wegen der KI. Nur die KI weiß es nicht mal. Ich finde das ziemlich dumm.

Scherer: Nun ja – künstliche Intelligenz, da müsste ich Sie vielleicht fragen, Sie sind da eher vom Fach. Manche Leute sagen, es gibt keine künstliche Intelligenz, wenn, dann nur Maschinen-Learning. Jedenfalls kennen wir alle Science-Fiction-Filme. Und die Menschen, die vor KI warnen, die können auch neue Begriffe erfinden, wie zum Beispiel P. P steht für Wahrscheinlichkeit Klammer auf: Doom. Also P steht sowie in der Wissenschaft immer für eine Wahrscheinlichkeit. Und Doom bedeutet Untergang oder das Jüngste Gericht. Also wie groß ist die Wahrscheinlichkeit, dass KI zum Untergang führen wird. Man weiß es nicht.

Nößler: Jetzt ist die Frage: Wie rechnen wir das aus?

Scherer: Ja, das wäre die Frage. Genau. Also, um das Intro vielleicht abzuschließen: Es gibt prominente Warnungen. Die Warner haben da auch oft ein Interessenskonflikt. Es kann auch manchmal eine Marketingstrategie sein. Mir ist KI unheimlich. Vielleicht bin ich da auch etwas geprimt durch Science-Fiction-Filme, wo dann eine KI den roten Atomknopf drückt, die Menschen dann alle sterben und die Maschinen überleben. Wir beide werden es nicht mehr mitkriegen, glaube ich. Also da bin ich mir sehr sicher. Und deshalb machen mir die von Menschenhand gemachten Bedrohungen am meisten Angst.

Nößler: Dann haben Sie jetzt gerade indirekt die Wahrscheinlichkeit des Untergangs für uns beide schon mal skizziert.

Scherer: Ja. Aber vielleicht kann ich den Spieß mal umdrehen, Herr Nößler. Sie sind doch derjenige von uns, der ein bisschen was von Informatik versteht – sorry, Sie sind Informatiker. Also mehr als ein bisschen was. Erklären Sie uns doch mal das KI Universe mit all den Begriffen rund um KI, LLM, neuronalen Netze, Big Date, Machine Learning. Kurz bitte!

Nößler: Spannend. Also Sie haben es selbst, glaube ich, schon gesagt. Was ist KI eigentlich. Alle, die sich ein bisschen mit der Psychologie beschäftigen, wissen, dass es nicht einmal ein Verständnis darüber gibt, was menschliche Intelligenz ist. Über diesen Begriff debattiert man ja seit Ewigkeiten. Also es hapert eigentlich schon am Intelligenzbegriff. Und eine intelligente Maschine würde voraussetzen, dass sie eine gewisse Kreativität hat. Deswegen, KI ist – Sie haben es gesagt – oft auch so ein Marketingbegriff. Also vielleicht, weil wir mit ChatGPT begonnen haben, benutzen wir mal LLM – die Abkürzung hatten Sie –, Large Language Model. ChatGPT kommt aus dem Bereich der sogenannten generativen KI. Das heißt, die ist in der Lage, über große Sprachmodelle Sprache erstens zu verstehen – nicht inhaltlich, sondern rein aus der Semantik heraus –, gewisse Bezüge herzustellen und dann auf der anderen Seite – das ist die Frage, die Sie eingegeben haben, „Müssen wir sterben?“, das kann sie nicht inhaltlich, aber vom Kontext verstehen – kann sie in diesem Large Language Model – das ist wie eine Riesenbibliothek, auf die sie trainiert wurde – gucken, was würde denn auf so eine Frage üblicherweise folgen. Und im Prinzip ist die total dumm, diese KI, dieses LLM, weil sie kein Verständnis von Sterben hat. Sie weiß nicht, was das Sterben bedeutet. Sie weiß nur, dass in der Regel so eine Antwort käme. Und das ist jetzt sehr einfach formuliert. Da können die mittlerweile richtig gut sein. Also Chatbots sind einfach Large Language Models, die unsere Sprache semantisch auseinandernehmen können und mit einem semantischen Zusammenbau reagieren können. Und das bezeichnet man so ein bisschen als KI. Wenn man richtig tief in die KI, artifizielle Intelligenz, reingeht, dann sind wir eigentlich bei neuronalen Netzen. Und da beginnt dann auch ein Stück weit Kreativität. Das sind nämlich im Prinzip Schaltkreise – Knoten und Kanten, würden Informatiker sagen –, die hintereinander in verschiedenen Schichten liegen, die immer wieder, letztlich auch so ähnlich wie Wahrscheinlichkeiten, Dinge ausprobieren und durchgeben. Und so nähern die sich quasi Entscheidungsstrukturen. Ganz, ganz einfach formuliert. Echte KI-Leute würden mich jetzt wahrscheinlich tadeln, dass das alles viel zu einfach ist. Und hinter all diesen Large Language Models, die mit KI im klassischen Sinn nicht viel zu tun haben, die ChatGPT und diesen neuronalen Netzen, stehen immer zwei Dinge – das ist Big Data –, diese Maschinen brauchen unheimlich viele Daten, damit sie überhaupt trainiert werden können. Und dann haben wir dieses Deep Learning, dieses Machine Learning, dass riesengroße Rechenfarmen diese Daten versuchen zu strukturieren, zu systematisieren, zu semantisieren. Und das ist dann eben auch nicht mehr Intelligenz, im Zweifel auch mit Wahrscheinlichkeitsrechnungen gewisse Dinge zu machen. Hilft das soweit?

Scherer: Das war doch ein ganz guter Überblick. Habe ich Sie richtig verstanden, Herr Nößler, dass diese Sprachmodelle eigentlich sehr dumm sind? Ich will das mal an einem Beispiel festmachen. Dass so ein Tool eine Bank, auf der man sitzen kann, nicht unterscheiden kann von einer Bank, wo man Geld abholen kann, also die Sparkasse. Sondern dass das Kontextjunkies sind und sie sich aus den Worten, die dann danach folgen, erschließen kann, was da die Unterschiede sind, ohne das in irgendeiner Weise kognitiv zu verarbeiten.

Nößler: Genau. Da gibt es aus der Sprachwissenschaft, aus der Computerlinguistik gibt es so einen klassischen Satz: We met in a castle in order to trade keys. Ist jetzt ein relativ klarer Satz. Wenn Sie das jetzt ins Deutsche übersetzen, dann kommt raus: Wir trafen uns im Schloss, um Schlüssel zu tauschen. Und jetzt geben Sie diesen Satz wieder in eine Übersetzungs-KI hinein – früher wäre es passiert –, dann hätte diese Übersetzungsmaschine gesagt: We met in a lock in order to trade keys. Weil „Schloss“ ist ja auch „Lock“. Das heißt, man muss diesen Large Language Model dann schon beibringen, dass ein gewisses Wort in einem Kontext zu anderen Wörtern häufiger oder sinnvollerweise vorkommt als ein anderes. Also, wenn ich mich treffe, dann tue ich das nicht in einem Schlüsselloch, in einem Lock, sondern in einem Castle. Und das können diese Large Language Models schon. Was sie nicht können, ist, den Sinn dahinter zu verstehen. Die Maschine weiß nicht, was ein Schloss ist. Sie weiß einfach nur, dass es so geschrieben wird und dass es semantisch in der Regel mit den und den Dingen zusammenhängt.

Scherer: Danke, Herr Nößler, dass Sie uns mal so ein bisschen die Tür aufgemacht haben zum Maschinenraum er künstlichen Intelligenz. Spannend.

Nößler: Nichts schwieriger als das. Also vielleicht wird es da immer wieder mal Gelegenheit geben, vielleicht holen wir auch mal irgendwie Gäste rein, echte KI-Fachleute. Wir wollen heute, Herr Scherer, mal ein bisschen gucken – und da haben wir eine Menge Arbeit, und Sie haben eine Menge Arbeit mitgebracht –, was KI bedeuten könnte, oder all diese Systeme, die man dadrunter subsummiert, für die Medizin und die Pflege. Also einen ganzen Reigen an Publikationen haben wir da zusammengetragen. Und ich würde mal, weil wir mit ChatGPT reingegangen sind, gerne als Erstes einen kleinen Aufsatz hier reinbringen, den wir rausgepickt haben von Schweizer Kollegen und Kolleginnen von Ihnen in der dortigen Zeitschrift „Primary and Hospital Care“. Das ist ein ganz kleiner Aufsatz mit dem Titel „Goodbye Guidlince für Grundversorgende – welcome ChatGPT?“ Die haben das Ding gefragt: Fassen wir mal die Empfehlungen zur COPD zusammen. Und wenn ich die Autoren richtig verstehe, waren die ziemlich überrascht, wie gut ChatGPT da abschneidet. Die haben sogar ihr Eosinophilie größer als 100 Zellen als mögliche Entscheidung pro ICS-Gabe als möglichen Indikator gesehen. Und sagen, das ist eigentlich alles nicht ganz falsch, was dieser Apparat da aufgeschrieben hat. Und jetzt kommt die spannende Frage, weil Sie ja Leitlinienpapst sind. Weil die schreiben nämlich: Brauchen wir künftig noch diese aufwendige Leitlinienerstellung, wenn wir ChatGPT haben?

Scherer: Ja, die brauchen wir schon. Weil ChatGPT keine neue Evidenz generiert. Das heißt, das ganze Finden von Literatur, das kriegt sie vielleicht noch hin. Aber dann geht es weiter mit Critical Appraisal, mit Evidenztabellen, mit Bewertungen, mit Studienelektionen, alles das, was das wissenschaftliche Arbeiten ausmacht. Dann weiter zu Formulierungen von Empfehlungen, Anpassung auf den Versorgungskontext anhand spezifischer Schlüsselfragen bis hin zum Konsensverfahren. Also alles das kann ChatGPT nicht. Das muss schon jemand anders machen, nämlich die Leitliniengruppen, damit ChatGPT das dann auch finden kann.

Nößler: Erinnern Sie sich an die vorletzte Episode „Leitlinien-Müdigkeit“? Da waren wir auch an den Punkt, dass sie immer länger werden. Das könnte dann irgendwann hilfreich sein, mir so eine Leitlinie zusammenzufassen.

Scherer: Das könnte sein. Und das kann es wahrscheinlich auch ganz gut.

Nößler: Möglicher Ansatz weg, fass mir mal eine Leitlinie zusammen. Wir bleiben ganz kurz in der Schweiz, andere Arbeit, die wir da gefunden haben. Jetzt wird es eine bisschen verrückt. Eine Autorengruppe aus St. Gallen, Zürich und Bern in der Radioonkologie, da haben die auch ChatGPT gefragt. Und ich mache es mal einfach: Die haben das Ding gefragt: Hilf uns mal bitte, Strahlentherapien zu planen. Die haben Multiple-Choice-Fragen gestellt, offene Fragen. Und tatsächlich doch viele richtige Antworten gegeben, der Apparat. Und selbst bei den offenen Fragen, wo es selbst eine Antwort formulieren musste, war, glaube ich, immerhin die Hälfte zwischen akzeptabel und gut. Nur wenn es dann richtig Hardcore wurde – berechnen wir mal Gammadosis – hat es wohl fürchterlich danebengelegen. Aber die Autoren behaupten – das ist deren Fazit –, dass diese Large Language Models vermutlich einen sehr krassen Impact auf die Zukunft der Medizin, speziell in der Radioonkologie haben können. Jetzt mal bös gefragt: Ist das das Ende der Strahlentherapeuten, Herr Scherer?

Scherer: Ich glaube, das Thema werden wir noch häufiger im Podcast kriegen: Maschine statt Mensch oder Mensch durch Maschine ersetzbar. Ich muss noch einmal kurz einen Schritt in Ihre Jagdgründe reinmachen. Ihnen sagt sicherlich der Name Alan Turing etwas.

Nößler: Natürlich.

Scherer: Wer war das?

Nößler: Alan Turing, der die Turingmaschine erfunden hat, der Gründer der Kryptoanalyse.

Scherer: Jawohl. Und dann gibt es auch diesen Turingtest, der auf der Tatsache basiert, dass intelligentes Verhalten eines Computers in der Fähigkeit besteht, bei kognitiven Aufgaben tatsächlich menschliche Leistungen zu erzielen. Also zurück zu Ihrer Frage: Ist das das Ende der Strahlentherapeuten? Wenn der ärztliche Beruf das Herunterbeten von Wissensinhalten wäre, dann könnte man sagen, dass die Ärztinnen und Ärzte durch ein solches Tool ersetzbar wären. Aber Medizin ist sehr viel mehr, nämlich die Integration des objektiven Befundes der Anamnese der Patientenperspektive, der externen Evidenz und der ärztlichen Erfahrung. Das heißt, bei der Beantwortung von Wissensfragen, denke ich, ist so ein Tool auch mir persönlich überlegen. Bei einem OSCE wird es wahrscheinlich anders aussehen. Objective Structured Clinical Examination. Also im Ernst: So reizvoll Mensch-gegen-Maschine-Szenarien auch sein mögen, das ist nicht zielführend. Ich glaube, es wird immer wieder darum gehen, umschriebene Anwendungen zu identifizieren, die Sinn machen und die wirklich einen Mehrwert bieten.

Nößler: Die gehen wir jetzt gleich mal durch. Vielleicht finden wir aus dem ganzen Reigen der Papers einen Mehrwert. Vielleicht noch kurz zu dem Turingtest, der die Intelligenz einer Maschine testet. Ich glaube, bis heute hat kein Apparat den bestanden. Also man versucht es immer wieder mal. Aber wenn ich das recht überschaue, ist mir nicht bekannt, dass das gelungen wäre, also auch reproduzierbar gelungen wäre. Soviel zum Thema Intelligenz und Dummheit im Apparat. Wir kommen von der Schweiz, Herr Scherer, nach Indien. Sie haben die Arbeit rausgesucht, das ist eine Art Review, ich würde auch sagen Aufsatz, aus dem Jahr 2019. Das ist natürlich, was jetzt dieses Thema angeht, schon eine relativ große Zeitspanne. Da wird ja einiges passiert sein. Was ich interessant fand – ich lese ja diesen Text in diesen Arbeiten, ich verstehe das immer nicht, ich gucke mir die Bildchen an – war diese Waagschale, die sie abgebildet haben mit den möglichen Fragen zu Edvantage und Disadvantage. Im Prinzip haben sie gesagt: Die Arbeitserleichterung, Präzision und Einsparung, die solche Maschinen erbringen könnten, könnten das Problem Jobverlust oder Verlust emotionaler Intelligenz übergewichten. Wie schätzen Sie das ein, was die da geschrieben haben?

Scherer: Am Ende liegen auf der Seite der Waagschale mit den Disadvantages zwei Kästchen, nämlich Loss of Jobs, Arbeitsplatzverlust und das, was Sie eben sagten, Verlust von emotionaler Intelligenz und auch Empathie. Aber auf der Vorteilsseite liegen dann deutlich mehr: Effizienz, Genauigkeit, Präzession, herabgesetzter Workload, mehr Zeit für den Patienten, Geldeinsparung, besseres Monitoring. Die Sache ist die, dass man sich jeden Anwendungsbereich einzeln anschauen muss. Wenn man jetzt diese Übersichtsarbeit zur KI in der Medizin zusammenfassen wollte, dann müsste man, ohne dass die Autoren das so gegliedert haben, es in fünf Bereich gliedern. Der eine ist der Administrationsbereich, der zweite ist die Bildverarbeitung, Bilderkennung, der dritte ist Decisions Support und der vierte sind so operative Verfahren, auch Medikamentenausgabe, Tools und der fünfte dann Variables. Ich will es mal ganz kurz machen: Also im ersten Bereich mit der Administration, das sind so Dinge wie Terminvereinbarung, Impftermine für Kinder, Recall-Systeme, Onlineterminvergabe, Online-Check-ins, auch vielleicht schon mal kleine Anamneseabfragen. Der zweite Bereich der Bildverarbeitung, der Bilderkennung, da ist die Radiologie ganz vorne, mit dem Einsatz neuer Technologien bei CT-Bildauswertung, MRTs, Röntgenbilder; aus der Mammografie kennt man es schon auch. Und so stellt der Artikel das so ein bisschen überblicksartig dar. Das Dritte sind Decisions-Support-Systeme. Da hat die Universität von Massachusetts 1986 ein Entscheidungshilfesystem namens DXplain entwickelt, das von Symptomkomplexen ausgeht und dann die wahrscheinlichsten Differenzialdiagnosen dann dafür darstellt. Dann gibt es GermWatcher. Das ist von der Universität von Washington entwickelt zur Erkennung von nosokomialen Infektionen, sehr interessant. Oder Babylon, kennt man – kennen Sie auch, Herr Nößler – aus UK. Das kann von Patienten genutzt werden, um den Arzt online zu konsultieren. Und nicht zu vergessen natürlich IBM Watson. Sagt der Ihnen noch etwas?

Nößler: Ja, dieser Riesenapparat. Der ist ein bisschen in der Versenkung verschwunden.

Scherer: Ist ein bisschen still geworden drumherum. Das war eigentlich ein Paradebeispiel. Ein Tool, das in der Lage ist, Symptome von Herzkrankheiten, Krebs und auch anderen effizient zu erkennen. Es gibt KI-gestützte Pflege. Das ist ein intelligentes System zur Unterstützung der Pflege bei älteren Menschen mit Multimorbidität oder auch auf Intensivstationen. Und dann gibt es so Konversationsprojekte im Gesundheitswesen, wo analysiert wird, wie Siri, Google, S-Voice, Cortana auf Fragen von Mobiltelefonnutzern zur psychischen Gesundheit oder zur häuslichen Gewalt oder anderen Gesundheitsfragen reagieren. Und es gibt auch, Herr Nößler, eine virtuelle Pflegekraft: Molly, die entwickelt wird, um das Entlassmanagement zu verbessern und aus dem Krankenhaus entlassene Patienten so ein bisschen besser zu betreuen, damit dann die ärztliche Arbeitskraft wieder anderen Dingen zugutekommen kann. Operative Verfahren kennt man, das von robotergestützte Chirurgiesystem „da Vinci“, das schon auch, das kann man so sagen, den Bereich der Chirurgie revolutioniert hat, insbesondere in der Urologie und auch Gynäkologie. Und dann diese ganzen Variables, wo Sie, glaube ich, auch irgendwas von mit sich rumschleppen, Herr Nößler. Haben Sie nicht auch so eine Apple Watch oder so?

Nößler: Ja. Ich könnte Ihnen sogar einen Einkanal-KG aufzeichnen. Oder ich könnte Ihnen meinen Blutsauerstoff verraten, wenn Sie möchten.

Scherer: Vielleicht können wir das in die Shownotes packen. Also wir könnten Fitbit, Apple, diese ganzen Gesundheitstracker, die können Herzfrequenz machen, das Aktivitätsniveau, das Schlafniveau überwachen, das Einkanal-EKG haben Sie schon genannt, Sauerstoffsättigung – das sind alles Dinge, die funktionieren. Also, lassen Sie mich die Schlussfolgerung der Autoren dieser Übersichtsarbeit zusammenfassen: Die künstliche Intelligenz hält Einzug in den öffentlichen Gesundheitssektor. Und künstliche Intelligenz hat das Potenzial, Arbeitszeit einzusparen. Also es gibt eine Studie – die können wir auch gerne in die Shownotes setzen –, die zeigt, dass Ärztinnen und Ärzte nur 27 Prozent ihres Praxisalltags mit direkten klinischen Gesprächen mit ihren Patienten verbringen. Und 49,2 Prozent verfallen auf die Pflege von elektronischen Krankenakten, Schreibtischarbeit, Paper Work und so weiter. Und dieses ganze Bürokratiethema, das ist ja sehr gut bekannt. Also da ist sicherlich im Administrationsbereich schon mal ein vordringliches Anwendungsfeld der KI. Und das wäre, glaube ich, auch eins der ersten Felder, das man angehen kann. Die weiteren Felder, die kommen, sind natürlich Patientensicherheit, Medikamentenausgabe. Es gibt intelligente Medikamentenausgabesysteme, die Stellfehler auf null reduziert haben. Und Sie wissen, die Pflegekräfte im Nachtdienst haben die Medikamente bestellt. Soweit die kurze Zusammenfassung.

Nößler: Die sehen dann teilweise auch aus wie kleine lustige Roboter mit Gesicht, wo die Pillen unten in das Döschen fallen. 27 Prozent Zeit, die ich in der Praxis verbringe, wende ich effektiv für – gemittelter Wert, den Sie da zitieren – die Arbeit mit den Patientinnen und Patienten auf, der Rest geht für anderes drauf. Diktieren Sie Ihre Arztbriefe eigentlich noch?

Scherer: Nein. Also da passiert in der Dokumentation sehr viel über Textbausteine. Dann natürlich wird schon noch einiges getippt. Aber Sie sprechen den richtigen Einsatzbereich an. Also Dokumentationshilfen, Diktierhilfen, diese ganzen medizinischen Schreibarbeiten, die doch sehr viel Zeit in Anspruch nehmen, die könnte man dann an die KI delegieren und dann einfach mehr Zeit mit den Patienten haben.

Nößler: Vielleicht ein Randaspekt: Es gibt im Uniklinikum Marburg von Martin Hirsch, das ist so ein AI-Pionier in Deutschland, einer der Gründer von Ada Health, der hat eine Professur für künstliche Intelligenz in der Medizin. Und der hat da in die ZNA so ein Apparat, so eine Kiste quasi reingestellt im Wartebereich, da kann man reingehen. Und das ist im Prinzip ein Video-Chatbot, so wie Sie es eben auch zitiert haben, mit einem LLM hintendran. Und der fragt mich dann: Ach, ich bin der virtuelle Doktor Sowieso, wie geht es Ihnen, was haben Sie? Und dann fragt der mich einfach Symptome ab. Und am Ende rechnet er im Hintergrund über Wahrscheinlichkeiten, was könnte denn theoretisch alles hinter dieser Symptomkonstellation stehen. Also damit wird ja durchaus schon experimentiert. Mit solchen Apparaten diktieren, also Dokumentationsarbeit abnehmen, sagen Sie auch. Und vieles, was Sie jetzt genannt haben, das sind zunächst mal etwas einfach gesagt auch Gadgets, die dann vor allem auch viele Daten produzieren. Und irgendwann, die KI kommt dann dahinter im Einsatz, wenn man eine Maschine hat, die sinnvollerweise etwas mit diesen Daten tun kann, das uns hilft. Ich will vielleicht eine kurze Schleife einführen bei dieser Geschichte. Sie haben schon gesagt: Es wird immer Qualitäten geben, insbesondere auch im ärztlichen, im pflegerischen Tun. Sie haben jetzt hier OSCE genannt, die Clinical Examination, die ja auch entsprechend geprüft wird. Da geht es auch um zwischenmenschliches Agieren. Aber man kann ja jetzt auch schon sehen, in Zukunft wird es vielleicht Dinge geben – siehe Blutdruck, da kommen wir gleich noch zu –, was vielleicht am Ende besser einfach Maschinen können. Dann haben wir auch das Thema Weißkittelhypertonie weg. Ich will zu der Gelegenheit einen Essay von Richard David Brecht reinbringen. Der ist von 2020. Künstliche Intelligenz und der Sinn des Lebens. Der hat damals prophezeit oder formuliert – seine Hypothese –, dass ganz viel heutige menschliche Arbeit in Zukunft von auch hochversiert, fachlich hochversierte Arbeit künftig Maschinen machen können. Und Blutdruckmessen könnte auch so was sein. Und eigentlich ist das damals, dieser Assey, ein Plädoyer für das Bürgergeld gewesen, aber ist man davon weggegangen. Wie könnte denn in einer digital klug unterstützten Welt – wir reden über Unterstützungssysteme – der ärztliche Beruf dann in Zukunft aussehen? Machen Sie doch mal eine Utopie.

Scherer: Die Utopie wäre die, dass man wirklich mehr Zeit in das investieren kann, für das man ausgebildet wurde. Und das sind diese ganzen administrativen Unterstützungen, nicht nur von Ärztinnen und Ärzten, auch vom ärztlichen Assistenzpersonal. Da ist ja sehr viel Telefonarbeit nötig, Terminierungsarbeit, Wiederholungsfolgerezepte und so weiter. Da können gute Chatbots – zum Teil wird es auch schon gemacht – sehr viel Zeit einsparen und auch unterstützen, ohne dass das dann am anderen Ende der Leitung als Qualitätsdefizit wahrgenommen werden muss. Und ansonsten, Herr Nößler, muss man jede einzelne Innovation so behandeln, wie wir das in diesem Podcast immer tun, immer nach dem Mehrwert fragen, nach Belegen für den Zusatznutzen fragen. Und dass dann einzeln abarbeiten. Und das ist das Problem an diesen Utopien, so eine Utopie – wir haben einmal eine Arbeit gemacht, zusammen mit Oldenburger Kollegen und Christina Spöhrer, über die Hausarztpraxis der Zukunft, wo wir so ein paar wünschenswerte Szenarien entworfen haben. Also jede Utopie besteht eigentlich aus einer Vielzahl von zu evaluierenden Einzelinterventionen. Das ist die Schwierigkeit daran, Utopien zu entwerfen. Das sind Mosaike aus vielen einzelnen Steinchen, wo sich hinter jedem einzelnen Stein eine ganze Forschungswelt verbirgt. Das ist die Schwierigkeit.

Nößler: Allein, um da mal bei dem Beispiel Dokumentation, beispielsweise der Arztbrief oder die Füllung auch der ePA, die, wenn es gut gemacht ist, durchaus medizinisch nützlich sein kann, das wäre so ein Mosaiksteinchen, so ein Bausteinchen, sagen Sie. Das müsste man einzeln dann durchgehen und dann muss man das erproben und idealerweise dann auch mit einer Studie begleiten und gucken, ist das Ergebnis gut oder vielleicht sogar besser.

Scherer: Genau. Sie haben noch mal die Mosaiksteinchen angesprochen. Also ein solches Mosaiksteinchen wäre dann tatsächlich, mal so eine Feasibility Study erst mal, dass man bestimmte Dokumentationshilfen oder administrative Unterstützungen in einem Cluster von verschiedenen Praxen untersucht, diesen Praxen dann Usual-Care-Cluster-Praxen gegenüberstellt, in denen es so läuft, wie es bislang auch war. Dann die Erfahrungen vielleicht erst mal qualitativ abgreift und dann eventuell noch den einen oder anderen quantitativen Endpunkt sich überlegt, Arztzeit oder eingesparte Zeit, vielleicht auch gesundheitsökonomische Analysen. Und das wäre dann so ein Mosaikstein, wie Sie es gesagt haben, mal so eine umschriebene administrative Lösung in verschiedenen Praxen mit Vergleichspraxen gegenübergestellt, zu untersuchen.

Nößler: Dann hätte ich jetzt fast gesagt: Dann machen wir es doch morgen einfach mal. Können wir uns mal vornehmen. Gehen wir diese Mosaiksteinchen vielleicht mal durch. Ganz verschiedene Mosaiksteinchen, die jetzt nicht alle miteinander kombinierbar sind oder aufeinander einzahlen, what ever. Aber alles so mögliche kleinere Ansätze, die man dann auch gut untersuchen muss. Und was wir heute machen wollen, ist, wir gucken in die Evidenz hinein. Wir gucken in die Literatur. Was wissen wir? Das sind nicht nur Ausätze, sondern eben auch Reviews und ganz ordentliche Arbeiten, wo man versucht hat, Beweise zu finden, ob uns KI-Systeme helfen können im konkreten Beispiel. Das Erste – und da habe ich direkt gezuckt – ist ein Review aus Nature Medicine, den Sie mitgebracht haben. Da geht es um die Zukunft der Krebsfrüherkennung. Wenn man jetzt da nur die ersten zwei Seiten sich anguckt, wird man sofort an den Begriff Heilsversprechen erinnert. Herr Scherer, klingelt es da bei Ihnen?

Scherer: Sprechen Sie jetzt mein Kurz- oder Langzeitgedächtnis an? Egal, in beiden Gedächtnissen finden sich Podcast-Episoden zu diesem Thema.

Nößler: Genau. In der letzten war das auch. Das Thema Missverständnis Früherkennung. Wenn man dann in diesem Aufsatz aber weiterliest, dann wird der interessant. Und wie so ziemlich alle dieser Aufsätze, die sind ja nicht ganz unkomplex, darf ich vielleicht sagen. Was ich hier aber spannend fand, ist, dass die dann relativ schnell das Thema one-size-fits-all infrage stellen. Also sagen, das ist ja heute unser Problem, bei so einem organisierten flächendeckenden Screening, dass ich halt immer auch so subklinische selbstemittierende Dinge detektiere und dann unnötig interveniere. Und die haben nur ein Beispiel, das sie betrachtet haben, das metastasierende Mammakarzinom. Und da haben die, wenn ich das richtig verstanden habe, so eine Art Idee entwickelt, wie man auch mit KI und Algorithmen gestützten Systemen eine bessere Risikostratifizierung hinbekommen könnte als heute. Das geht dann soweit: Daten aus Biobanken mit individualen Datenvergleichen, Mutationsmarkern, Risikofaktoren und so weiter. Und am Ende führt das, wenn ich das richtig verstehe, dazu, dass man daraus ein Risikokalkulator entwickeln könnte, der die Leute auf den besseren Behandlungspfad bringt. Also Harm und Benefits gut auseinanderzuhalten. Ist das das die schöne neue Welt? Ist sie zu schön oder klingt sie realistisch?

Scherer: Das hängt immer von dem Kontext ab. Denken Sie an das Schloss und den Schlüssel oder das Beispiel mit den zwei Bänken. Also, es kommt auf den Versorgungskontext an, in dem das eingekleidet ist. Die biologische Rationale dieser Idee ist nachvollziehbar und besteht eigentlich aus zwei Säulen. Die eine Säule ist, dass die Nachweismethoden immer empfindlicher werden. Und dass es schwierig sein kann, unbedeutende Veränderungen von Läsionen von denen zu unterscheiden, die einen lebensbedrohlichen Ausgang haben kann, maligne sein können. Und die zweite Säule ist die, dass unterschiedliche Datenquellen integriert werden sollten. Also dass man Merkmale zum individuellen Risiko hat, dass man eine Reihe von Testmethoden benutzt mit optionalen Leistungsmerkmalen, dass es bestimmte Sensoren bei Kontrastmitteln gibt, molekulare Methoden. Und daraus dann so eine Art Score entsteht. Auch da wieder, Herr Nößler, das muss man sich vorstellen, wie so ein Tool, wie so ein neues Gerät wäre dann so ein Score zu behandeln, der ähnlich wie die Mammografie auch, seinen Zusatznutzen als ein Baustein einer komplexen Intervention unter Beweis stellen müsste. Also erst mal natürlich als Einzelbaustein, aber dann natürlich noch als eingegliederter Baustein in einer Versorgungskette. Und das ist das, was oft vergessen wird, wenn so schöne neue Welten beschrieben werden, dass wir im Grunde genommen von ganzen Versorgungsketten sprechen.

Nößler: Also das eine, was auf dem Papier gut aussieht, mag auf dem Papier gut sein und in der Individualbetrachtung gut sein, aber man muss es dann ein bisschen globaler untersuchen. Was ich an dieser Arbeit interessant fand, die haben sich auch mit Dingen oder mit einem Ausblick beschäftigt, was so an diagnostischen Hilfsmitteln auf uns zukommen könnte, was Sie eben auch schon ansprachen aus der anderen Arbeit. Die haben da zum Beispiel gesagt: Naja, statt der heute üblichen Screeningdiagnostik mittels Computertomografie oder PET – um jetzt mal die krassen Dinger zu nennen – haben die dann gesprochen von implantierbaren Sensoren. Das kennen wir, Diabetes, Smart-Tattoos, das ist Farbe, die reagiert biochemisch, Nano-needle-Patches, künstliche Zellen, wahrscheinlich Zellklone oder Organoide oder virtuelle Klone, what ever. Wenn ich jetzt mal überlege, ich kann Strahlenbelastung reduzieren, müsste man da eigentlich sagen: Ey Leute, dranbleiben, untersuchen.

Scherer: Alles das, was die Patientensicherheit verbessert und das Nebenwirkungsprofil optimiert, sollte dann weiterverfolgt und dann entsprechend auch evaluiert werden.

Nößler: Sie haben eben meine Apple Watch angesprochen. Und die kann man tatsächlich so konfigurieren, wenn man das denn möchte, dass die anfängt rumzujammern, wenn sie ein mutmaßliches Vorhofflimmern detektiert. Also im Prinzip ein Frühwarnsystem. Es gibt eine Riesenstudie, die damals durchgeführt wurde. Und Sie haben einen Aufsatz mitgebracht aus der Augenheilkunde, wenn man den Autoren folgt, die jubeln förmlich darüber, was man da diagnostisch in Zukunft alles anders machen kann. Also ist das für Sie eine Aufbruchsstimmung? Oder ist es übertriebene Euphorie?

Scherer: Da würde ich das Buch von Urban Wiesing empfehlen, „Heilswissenschaften“. Er spricht dort von so einer euphorisierten Zukünftigkeit. Das ist ja auch eine paradoxe Zeit, in der wir leben. Auf der einen Seite wird alles schwarzgemalt, vielleicht auch zu Recht, angesichts der globalen Entwicklung. Und auf der anderen Seite gibt es so eine euphorisierte Zukünftigkeit, die bestimmte Innovationen mit besonderen Heilserwartungen überfrachtet. Und deshalb ist es, glaube ich, gut, die Sachen nüchtern anzuschauen. Vielleicht noch mal zu Ihrer Smart Watch oder Apple Watch, oder how ever. Natürlich freut sich dann der Kardiologe oder Ihr Hausarzt nicht darüber, wenn die Uhr meint, Vorhofflimmern zu erkennen und Sie zusammen mit vielen anderen dann in die Praxen laufen. Also das ist sicherlich dann auch so ein versorgungssystemisches Phänomen, das auch nicht wünschenswert ist, dass diese vielen Variables, die es da gibt, die Leute, die vielleicht schon etwas ängstlich sind, noch ängstlicher macht, aufwühlt und sie dann da Thema setzen in der Versorgung, das vielleicht Zeit kostet, was ohne dieses Tool vielleicht nicht generiert worden wäre.

Nößler: Also wird meine How-ever-Watch unnötigerweise einfach ärztliche Arbeitszeiten missbrauchen.

Scherer: Im schlimmsten Fall ja.

Nößler: Böse Uhr.

Scherer: Aber im besten Fall kann die Smart Watch oder die Apple Watch, wenn Sie natürlich eine Patientin oder einen Patienten mit persistierendem Vorhofflimmern, das symptomlos ist, dann kann so eine Uhr natürlich auch ein Segen sein. Das darf man nicht vergessen. Also es kommt wieder ganz genau darauf an, was ist es für eine Intervention, was ist es für ein Patient, was ist das für ein Kontext, in dem das verwendet wird.

Nößler: Wobei bei Letzteren, die Sie angesprochen haben, da ist das Teil dann einfach nützlich, weil man ein im Alltag gut integrierbares und auch in anderer Hinsicht nützliches Variable hat, das eine Verlaufskontrolle und eine Red-Flag-Diagnostik ermöglicht.

Scherer: Richtig. Die Euphorie in der Ophthalmologie, in der Augenheilkunde, die ist tatsächlich partiell gerechtfertigt.

Nößler: Warum?

Scherer: Weil es da sehr gute Tools gibt. Und das sagt auch die Übersichtsarbeit, die Sie zitiert haben oder die wir in die Shownotes packen, dass es jetzt wirklich sehr gute Bilderkennungsgeräte gibt. Das sind so Geräte, da stecken Sie Ihren Kopf rein, so wie Sie es vom Augenarzt auch kennen. Nur, dass am anderen Ende jetzt Ihnen am Tisch kein Augenarzt gegenübersitzt, sondern Sie stecken da einfach Ihren Kopf da rein. Und dieses Gerät ist in der Lage, drei sehr häufige Augenerkrankungen zu erkennen, die Makuladegeneration, die diabetischen Retinopathie oder auch das Glaukom. Und das ist eine absolute Innovation. Denken Sie nur an die regelmäßigen augenärztlichen Untersuchungen, die bei Diabetikern erforderlich sind, wenn man jetzt sagt: Es muss jetzt vielleicht nicht jeder Diabetiker regelmäßig zum Augenarzt. Sondern dann könnte man vielleicht auch mal so ein Gerät in die Hausarztpraxis stellen. Das sind alles Versorgungsszenarien, die denkbar sind. Aber auch hier bei so einem Augengerät, wie es mit dem Rabbit oder anderen, die es da gibt, haben Sie da ein riesiges Backend, diese ganzen Bildverarbeitungen, die dann vielleicht zum Teil online passieren, dann müssen wieder Datenschutzthemen gelöst werden. Wie geht es eigentlich weiter, wenn dann die Software einen auffälligen Befund identifiziert, der möglicherweise dann auch weitere Abklärungen nach sich zieht. Wie wird dann eine Augenärztin oder ein Augenarzt dazugeschaltet? Also das Tool ist das eine, aber die Einbettung in den Versorgungskontext ist das andere. Und deshalb auch hier noch mal: Die Versorgungskette ist entscheidend. Man muss bei allem, was man dann einsetzt, sich ganz genau das Versorgungsszenario überlegen, die Anwendungssituation überlegen, aber dann auch wie es weitergeht mit auffälligen Befunden.

Nößler: Wenn ich Sie richtig verstehe, war das jetzt gerade kein Plädoyer, dass jeder von uns sich so einen Apparat nach Hause in die Küche stellt, jeden Morgen mal reinguckt, um zu prüfen, ob er jetzt ein AMD endlich hat oder nicht.

Scherer: Nein, das eben genau nicht. Sondern das genaue Gegenteil. Ich muss mir genau die Fragestellung überlegen, genau den Anwendungsbereich. Und muss eigentlich vorher schon wissen, was ich mit den Befunden dann noch mache.

Nößler: Gerade Augenheilkunde ist ja spannend. Da haben wir auch eine radikale Unterversorgung in ganz vielen Bereichen in Deutschland. Wir wissen auch, konservative Augenheilkunde wird immer schwieriger. Da könnte das, wie Sie sagen, tatsächlich in der Primärversorgung, wenn das gut validiert ist so ein Apparillo, eine Option sein, wo man sagt: Ich habe ein MVZ, da habe ich so etwas drin, da habe ich jetzt keine Ophthalmologin in der BAG und meine Diabetiker, die lasse ich da einmal im Jahr reingucken. Wenn ich da was auffällig sehe, dann kann ich die Überweisung angehen.

Scherer: Ja, zur Unterstützung am Case Finding zum Beispiel. Da wird wieder Arztzeit frei.

Nößler: Das scheint fast schon einer der roten Fäden zu sein im Gespräch. Wollen wir einen Schritt weitergehen, Herr Scherer?

Scherer: Sehr gerne.

Nößler: Bildgebung, haben Sie jetzt schon gesagt, das ist eins der ganz, ganz großen Felder mit Deep Learning, mit Mustererkennung letztlich durch dieses Deep Learning, wo man relativ viel Erfolge erzielt. Auch in der Dermatologie wird unheimlich viel daran geforscht, Mustererkennung. Wir haben noch eine Arbeit aus dem letzten Juni. Da geht es um Gliom und Artificial Intelligence, ist eine größere Autorengruppe aus China und den USA. Und Deep-Learning-Ansatz, auch da wieder Bildgebung drin, MRT, Histologie, wenn ich es richtig gesehen habe, mit dem Ziel, aus all diesen massiven Daten aus ganz verschiedenen Ecken heraus, dann letztlich Klassifizierung, Trading, Segmentation, Differenzierung, Molekolarisierung und dann bis hin über diese Daten, eine Abschätzung machen zu können, welche Therapie möglicherweise welchen Outcome haben könnte. Auch diese Arbeit ist ein richtiges Brett. Und auch diese Autoren, die wirken richtig schwer begeistert. Aber am Ende, wenn ich die Arbeit richtig verstanden habe, so richtig durchevaluiert ist das auch alles noch nicht.

Scherer: Das ist genau das Problem. Die Idee ist erst mal gut, dass man sagt, es gibt auch hier unterschiedliche Datenquellen, bildgebende Daten, die digitale Pathologie, Multiomics-Daten. Vielleicht können Sie dann gleich noch mal erklären, was das ist.

Nößler: Da haben Sie Proteomik drin, Genomik, all diese Dinge.

Scherer: Genau. Und diese Scores, die da entstehen, die müssen erst mal validiert werden und dann brauchen Sie Folgestudien, die zeigen, dass die Implementation der Scores dann auch die patientenrelevanten Outcomes verbessern.

Nößler: Validieren, validieren und nochmals validieren. Den Ausblick, den die machen – und jetzt beginnen wir wieder utopisch zu werden und ich ahne Ihre Antwort – ist nicht uncharmant. Den haben Sie an anderer Stelle vorhin auch schon angedeutet. Nämlich wenn diese Geräte gelingen, wenn diese Verfahren, die die dort schildern und testen wollen, gelingen, dann könnte es aus deren Sicht sehr hilfreich sein, das große Problem, das wir heute haben, besser zu lösen in der Zukunft, nämlich dass heute viele falsche Leute die falschen Interventionen oder nicht die richtigen Interventionen bekommen. Also die Idee wäre doch gut.

Scherer: Die Idee ist auch gut, Herr Nößler. Ich will da auch gar kein Wasser in den Wein gießen. Aber denken Sie an den letzten Podcast zurück, wo wir wirklich sehr schwerwiegende Versorgungsprobleme in unserem Gesundheitssystem diskutiert haben, Inverse Care Law bis hin zu den Problemen der Über-/Unterfehlversorgung, dass die falschen Personen die falsche Medizin kriegen. Das ist ja nicht nur ein Problem des Inverse Care Law und der sozialen Ungleichheit und des fehlenden Zugangs, sondern es ist auch ein Problem einer angebotsinduzierten Nachfrage und vielen anderen Fehlanreizen im Gesundheitssystem. Ich bin skeptisch, Herr Nößler, dass diese komplexen Probleme des Gesundheitssystems durch Maschinen lösbar sind. Im Gegenteil. Wenn wir wollen, dass technische Innovationen im Gesundheitssystem der Zukunft gewinnbringend eingesetzt werden können, dann müssen wir die Versorgungsprobleme, die jetzt schon da sind, in den Griff kriegen.

Nößler: Das klingt gar nicht mal so utopisch.

Scherer: Vielleicht kann ich Ihre Laune wieder verbessern. Machen Sie mal weiter.

Nößler: Okay. Ich will mich jetzt hier ganz sicher nicht als technikgläubig outen. Also ich bin es erstens nicht, nur weil ich eine Apple Watch habe. Aber ich bin auch nicht der große Technikpessimist, gebe ich zu. Sie hatten eingangs gesagt, das große Thema tolle KI, tolle Maschine, alles schön. Aber die Studie muss ja erst jemand machen. Das kann eben die Maschine nicht. Ich will, auch ein bisschen utopisch bedacht, das Ganze mal umdrehen und sagen: Vielleicht hat Herr Scherer mit dieser Idee gar nicht recht. Stichwort Risikorechner hatten wir eben. In der Haushaltspraxis haben wir auch Risikorechner, Ariba, klassisch. Und hinter Ariba stecken immer Studien, große Studien, Validierungen, damit das halbwegs verlässliche Aussagen und Schwankungsbreiten sind und Risiken, die man da sehen kann. Und jetzt haben Sie gesagt, diese Studie muss jemand machen. Dafür braucht es Menschen mit Sinn und Verstand, letztlich Forschende. Jetzt bin ich mal ein bisschen – Sie dürfen das „naiv“ nennen. Gesetzt dem Fall, es könnte uns gelingen, Menschen im Gesundheitswesen mit den Daten, die sie in diesem Gesundheitswesen produzieren, in irgendeiner Weise, also deren Daten, anders nutzbar zu machen. Und wenn ich jetzt zum Beispiel mir – und das ist jetzt eine Art von Utopie – folgendes Szenario vorstelle: Sie als Versorgungsforscher könnten dann in 20 Jahren einer KI eine Forschungsfrage stellen. Sie würden nämlich der KI eine Forschungsfrage stellen: Bringt mir die frühzeitige Erkennung innerhalb einer U9 des LDl-Spiegels etwas beim Outcome kardiovaskulärer Ereignisse? Diese Forschungsfrage können Sie stellen. Und dann würde diese KI losmarschieren und würde sagen: Okay, ich weiß, welche Population du untersuchen willst, ich weiß, worum es geht. Und ich versuche mal, basierend auf diesem Register aller Menschen im System eine prospektive Studie zu konstruieren. Ich rekrutiere automatisch für dich die Leute nach deinen Ein- und Ausschlusskriterien. Und dann erhebe ich für dich die Daten im Hintergrund. Du musst mir nur noch helfen, sie gut auszuwerten. Ist das so unrealistisch, so eine Idee?

Scherer: Zumindest sind Sie gerade dabei, mir jetzt wieder ein bisschen gute Laune zu machen, weil ich mir gerade vorstelle, dass die Maschine dann auch die Drittmittelanträge schreibt und die Ethikanträge.

Nößler: Ja, zum Beispiel, genau. Die hat eine Schnittstelle zur DFG, genau.

Scherer: Genau. Und sich mit den Datenschutzfragen befasst. Und dann wird meine Laune gleich wieder ein bisschen schlechter, weil mir – assoziativ wie ich bin – dieser Spruch in den Sinn kommt: Garbage In, Garbage Out. Also da wäre auch die Frage, auf welche Datenquellen die KI zurückgreift. Ich glaube schon, dass es so was geben kann und auch geben wird, dass es automatisierte Analysen gibt. Zum Teil sind Ansätze schon dafür vorhanden. Allerdings stellt sich dann die Frage nach der Generierung von brauchbaren Daten aus dem Versorgungsgeschehen heraus. Und da haben wir es wieder, Herr Nößler. Das sind Aufgaben, die müssen wir jetzt machen und die müssen wir jetzt anpacken. Wenn wir das nicht gebacken kriegen mit der elektronischen Patientenakte und wir es nicht hinkriegen, aus dem Versorgungsgeschehen heraus brauchbare Daten für die Forschung zu generieren, dann können Sie auch noch so eine tolle KI ans Backend setzen, die kann dann auch nichts mehr damit anfangen, wenn wir diese Hausaufgaben nicht gemacht haben. Das heißt, wenn wir jetzt dafür sorgen, uns so aufzustellen, dass wir die Patientenakte auch so aufbauen, dass wir die Forschung direkt mitdenken, dann schaffen wir praktisch die Voraussetzungen für so was. Aber wenn wir jetzt eben nicht in solche Datenquellen investieren, dann macht es plopp und Ihre ganze schöne Forschungsutopie zerspringt wie eine Seifenblase.

Nößler: Darf ich Ihnen noch mal gute Laune machen vielleicht an der Stelle?

Scherer: Probieren Sie es. Ich glaube, es geht schief.

Nößler: Das ist ja hier mein Job. Das wird sicherlich nicht schiefgehen, da wäre ich jetzt sehr enttäuscht. Das DESAM-ForNet, das Netzwerk der Forschungspraxen-Netze in Deutschland baut ja gerade so etwas auf. Ich glaube, mit einer Arbeitsgruppe in Tübingen oder Freiburg, ich weiß nicht ganz genau. Die vernetzen nicht nur die Forschungspraxis-Netzwerke, sondern die wollen ja gerade so eine Infrastruktur aufbauen, wo interoperabel hochstandardisiert aus den teilnehmenden Forschungspraxen genau diese Daten bereitgestellt werden können, dass man eben gerade kein Garbabe hat. Also da gibt es ja durchaus Leute, die sagen: Ja, der Scherer hat recht, wir bauen da mal was.

Scherer: Gut, jetzt zeigen Sie mir, welche Blumen wir in unserem eigenen Garten haben. Das sind natürlich genau die richtigen Ansätze. Und deshalb hat ja DEGAM und DESAM zusammen auch diese Initiative auf den Weg gebracht. In die Richtung muss es auch gehen. Aber ich habe jetzt noch mal darüber hinaus gedacht und wollte einfach noch mal das Schlaglicht auf die elektronische Patientenakte werfen. Dass die eben nicht nur ein Patientenverwaltungstool sein darf, sondern für Studiendaten auch die entsprechende Voraussetzung mitbringen muss.

Nößler: Das ist ja in der Tat auch die Basis des entsprechenden DigiG, das im Februar in Kraft treten wird und des Gesundheitsdatennutzungsgesetz, das da damit dranhängt. Da geht es genau darum, was Sie sagen, dass man eine vernünftige ePA schafft auf ordentlichen Standards, das ist die Firebasis hier, das ist der Datenstandard mit ordentlichen MIOs, dass man damit auch vernünftige Forschung machen kann. Ich will noch einen Schritt weitergehen, Richtung Daten erheben. Da sind sich, glaube ich, alle einig: Ohne eine vernünftige ePA und Datenstruktur brauchen wir über KI nicht nachdenken. Was mir oftmals so auffällt beim Thema KI beziehungsweise eigentlich Deep Learning, darum geht es ja eher, weil diese Maschinen funktionieren nur dann, wenn man sie trainieren kann. Das hängt mit allem zusammen. Ob jetzt LLM Wahrscheinlichkeitsrechnung, neuronales Netzwerk ist dabei völlig egal. Sie brauchen unheimlich viele Trainingsdaten, damit die Signifikanzen finden, Muster finden können, mögliche Zusammenhänge. Wenn wir die Hoffnung haben, dass Maschinen uns damit irgendwann mal helfen können, müssen wir uns da nicht zwangsläufig nackig machen müssen?

Scherer: Und wo soll das hinführen, dass die Maschine uns unsterblich macht?

Nößler: Naja, unsterblich? Aber zumindest vielleicht – ich weiß nicht, was ist denn so der Wunsch der Menschen? Ja, es gibt Leute, die wollen unsterblich sein. Andere wollen alt werden und gesund bleiben.

Scherer: Ja. Herr Nößler, die Geschichte der Menschheit ist voller Versuche, dem Tod zu entkommen. Also, denken Sie an die Wunderheiler. Vor 100 Jahren hat in Frankreich jemand die Idee gehabt, das menschliche Leben durch die Transplantation von Affenhoden zu verlängern. Dann gab es vor wenigen Jahren ein Startup, dass man in Kalifornien das Blutplasma von Unter-25-Jährigen als Jungbrunnen verkauft hat. Es gibt übrigens einen russischen Internetunternehmer, der bis zum Jahr 2035 ein Avatar samt künstlichem Hirn bauen will und dass er die Persönlichkeit eines Menschen kopieren will. Und deshalb hier einfach mal auch ein Buchtipp an dieser Stelle. Ich weiß nicht, ob Sie das Buch kennen von Moritz Riesewieck und Hans Block. Das Buch heißt: „Die digitale Seele“. Und das Ziel, das in diesem Buch beschrieben wird, das ist nur mehr die physische, sondern die digitale Unsterblichkeit. Also dann gibt es einen digitalen Doppelgänger.

Nößler: Das ist dann Ihr Twitter-Profil.

Scherer: Nein, das ist mein Podcast-Nachfolger. Also nachdem ich den Löffel abgegeben habe, kann dann mein digitaler Doppelgänger mit Ihrem Doppelgänger, weil Sie dann auch den Löffel abgegeben haben. Die unterhalten sich dann bei Ärztezeitung.Space oder was weiß ich. Die unterhalten sich dann mit unseren Stimmen, relativ individuell. Und bei fortgeschrittenen KI-Varianten entstehen auch Konservationen, wo Gedanken und Ideen rauskommen mit unseren Stimmen, die über das hinausgehen, was wir zu Lebzeiten im Podcast entwickelt haben, die digitale Seele.

Nößler: Das ist eine Utopie. Weil das würde diese Intelligenz, diese Kreativität voraussetzen, wo man sagt: Kreativität könnte ein Anzeichen für Intelligenz sein, wenn dann mit dem Wissen diese digitale Seele neue Gedanken entdeckt. Ich kannte dieses Buch nicht, „Digitale Seele“, habe es mir gerade aufgeschrieben. Werde ich mir kaufen und nicht in die Shownotes schreiben, damit es mir die anderen nicht wegkaufen – nein, Quatsch, wir machen einfach beides. Kommt in die Shownotes. Wir kommen auf das Thema Daten gleich noch mal zurück. Vielleicht noch mal anders: Also Sie haben gesagt: Ja, digitale Seele. Da steckt auch eine fette Dystopie natürlich drin. Das gehört immer mit dazu. Das muss jetzt noch nicht einmal ein Weltuntergangsszenario sein, sondern ich gebe Ihnen ein anderes Beispiel: Auf Ihre Frage: Was machen wir denn mit diesen ganzen tollen Daten, wenn wir zwei digital total nackig sind? Ich gebe Ihnen ein anderes Beispiel: Ich Anfang/Mitte 40, Sie zwei Tage älter, wir haben jetzt nicht vor, dass wir morgen den Löffel abgeben wollen. Und das, was man niemandem wünscht, ist, dass in so einer Lebensphase eine Malignität entdeckt wird. Das passiert aber vielen Menschen. Und was diese Menschen sich wünschen, ist, dass sie die bestmögliche Therapie bekommen. Und dann kommt die sogenannte Präzisionsonkologie auf den Plan, die eigentlich auch nur das will und die dann versucht, über Mutationsmuster herauszufinden, welches Therapieschema könnte dieser Person wirklich helfen. Und die setzen in der Onkologie enorm Hoffnung auf diese Daten. Aber gerade dort haben wir ja so wenig Daten. Also, ist nicht aus diesem Use-Case durchaus nachvollziehbar, dass wenn ein relativ junger Mensch so ein Leiden hat, der Wunsch, dass man ihm dann hilft und dann auch nachgelagert die Idee: Wenn es die Daten gibt und die könnten anderen wie mir in Zukunft besser helfen – der ist nachvollziehbar, oder?

Scherer: Das ist mehr als nachvollziehbar, Herr Nößler. Ich kann nur dazu überhaupt nichts sagen. Das könnte ich eigentlich nur, wenn genau dieser Ansatz dann auch in dem Format einer wissenschaftlichen Originalarbeit nachzulesen wäre, mit allem Drum und Dran, also mit Anleitung, Methoden, Ergebnissen, Diskussionen. Und das ist genau das, wo wir am Anfang schon mal waren, Herr Nößler. Diese ganzen Utopien, die setzen an sehr komplexen Zukunftsvorstellungen an. Man muss sie letztlich runterbrechen auf evaluierbare Einzelbausteine, die dann auch ihren Zusatznutzen einfach belegen müssen. Ich weiß, das ist eine totale Spaßbremse. Aber anders wird es nicht funktionieren.

Nößler: Ich meine, Wissenschaft ist jetzt per se nicht zum Happening gemacht. Manchmal auch, wenn man die Publikation endlich eingereicht hat. Aber das gehört dann vielleicht auch ein bisschen dazu, diese notwendige Ernüchterung. Lassen Sie uns weiterziehen. Vielleicht das Thema Onkologie oder generell Studien, die versuchen solche Systeme zu untersuchen und zu validieren oder eben nicht validieren – kann man sicher hier und da noch mal anschauen. Ist dann die Frage, ob es jetzt in die hochtiefe Präzisionsonkologie muss, heben wir uns mal auf. Wir wollen noch mal weiterziehen Richtung Chatbot. Da haben Sie ja schon einiges zu erzählt und einiges, was da kommen könnte. Und da haben Sie eine Arbeit mitgebracht aus dem „Journal of Medical Internet Research“. Ich wusste bis dato gar nicht, dass es dieses Journal gibt. Kannten Sie das vorher?

Scherer: Wie sagte schon Angela Merkel vor wenigen Jahren: Das Internet ist für uns alle Neuland.

Nößler: Das ist ziemlich genau zehn Jahre her.

Scherer: Also ja, ich kannte das schon.

Nößler: Herr Scherer kannte es natürlich. Ich habe mich wieder als Unwissender geoutet. Jedenfalls, Sie haben ein systematisches Review dadrin gefunden, der sich eben mit dem eben besagten Dialogsystem beschäftigt, die auf so einer LLM basieren. Und jetzt haben wir den Kreis zur Notfallreform, die wir initial thematisiert haben. 116, 117 zum Beispiel. Und jetzt stelle ich mir vor, ich rufe künftig bei der verknüpften Leitstelle an und da ist erst mal ein Apparat dran. Und der fragt mich: Was kann ich für Sie tun? Und ich sage: Das und das. Und der versteht das irgendwie. Und im Zweifel, was jetzt auch passieren soll, dass die Leitstellen im Zweifel sogar Nofallmedikation rezeptieren. Und dann kann künftig dieser Apparat mir direkt ein Muster 6 schicken, e-Rezept natürlich, völlig klar. Das ist jetzt mal meine Überlegung dazu. Dieser Review, Herr Scherer, hat 31 Arbeiten gefunden und wie immer, wen wundert es, gemischte Evidenz. Was können solche Systeme?

Scherer: Die Evidenz war gemischt und es waren auch die qualitativen Wahrnehmungen der Benutzer gemischt. Und hier kommt es wieder, einen Satz, den Sie jetzt zum allerersten Mal hören, wahrscheinlich: Die Qualität vieler Studien war begrenzt und ein verbessertes Studiendesign und eine verbesserte Berichterstattung sind notwendig.

Nößler: Ich bin irritiert, ja.

Scherer: Völlig neu, oder?

Nößler: Völlig neu, ja.

Scherer: Noch nie gehört, auch noch nie gehört als Schlussfolgerung in einem systematischen Review. Also, das ist genau das, was ich eben auch zum Ausdruck bringen wollte. Es können die Interventionen noch so intelligent und vielversprechend sein, wenn dann die systematischen Übersichtsarbeiten zu der Schlussfolgerung kommen, dass die methodische Qualität der Evaluationsstudien verbesserungsbedürftig ist, dann hilft uns das eben auch nicht weiter.

Nößler: Das bekannte Plädoyer: Macht bessere Studien, macht mehr Studien, macht die richtigen Studien.

Scherer: Allerdings muss man auch dazu sagen, diese Arbeit, die wir jetzt gerade besprechen, die ist 2020 publiziert worden, die Entwicklung auf diesem Gebiet der Chatbots, die ist extrem schnell. Und viele Studien dieses Reviews sind einfach auch veraltet.

Nößler: Das heißt, Sie würden davon ausgehen, dass sich allein bei diesem Chatbot, diesem System – ChatGPT ist jetzt knapp zwei Jahre bekannt – Etliches getan hat seither?

Scherer: Das würde ich annehmen.

Nößler: Also, würde man diesen Review jetzt noch mal neu machen. Das könnte ja auch noch mal Sache für Cochrane sein, die das ja immer in neuen Versionen dann auflegen. Könnte es sein, dass man schon mehr Evidenz findet. Die Frage ist dann nur, ist sie besser geworden.

Scherer: Ja, das würde ich auch so sehen.

Nößler: Herr Scherer, weil wir das Thema Ethische Dimension ansprechen müssen, ganz sicher nicht abschließend, wollen wir vielleicht noch mal als Vorletztes hier reingehen mit einer Arbeit aus der Primärversorgung. Jetzt waren wir in der Ophthalmologie unterwegs, wir waren in der Onkologie unterwegs. Primärversorgung Bluthochdruck, da haben Sie ein Review in die Shownotes reingepackt aus Asia, aus den asiatischen Ländern, Großautorengruppe aus dem Jahr 2021, da ist sie veröffentlicht worden. Und da geht es darum, mittels Telemedizin und auf Big-Data-basierter Abschätzung, also wahrscheinlich Übertragung der Millimeter-Hg-Werte, eine Art Prädiktion, wie wird sich dein Hochdruck entwickeln, um damit in Erfahrung zu bringen aus der Ferne: Wie bist du eingestellt? Müssen wir da was tun? Und da haben wir wieder die von Ihnen eben schon erwähnten Sensoren und Smartphones und meine How-ever-Watch. Und natürlich sagen auch die: Jetzt darf ich den Scherer wieder paraphrasieren: Es braucht große Beobachtungsstudien und vor allem randomisiert kontrollierte Studien. Aber auch da wird von den Autoren schon ein absehbar großer Nutzen hinsichtlich Bluthochdruckmanagement erwartet. Wie bewerten Sie das?

Scherer: Der absehbar große Nutzen, den würde ich unter der Überschrift „Euphorisierte Zukünftigkeit“ setzen. Ich bin skeptisch, dass man schon jetzt Aussagen machen kann über die gesamte Versorgungsstrecke der Hypertonie. Die fängt an bei der Aufklärung, beim Aufklärungsgespräch. Geht dann weiter über Adhärenzfragen bei einer lebenslangen Therapie der Durchführung von nichtmedikamentösen Therapiemaßnahmen. Dann der Einhaltung von medikamentösen Maßnahmen. Da dann im Kontext eines holistischen Präventionskonzepts auch am Ball zu bleiben. Also ich weiß gar nicht, wo ich da zuerst anfangen soll. Denn Sie wissen, dass wir den Bluthochdruck immer auch im Kontext anderer Risikofaktoren behandeln und dass wir immer auch das gesamte kardiovaskuläre Risikoprofil behandeln. Und deshalb muss man genau wissen, an welcher Stelle dieses ganzen Versorgungskosmos jetzt so eine KI oder so ein Tool, so ein Big-Data-basierter Ansatz weiterhelfen kann. Nehmen wir einfach mal ein Mosaiksteinchen raus. Sie oder die Autoren sagen, es ist möglich, Blutdruckverläufe vorherzusagen. Dann muss ich ziemlich genau wissen, an welcher Stelle der Versorgung mir das wie weiterhilft. Sind wir dann bei einem Ariba-ähnlichen Ansatz mit Smileys, mit gelben und mit roten Smileys? Was soll das dann wieder bewirken? Macht das vielleicht die Adhärenz besser bei nichtmedikamentösen oder bei medikamentösen Maßnahmen? Was ich damit sagen will, wir haben es hier mit einer Erkrankung zu tun, die eine lebenslange Betreuung und eine lebenslange Aufmerksamkeit verdient, die Lebensstilmaßnahmen zur Folge hat und medikamentöse Maßnahmen und Monitoringfragen. Und da ist dann der Use-Case ganz klar zu definieren. Und diesen einzelnen Use-Case wiederum muss man dann auch evaluieren.

Nößler: Das ist so eine Antwort, die haben Sie für heute echt auf Taste, ne?

Scherer: Ich hoffe, dass ich die Leute damit nicht langweile. Ich versuche es auch jedes Mal ein bisschen anders zu formulieren. Haben Sie das gemerkt, dass ich da versuche, so ein bisschen Variation reinzubringen? Ich habe jetzt zum Beispiel das Wort Use-Case benutzt.

Nößler: Den haben Sie bei mir geklaut. Sie machen das total fabelhaft. Auf der anderen Seite, Sie sind auch schon so ein bisschen, jetzt hätte ich fast gesagt „sauer“, aber auch so ein bisschen verärgert über diese – ich zitiere Herrn Scherer – „euphorisierte Zukünftigkeit“, die man als Ablenkung von dem, was das Zeug eigentlich kann, verstehen kann.

Scherer: Naja sauer nicht, aber sagen wir mal überdrüssig und genervt.

Nößler: Okay. Das ist doch schön. Martin Scherer ist überdrüssig und genervt der euphorisierten Zukünftigkeit. Das ist so eine echte Antischlagzeile. Aber ich habe es mir trotzdem mal aufgeschrieben. Dennoch, ich will noch mal kurz bleiben in der Primärversorgung. Hochdruck. Also natürlich sagen Sie, wo jetzt jeder auch nicken wird: Wir müssen das immer in den Kontext sitzen. Einfach nur den Bluthochdruck blöd messen, damit ist noch nichts gewonnen. Aber denken wir an die Typ-2-Diabetes oder Typ-1-Diabetes, ganz egal, wo es heute schon echt fast Usual Care, kann man das sagen, ist, dass die Leute, wenn sie es wollen, sich dieses Patches in den Oberarm stecken. Und dann wird quasi über das Handy gemessen. Also das ist die Gewebeglukose und dann wird geschätzt, wie ist die Blutglukose. Und dann kann das Handy sogar einer Insulinpumpe schon ein Signal geben und reinjubeln. Also die Dinger sind ja schon in der Anwendung. Und das jetzt gedacht Richtung Millimeter-Hg bei denjenigen, wo es helfen kann.

Scherer: Das ist ein schönes Beispiel, der Vergleich mit den Diabetes-Patches. Das kann für den einen Diabetiker eine absolut sinnvolle Lösung sein und für den anderen eher nicht. Und das muss man abwägen. Also ich habe da auch die Erfahrung gemacht, dass beide Auswege möglich sind. Es gibt Patienten, die davon sehr profitiert haben. Andere wiederum haben erst mal stark Gewicht zugenommen. Das sind Patienten, bei denen hätte man vielleicht einen viel höheren Blutzucker toleriert, vielleicht auch einen höheren HbA1c toleriert. Aber diese Kopplung von Patch und Insulinpumpe nimmt einem das dann ab. Und dann sind die Patienten zum einen viel strenger eingestellt, kriegen dann auch mehr Insulin, nehmen dann auch Gewicht zu. Also das sind überhaupt keine einfachen Themen.

Nößler: Das heißt, durch so eine Durchalgorithmisierung der Intervention in dem Fall, die sehr binären Mustern folgt, wird eigentlich die ärztliche Kreativität beziehungsweise das Rückenmark unterwandert.

Scherer: Ich würde noch weitergehen. Wenn man nicht aufpasst, die Patientenautonomie, die ärztliche Entscheidungsfreiheit und Konzepte, die Shared Decision-Making werden möglicherweise über den Haufen geworfen, wenn individuelle Therapieentscheidungen durch Algorithmen vorweggenommen werden.

Nößler: Ich stelle mir gerade Shared Decision-Making mit ChatGPT vor. Hat ja eben schon nicht so gut geklappt. Herr Scherer, wir haben es schon wieder 1 Stunde, 15 Minuten auf der Uhr. Die Ethik müssen wir mitnehmen. Weil da kommen wir nicht drum herum. Wir haben eine Ethikratsempfehlung, die ist ein knappes Jahr alt, und Sie haben etwas mitgebracht zu diesem Thema. Das sollten wir noch dringend durchgehen, auch wenn es jetzt erst mal nur wahrscheinlich kursorisch ist, aber Ethik gehört da mit rein. Weil Sie haben schon so viele ethische Fragen eigentlich aufgeworfen. Sie haben ein Mapping Review mitgebracht. Jetzt müssen Sie leider zur Kenntnis nehmen, Herr Scherer, dass nicht die ganze Welt aus Review-Autoren besteht wie Sie. Helfen Sie uns bitte auf die Sprünge. Was unterscheidet ein Mapping Review von einem normalen systematischen Review?

Scherer: Bei Mapping Reviews macht man eine visuelle Synthese der Daten. Und diese Mapping Reviews haben in der Regel Fragestellungen, die relativ umschrieben sind, anders als die Themen eines Scoping Reviews, die etwas weiter gefasst sind. Also Mapping Reviews sind am besten dann geeignet, wenn es eine riesige Fülle und Vielfalt von Forschungsergebnissen gibt, aber die Fragen dennoch einigermaßen klar formulierbar sind.

Nößler: Da bringt man das quasi alles mal irgendwie so auf den Tisch und verschafft sich einen Überblick und schaut, wie hängt da etwas miteinander zusammen.

Scherer: Ja.

Nößler: So grob. Falls da draußen jemand noch mal wissen will, wie das genau geht, wie man so ein Mapping Review in der Hausarztpraxis selbst machen kann, bitte anrufen – nein, bitte eine E-Mail schreiben. Das ist ein Review aus dem Jahr 2020. Jetzt könnte man unterstellen, die ethischen Fragen haben sich seither vielleicht nicht so krass geändert wie die eher technischen Gegebenheiten. Es geht um Ethik bei, Einsatz von Artificial Intelligence in der Medizin. Und wenn ich das richtig mitgenommen habe, haben die am Ende drei ethische Aspekte herausgearbeitet auf ganz vielen verschiedenen Ebenen, nämlich epistemische Aspekte, normative und was das Thema Rückverfolgbarkeit angeht. Toll, was heißt das?

Scherer: Was heißt das? Das heißt, dass ein einheitlicher Standard für die ethische Bewertung von KI-Gesundheit erforderlich ist.

Nößler: Wir brauchen einen normativen Rahmen.

Scherer: Das ist es, genau.

Nößler: So schnell haben Sie noch nie ein Review hier besprochen.

Scherer: Sie haben gesagt, dass wir schon eine Stunde 15, jetzt wahrscheinlich 1 Stunde 20 auf der Uhr haben. Und wir wollen auch die Zuhörerinnen und Zuhörer nicht verlieren. Wenngleich das natürlich ein hochspannender Podcast mal wieder ist.

Nößler: Also der Vorteil ist ja, die Arbeit ist sowieso verlinkt. Ich bin mir nicht sicher, ob sie Open Access war. Im Zweifel fragt man sowieso immer Kolleginnen und Kollegen, die noch mal einen Zugang haben. Verlinkt ist es sowieso. Gehen wir noch mal weiter. Also wir brauchen einen normativen Rahmen. Es führt uns ins Frühjahr 2023, vor ziemlich genau einem Jahr. Der deutsche Ethikrat, der in diesem Jahr im Übrigen neu berufen werden wird, hat damals seine superfette Empfehlung veröffentlicht: Mensch und Maschine, wo es eben auch um das Thema KI in der Medizin geht. Und da wird natürlich auch die normative Setzung letztlich eingefordert. Und was ich dadrin spannend fand – es ist nur einer von tausend Aspekten, die da drinsteht –, dass sie gesagt haben, dass wir unheimlich hohe Anforderungen an die Qualität von Trainingsdaten eigentlich setzen müssen, nämlich dass Patientengruppen nicht untergehen, dass wir keine Biases produzieren in der KI, dass es Plausi-Prüfung geben muss bei der Erfassung dieser Daten. Also die argumentieren damit, einen möglichen Automation-Bias und so weiter und so fort. Dann ist man an den Punkt: Wie machen wir das alles vernünftig? Also wie machen wir vor allem die Maschine vernünftig, Herr Scherer? Jetzt sagen Sie nicht, dafür brauchen wir Menschen.

Scherer: Anders. Ich würde mir ausnahmsweise mal herausnehmen, mit einer schnippischen Gegenfrage zu antworten und Sie zu fragen: Wie wäre es, wenn wir erst mal mit der Vernunft des Menschen anfangen?

Nößler: Da ist einiges zu tun, meinen Sie. Ja.

Scherer: Da ist einiges zu tun. Also für Aristoteles ist ja die Vernunft die herausragende Fähigkeit des Menschen, die ihn dann wiederum als Zoologicon definiert, als vernunftbegabtes Tier. Und die Vernunft besteht aus unterschiedlichen Einzeldimension, aus der Unabhängigkeitskompetenz, aus der Selbstbestimmung, aus der Fähigkeit, den eigenen Schweinehund überwinden zu können und aus der Fähigkeit, die einzelnen Ziele unseres Lebens so unabhängig wie möglich selbst zu bestimmen. Und jetzt kommt es, Herr Nößler, Vernunft braucht also ein eigenes Bewusstsein. Helfen Sie mir weiter, aber soweit ich weiß, ist eine Maschine mit Bewusstsein noch nicht in Sicht.

Nößler: Dann sind wir dann in der Dekartecke, sie ist sich ihrer nicht bewusst. Cogito ergo sum. Und wenn man noch mit so ein paar tollen Sentenzen hier um uns werfen wollen, mit dem Sapere aude, lieber Herr Scherer, klappt es im Moment in unserer Gesellschaft auch nicht jeden Tag so gut.

Scherer: Nein. Das ist es, genau. Also: Habe Mut zu wissen oder habe Mut nachzudenken.

Nößler: Habe Mut, dich deines Verstandes zu bedienen. Das sagte doch der alte Kant. Habe Mut. Und diesen Mut sucht man ja doch hin und wieder im Moment. Jetzt stelle ich Ihnen eine Frage, die Sie schon achtmal beantwortet haben oder zehnmal, ich weiß es nicht. Ich habe da jetzt keine Checkliste geführt. Aber wenn ich noch mal in dieser Ethikratstellungnahme drin bleibe bei der Medizin. Wie gesagt, da sind ganz viele Dinge drin, die jetzt hier durchzuarbeiten – ach, da sitzen wir übermorgen noch. Aber die Sache, die Sie schon mehrfach beantwortet haben, nämlich dass es die Menschen in Medizin und Pflege weiter brauchen wird, weil sie ganz spezifische Dinge können, weil sie im Zweifel vernünftiger sind als ein Apparat oder eine How-ever-Watch. Das teilt der Ethikrat nicht ganz so, diese Einschätzung. Zum Beispiel steht da drin, dass die glauben, dass KI-Systeme Ärzte und Psychologen, insbesondere bei der Psychotherapie, in Zukunft durchaus vollständig ersetzen könnten. Davon gehen die aus. Da widersprechen die Ihnen auch gar nicht. Sie hatten ja eben diese Chatbots selbst angesprochen. Und der Ethikrat schreibt dann: Eine vollständige Ersetzung der ärztlichen Fachkraft durch ein KI-System gefährdet aber das Patientenwohl und ist auch nicht dadurch zu rechtfertigen, dass schon heute in bestimmten Versorgungsbereichen ein akuter Personalmangel besteht. Es bedürfe immer eines personalen Gegenübers. Also da ist jetzt eigentlich gar kein Widerspruch zu Martin Scherer drin. Jetzt habe ich aber ein Problem, Herr Scherer. Wenn wir unsere Menschheit richtig beobachten, nicht nur historisch, auch gegenwärtig, dann stellen wir fest, was die Menschen machen können, das werden sie tun. Egal wie doof das ist. Das ist, glaube ich, die Erfahrung aus der Vergangenheit. Das heißt, wenn wir heute wissen, es wird möglich sein, dass ich Psychotherapie mit einer Maschine machen kann, dann wird das Einzug in die Realität finden.

Scherer: Das kann gut sein, dass das früher oder später der Fall ist. Und wir sind damit wieder beim Anfang. Und Sie wissen, Sie sind Meister im Schließen hermeneutischer Kreise, auch hier heute mal wieder. Also das Mensch-gegen-Maschine-Szenario – also im Schach habe ich schon lang keine Chance mehr gegen den Computer. Ich kann mich noch dran erinnern, vor vielen Jahren hat Kasparow schon gegen Deep Blue verloren.

Nößler: Deep Blue war auch IBM, ne?

Scherer: Richtig. Und wir haben über Turingtest und so weiter gesprochen, über diese ganzen Mensch-gegen-Maschine-Szenarien, Mensch durch Maschine ersetzbar. Das sind theoretische Übungen und theoretische Diskussionen. Denn der Weg bis zum kompletten Ersatz eines Psychotherapeuten oder auch einer Ärztin, eines Arztes besteht aus einer Verkettung mehrerer komplexer Interventionen, wo für unterschiedliche Teile der Versorgung, des Versorgungssettings, des Versorgungsablaufs jeweils wirklich belastbare Daten zur Verfügung stehen müssten, dass die KI das besser macht als eine Psychotherapeutin, der Arzt, die Ärztin und so weiter. Insofern bin ich da relativ leidenschaftslos. Wenn eine Kette von Studien, die den gesamten Versorgungsablauf abbilden, darlegt, dass das gut funktioniert, und zwar besser als mit menschlicher Hand oder durch menschliche Behandlerinnen und Behandler, dann ist das ein Befund, den man ernst nehmen muss und kann. Das sind dann Daten, die der Ärzteethikrat auch zur Grundlage seiner Erwägung dann machen muss. Aber zum jetzigen Zeitpunkt darüber zu spekulieren, wo diese Daten überhaupt nicht vorliegen, das ist meines Erachtens verfrüht.

Nößler: Und täglich grüßt das Studientier, wenn nicht sogar das Review-Tier.

Scherer: Sagt das Podcast-Ungeheuer.

Nößler: Sagt das Podcast-Ungeheuer auf der anderen Seite. Herr Scherer, eine Stunde 30 Minuten, das ist ein ganzes Fußballspiel. Wollen wir abpfeifen?

Scherer: Nicht ohne Franz Beckenbauer zu gedenken.

Nößler: Und auch anderen, denen wir gedenken können aus dem Fußball. Kay Bernstein zum Beispiel. Man muss kein BSC-Fan sein. In diesem Sinne, Herr Scherer. Machen wir für heute einen Punkt an dieser Stelle. Und wie machen wir weiter?

Scherer: Irgendwo schwirrt das Thema einarmige Studie noch herum. Ich weiß gar nicht, wo das herkommt. Müssen wir uns noch überlegen, ob wir das dann für die nächste Folge auswählen oder mal wieder ein gesundheitspolitisches Tagesthema nehmen.

Nößler: So soll es sein. Wobei einarmige Studien schon spannend sind. Bringt uns nämlich auch in die KI-Welt, in die virtuellen Kontrollen rein. So soll es sein. Ent- oder weder, Herr Scherer, vielen Dank an Sie für dieses knackig kurzes Gespräch heute über künstlich-dumme Intelligenz oder eben auch nicht. Und dann wünschen wir auch den Hörerinnen und Hörern da draußen alles Gute und bleiben Sie intelligent.

Scherer: Danke. Sie auch. Tschüss.

Nößler: Tschüss.

Lesen sie auch
Das könnte Sie auch interessieren
Glasglobus und Stethoskop, eingebettet in grünes Laub, als Symbol für Umweltgesundheit und ökologisch-medizinisches Bewusstsein

Klimawandel und Gesundheitswesen

Klimaschutz und Gesundheit: Herausforderungen und Lösungen

Kooperation | In Kooperation mit: Frankfurter Forum
Ein MRT verbraucht viel Energie, auch die Datenspeicherung ist energieintensiv.

© Marijan Murat / dpa / picture alliance

Klimawandel und Gesundheitswesen

Forderungen nach Verhaltensänderungen und Verhältnisprävention

Kooperation | In Kooperation mit: Frankfurter Forum
Ein Dialogforum von Fachleuten aus Gesellschaft, Gesundheitspolitik und Wissenschaft

© Frankfurter Forum für gesellschafts- und gesundheitspolitische Grundsatzfragen e. V.

Das Frankfurter Forum stellt sich vor

Ein Dialogforum von Fachleuten aus Gesellschaft, Gesundheitspolitik und Wissenschaft

Kooperation | In Kooperation mit: Frankfurter Forum
Ein Roboter, der Akten wälzt? Künstliche Intelligenz kann bereits mit Leitlinien umgehen – jedenfalls wenn sie so gut strukturiert sind wie die der DEGAM.

© Iaroslav / stock.adobe.com

Digitalisierung in der Medizin

Kollegin Dr. ChatGPT? Wie Künstliche Intelligenz Ärzten helfen könnte

Digital und innovativ: Klinikum Siegen überzeugt von Fluency Direct

© Solventum Germany GmbH

Solventum Spracherkennung

Digital und innovativ: Klinikum Siegen überzeugt von Fluency Direct

Anzeige | 3M Healthcare Germany GmbH
Kommentare
Sonderberichte zum Thema
Abb. 1: PD-1-Inhibitoren: immunvermittelte Nebenwirkungen

© Springer Medizin Verlag GmbH

Thoraxchirurgie beim nichtkleinzelligen Lungenkarzinom

Wie können neoadjuvante Immuntherapien die Tumorresektion beeinflussen?

Sonderbericht | Beauftragt und finanziert durch: AstraZeneca GmbH, Hamburg
Abb.1: Antikörper-Wirkstoff-Konjugat

© Springer Medizin Verlag GmbH, modifiziert nach [14, 15]

Nicht kleinzelliges Lungenkarzinom

Effektive Zweitlinienoptionen weiterhin dringend benötigt

Sonderbericht | Beauftragt und finanziert durch: AstraZeneca GmbH, Hamburg, und der Daiichi Sankyo Deutschland GmbH, München
Abb. 1: Wirkmechanismus eines Antikörper-Wirkstoff-Konjugats (ADC) am Beispiel von Trastuzumab deruxtecan

© Springer Medizin Verlag GmbH, (modifiziert nach [10]; original licensed under CC BY 4.0; https://creativecommons.org/licenses/by/4.0/)

Antikörper-Wirkstoff-Konjugate

Fortschritte bei allen Komponenten

Sonderbericht | Beauftragt und finanziert durch: AstraZeneca GmbH, Hamburg, und der Daiichi Sankyo Deutschland GmbH, München
Vorteile des Logins

Über unser kostenloses Login erhalten Ärzte und Ärztinnen sowie andere Mitarbeiter der Gesundheitsbranche Zugriff auf mehr Hintergründe, Interviews und Praxis-Tipps.

Haben Sie schon unsere Newsletter abonniert?

Von Diabetologie bis E-Health: Unsere praxisrelevanten Themen-Newsletter.

Das war der Tag: Der tägliche Nachrichtenüberblick mit den neuesten Infos aus Gesundheitspolitik, Medizin, Beruf und Praxis-/Klinikalltag.

Eil-Meldungen: Erhalten Sie die wichtigsten Nachrichten direkt zugestellt!

Newsletter bestellen »

Top-Meldungen
Lesetipps
Smiley und Jahreszahl 2024

© Aliaksandr / stock.adobe.com

Der positive Jahresrückblick

Diese guten Nachrichten gab es 2024 im Gesundheitswesen

Krankenkassen haben zum Jahreswechsel schlechte Botschaften für ihre Mitglieder: die Zusatzbeiträge steigen stark. Die Kritik an versäumten Reformen der Ampel-Koalition ist einhellig.

© Comugnero Silvana / stock.adobe.com

Update

72 Kassen im Beitragssatz-Check

Höhere Zusatzbeiträge: So teuer wird Ihre Krankenkasse 2025