Suizidprävention

Wenn die Depressions-App zweimal klingelt

Smartphone-Apps könnten anhand von Bewegungs- und Nutzungsdaten eine beginnende Depression oder ein hohes Suizidrisiko erkennen. Nicht alle Experten glauben jedoch, dass digitale Daten belastbare Rückschlüsse auf die menschliche Psyche zulassen.

Von Thomas Müller Veröffentlicht:
Das Nutzeverhalten am Smartphone sorgt für einen digitalen Datenfluss, der wohl mehr über uns verrät, als wir wahrhaben wollen.

Das Nutzeverhalten am Smartphone sorgt für einen digitalen Datenfluss, der wohl mehr über uns verrät, als wir wahrhaben wollen.

© chinnarach / stock.adobe.com

BERLIN. In dem Science-Fiction-Thriller „Minority Report“ von Steven Spielberg aus dem Jahr 2002 waren noch menschliche Auguren nötig, um Verbrechen vorherzusagen und durch eine „Precrime“-Polizei rechtzeitig zu unterbinden.

Heute könnten lernfähige Algorithmen wohl Ähnliches leisten, hätten sie unbegrenzten Zugriff auf unsere Smartphones und andere digitale Geräte. Sowohl anhand der versendeten Inhalte als auch aus Nutzungs- und Bewegungsprofilen ließe sich schon mancher Amokläufer erkennen, bevor er zur Tat schreitet. Der Druck, solche Daten unbemerkt auszulesen, dürfte daher groß sein.

Entsprechend könnte der digitale Abdruck auch einen Suizid ankündigen. Dann würde vielleicht eine „Presuicide“-Truppe auftauchen und die Betroffenen in eine Klinik bringen, bevor sie sich etwas antun.

Smartphone könnte Alarm schlagen

In den USA ist das längst Realität: Vor einigen Monaten hat die Polizei die Wohnung der Ex-Whistleblowerin Chelsea Manning mit gezückten Waffen und Tasern gestürmt, nachdem sie ein Foto getweetet hatte, das einen Suizid nahelegte.

Manning stand nach Suizidversuchen im Gefängnis unter Beobachtung. Der brachiale Auftritt könnte allerdings auch anderen Zwecken als der Suizidprävention gedient haben.

Auf der anderen Seite würde es vielleicht manchen Suizidgefährdeten nützen, wenn sie in einer Krise eine Message aufs Smartphone erhalten, sich doch rasch beim Arzt oder Therapeuten zu melden.

Entsprechend könnte das Handy Alarm schlagen, wenn die Algorithmen feststellen, dass der Besitzer in eine Depression oder Manie gleitet. Im Idealfall würde das Gerät dann einen Erste-Hilfe-Algorithmus aktivieren, bis ein Therapeut aus Fleisch und Blut herangezogen werden kann.

Science Fiction ist das in Zeiten von „Big Data“ und „Deep Learning“ längst nicht mehr. Glaubt man den Entwicklern entsprechender Programme, verrät unser digitaler Datenfluss mehr über uns selbst, als wir wahrhaben wollen.

„Die Welt steht vor einem Wendepunkt“

„Die Welt steht vor einem Wendepunkt, die Dinge ändern sich durch die Digitalisierung epochal“, erläuterte Professor Andreas Meyer-Lindenberg, Direktor des Zentralinstituts für Seelische Gesundheit (ZI) in Mannheim auf dem Psychiatriekongress in Berlin.

Und davon wollen auch Psychiater profitieren. Während sich bei der Psychopharmakaentwicklung in den vergangenen Dekaden nur wenig getan hat, könnte künstliche Intelligenz (KI) die Diagnostik und Prävention verbessern und damit eine medikamentöse Behandlung oft überflüssig machen.

Als Beispiel nannte der Experte einen Algorithmus auf Facebook, der auf einen Link zu einer Suizid-Hotline verweist, sobald er verdächtiges Verhalten und suspekte Inhalte erkennt.

Doch intelligente Algorithmen können noch mehr: Anhand von Sprachanalysen, Bewegungsmustern und Nutzungsgewohnheiten auf Smartphones ließe sich in vielen Fällen feststellen, ob eine akute Suizidgefahr besteht. Fährt ein Nutzer mit bekannter Depression plötzlich seine Smartphone-Aktivität herunter, reagiert er nicht mehr auf Anfragen und Anrufe, und bewegt er sich zielstrebig auf einen Suizid-Hotspot zu – was die Algorithmen an den Positionssignalen erkennen –, könnte dies auf einen anstehenden Suizidversuch deuten.

Veränderungen am Nutzungsverhalten erfassen

Über Veränderungen der Stimmlage und Änderungen beim Nutzungsverhalten ließe sich zudem eine bevorstehende Depression oder Manie erfassen.

Dafür müssten nicht einmal die Inhalte ausgewertet werden, was kaum jemand freiwillig zulassen würde, der Zugriff auf die Metadaten würde genügen, also wer wann wie oft von wo auf welche Weise und wie lange kommuniziert.

Entsprechende Apps werden derzeit entwickelt und in Modellprojekten getestet, erläuterte Meyer-Lindenberg – mit durchaus positiver Resonanz. „Fragen wir unsere Patienten, ob sie solche Techniken haben wollen, dann sagen sie oft Ja.“

Psychisch Kranke stünden den Verfahren ähnlich offen gegenüber wie die Gesellschaft insgesamt.

Offene ethische Fragen

Ein weiteres Anwendungsfeld sieht der Psychiater in der Früherkennung psychischer Krankheiten. So könnten Programme basierend auf MRT- und ärztlichen Routinedaten heute bei Patienten mit hohem Psychoserisiko weit besser bestimmen, wer künftig tatsächlich eine Psychose entwickelt.

Für diese Patienten kämen spezielle Präventionsprogramme in Betracht, auch wäre es Ärzten möglich, sofort nach Ausbruch einer Psychose medikamentös zu intervenieren und damit die Prognose zu verbessern.

Solche Anwendungen werfen natürlich ethische Fragen auf: Wer zieht die Grenzen zwischen „gesund“und „krank“? Ab welcher Übergangswahrscheinlichkeit wird interveniert? Wer legt diesen Grenzwert fest? Wer wacht über die Daten – eine psychiatrische Einrichtung, eine Superbehörde oder ein privater Konzern?

Für Professor Gerhard Gründer vom ZI Mannheim sind viele dieser Fragen noch ungeklärt. Auch hält er es für fraglich, ob die „digitale Phänotypisierung“ mittels Smartphones und anderen Geräten tatsächlich belastbare Rückschlüsse auf Emotionen, Kognition und Verhalten zulässt.

„Psychisches Erleben ist prinzipiell nicht objektivierbar, weshalb bisher alle Versuche gescheitert sind, eindeutige Biomarker für irgendeine psychische Erkrankung zu identifizieren“, so Gründer auf einer Pressekonferenz während des Kongresses.

Negative Folgen befürchtet

Sein Misstrauen geht aber noch tiefer. „Hier werden Mensch und menschliche Psyche als eine komplexe Biomaschine betrachtet, determiniert durch Gene, Moleküle und letztlich auch digitale Signale. Wenn ich diese Maschine nur genau genug beschreibe, so die Vorstellung, dann kann ich das menschliche Wesen zu 100 Prozent verstehen und sein Verhalten vorhersagen, es sogar mit einem Computer simulieren.“

Damit, so Gründer, erschaffen wir ein bestimmtes Weltbild, indem sich sowohl Behandler als auch Patienten unwohl fühlen. Weil ein solches Weltbild den Freiraum zur Gestaltung der Zukunft nehme, könne es durchaus negative Folgen haben. „Auf diese Weise macht Datensammeln möglicherweise krank.“

Gründer sieht bessere Wege: „Schaffe ich eine App, die mir vorhersagt, ob ich mich suizidiere, oder besser eine Gesellschaft mit weniger Suizidalität?“

Ihr Newsletter zum Thema
Mehr zum Thema

Baby Blues

Postpartale Depression: Sport hilft, aber erst ab moderater Intensität

Kommentare
Vorteile des Logins

Über unser kostenloses Login erhalten Ärzte und Ärztinnen sowie andere Mitarbeiter der Gesundheitsbranche Zugriff auf mehr Hintergründe, Interviews und Praxis-Tipps.

Haben Sie schon unsere Newsletter abonniert?

Von Diabetologie bis E-Health: Unsere praxisrelevanten Themen-Newsletter.

Das war der Tag: Der tägliche Nachrichtenüberblick mit den neuesten Infos aus Gesundheitspolitik, Medizin, Beruf und Praxis-/Klinikalltag.

Eil-Meldungen: Erhalten Sie die wichtigsten Nachrichten direkt zugestellt!

Newsletter bestellen »

Top-Meldungen

Porträt

Felix Michl: Unternehmer, Jurist und Medizinstudent

Lesetipps
Arzt injiziert einem älteren männlichen Patienten in der Klinik eine Influenza-Impfung.

© InsideCreativeHouse / stock.adobe.com

Verbesserter Herzschutz

Influenza-Impfraten erhöhen: So geht’s!