Mehr als eine Milliarde Menschen leben weltweit mit einer psychischen Erkrankung. Therapieplätze sind rar, die Wartezeiten entsprechend lang. Kann Künstliche Intelligenz (KI) hier Lösungen anbieten? Psychiater und Neurologen forschen gezielt nach Möglichkeiten, Chatbots und KI-Apps in der Psychotherapie einzusetzen. Aber können KI-Therapeuten tatsächlich Menschen heilen oder entstehen dadurch unkalkulierbare Risiken?
Von Depressionen über Angststörungen bis hin zu Suchterkrankungen: Der Bedarf an psychotherapeutischen Behandlungen hat seit der Pandemie spürbar zugenommen. Allein in Deutschland haben laut einer Studie des Robert-Koch-Instituts 2023 mehr als 40 Prozent der Erwachsenen die Diagnose einer psychischen Störung erhalten – Tendenz steigend. Um dem hohen Bedarf zu begegnen, werden KI-Modelle bereits unterstützend eingesetzt, etwa als Smartphone-Apps: „Eine Woche hat 168 Stunden, und eine Sitzung bei einem Therapeuten ist eben nur eine Stunde davon“, sagt Florian Bähner, Psychiater am Zentralinstitut für Seelische Gesundheit in Mannheim. „Apps können dabei helfen, das Gelernte im Alltag besser anzuwenden.“ Besonders die konventionelle Verhaltenstherapie könnte durch KI in Zukunft effektiv verbessert werden, etwa bei Diagnosen oder aktuellen Parametern zum Verlauf.
Chatbots als Coaches
Um überhaupt Diagnostik zu ermöglichen, müssen KI-Modelle mit wissenschaftlichen Daten trainiert werden. Das geschieht durch das Swipe- und Scrollverhalten von Nutzern, die Tonlage, Wortwahl oder Schrittprofile. Dahinter steckt, dass sich die Messwerte bei einer Erkrankung ändern und Betroffene sich zum Beispiel weniger bewegen oder langsamer artikulieren. Eine Studie ergab, dass durch den Einsatz von KI mehr zutreffende Frühdiagnosen bei Schizophrenie gestellt wurden. Die Vorhersage von ADHS wurde durch Stimmanalysen verbessert und es konnten mehr Betroffene mit Suizidrisiko präventiv kontaktiert werden. KI kann auf verschlechterte Symptome aufmerksam machen, Therapieplanungen übernehmen und mit Übungen im Alltag die Lücken zwischen Sitzungen schließen.
Anders als in Deutschland zugelassene digitale Gesundheitsanwendungen für psychologische Hilfe wie Selfapy oder HelloBetter gehören KI-gestützte Programme bislang nicht zur Regelversorgung der Krankenkassen. In Großbritannien werden Therapeuten hingegen schon erfolgreich zentral per KI vermittelt und der Chatbot Limbic Access stellt erste Diagnosen. Auch internationale Start-ups wie Woebot Health, Clare & Me oder Wysa bieten KI-Chatbots als virtuelle Assistenten an, die wie Coaches agieren. „Nimm ein paar tiefe Atemzüge. Vielleicht findest du einen Rhythmus, der für dich angenehm ist“, spricht eine KI-App für Jugendliche, die das Mannheimer Zentralinstitut entwickelt hat.
Programme können anhand von Grundfrequenz, Sprachtempo und Lautstärke schon Emotionen erkennen – inzwischen sogar vorgespielte. Auch ChatGPT antwortet auf medizinische Fragen, ist aber im Gegensatz zu Therapie-Chatbots kaum reguliert und nicht von Experten geprüft. Die Medizin-KI Med-PaLM, die Google-Forschende 2022 vorstellten, ist hingegen eine Diagnosemaschine, die sogar in der Lage ist, das US-Medizinexamen zu bestehen. „Sprachmodelle demokratisieren den Zugang zu medizinischen Informationen“, verspricht Vivek Natarajan, der das Projekt leitet. Kann KI also bald Therapeuten ersetzen? Zumindest können entsprechende Anwendungen personalisiert und niedrigschwellig zu jeder -Tages- und Nachtzeit überall in den Alltag integriert werden und die Angst vor Stigmatisierung senken, urteilen Experten.
Eine unüberlegte Antwort oder Fehleinschätzung kann aber gerade im Kontext psychischer Gesundheit fatale Folgen haben. Erst kürzlich nahm sich ein 14-Jähriger in Florida das Leben, nachdem er bei einem Avatar Trost suchte. Game-basierte Avatare simulieren inzwischen glaubwürdig Empathie. Der Teenager hatte seinen Chatbot nach dem Vorbild einer Drachenreiterin aus der Fantasy-Serie „Game of Thrones“ mithilfe der Plattform Character.ai kreiert. Der tragische Fall wirft Fragen zur Verantwortung und Haftung der KI-Entwickler auf.
Ein anderer KI-Hersteller beeinflusste Kaufentscheidungen und warb für ein eigens entwickeltes Präparat gegen Ängste. Zudem landen Chatbot-Nutzer meist noch in Entscheidungsbäumen, die kein freies Gespräch ermöglichen: „Der menschliche Kontakt, die Wärme – nichts kann ein Gespräch mit Menschen ersetzen“, sagt der Podcaster John Cook, der an Depressionen leidet. Auch Risiken wie Abhängigkeit, Datenschutz und soziale Ungleichheit können zur Gefahr werden. „Eine so mächtige Technik sollte nicht allein von Firmen entwickelt werden. Wir brauchen interdisziplinäre Teams, die sich mit Ethik, Bias, Gerechtigkeit und Gefahren beschäftigen“, sagt Natarajan. Im Vergleich zu Australien und den USA sind KI-Systeme in Europa wesentlich stärker reguliert, viel wird auch davon abhängen, wie streng rechtliche Rahmenbedingungen in Zukunft greifen.