Therapie per KI? Welche Gefahren und Chancen dahinterstecken
Die Zahlen sprechen eine deutliche Sprache: Wer heute in Deutschland professionelle psychologische Hilfe sucht, muss im Durchschnitt 142 Tage auf einen Therapieplatz warten. In dieser Versorgungslücke hat sich ein neuer Akteur etabliert, der niemals schläft und sofort antwortet: Künstliche Intelligenz.
Laut einer Analyse der Harvard Business Review ist "Therapy & Companionship" mittlerweile der häufigste Anwendungsfall für generative KI. Besonders die junge Generation nutzt diesen Weg bereits ganz selbstverständlich: 12 Prozent der Gen Z sprechen mit einer KI über ihre Sorgen. Welche Gefahren stecken dahinter? Und bietet die Therapie per KI auch Chancen?
Warum wir uns Maschinen anvertrauen
Dass der Gang zum Chatbot oft leichter fällt als der Weg in eine Praxis, hat psychologische Gründe. Eine KI bewertet nicht, sie reagiert rund um die Uhr und bietet einen völlig anonymen Raum. Für viele Menschen senkt das die Hemmschwelle, sich überhaupt erst einmal mit den eigenen Gefühlen auseinanderzusetzen.
Doch das Gefühl von echtem Verständnis ist eine technologische Illusion. Dr. Elena Heber von HelloBetter erklärt das Phänomen der "Projection-by-Design": "KI wird nicht empathisch, aber sie kann empathische Reaktionen imitieren. Wir Menschen neigen dazu, in diese statistisch generierten Antworten eine tiefe Bedeutung hineinzulesen - besonders dann, wenn wir uns gerade verletzlich fühlen."
Diese Risiken birgt Therapie per KI
Die Gefahr beginnt dort, wo herkömmliche Chatbots für hochsensible Themen zweckentfremdet werden. Aktuelle Schlagzeilen über Suizidfälle oder sogenannte "KI-Psychosen" zeigen, wie riskant es ist, wenn Systeme ohne psychologische Leitplanken agieren.
Dr. Heber weist darauf hin, dass die Risiken gravierend sein können, wenn eine KI nicht speziell für den Umgang mit psychologischen Themen entwickelt wurde. "Problematisch wird es, wenn generische KI-Systeme unkritisch zustimmen, problematische Denkmuster verstärken oder Risiken übersehen", erklärt die Expertin.
Ein zentrales Problem ist dabei die sogenannte "Sycophancy": "Generische Systeme neigen zur sogenannten Sycophancy: Sie stimmen NutzerInnen zu, statt dysfunktionale Gedanken zu hinterfragen", so Heber. In der Praxis bedeutet das: Chatbots können suizidale Andeutungen verstärken oder wahnhaften Überzeugungen unkritisch zustimmen. Trotz der Tatsache, dass wöchentlich Hunderttausende Nutzer Hinweise auf Manie, Psychosen oder Suizidgedanken geben, übersehen viele Systeme diese Warnsignale häufig. KI-Systeme können "Halluzinationen" produzieren - also Informationen, die zwar plausibel klingen, aber faktisch falsch sind.
Wo digitale Hilfe sinnvoll sein kann
Trotz dieser Gefahren bietet die Technik auch Möglichkeiten, die Versorgungslücke sinnvoll zu ergänzen. Evidenzbasierte digitale Gesundheitsanwendungen (DiGAs) zeigen bereits heute nachweisbare Erfolge bei Depressionen, Angststörungen oder chronischen Schmerzen. Auch KI-gestützte Systeme können bei alltäglichen Belastungen wie Stress, Grübeln oder Schlafproblemen unterstützen.
"KI kann also dabei unterstützen, sich zu öffnen, aber sie braucht sichere Rahmenbedingungen mit klaren Grenzen und professioneller Aufsicht", sagt Dr. Heber und betont: "KI ist kein Ersatz für professionelle Hilfe bei psychischen Erkrankungen. Bei Symptomen wie Suizidgedanken, starker Verzweiflung oder Symptomen einer psychischen Störung braucht es immer menschliche Unterstützung."
Worauf User achten sollten
Wer digitale Unterstützung sucht, sollte laut Dr. Heber auf die Seriosität der Anwendung achten. Qualitativ hochwertige Angebote zeichnen sich durch transparente Angaben zum psychologischen Expertenteam, DSGVO-konformen Datenschutz und integrierte Sicherheitsmechanismen für Krisenfälle aus.
"Ein digitales Gespräch kann ein hilfreicher Start sein, aber es ersetzt nicht langfristige Beziehungen, soziale Unterstützung oder professionelle Therapie, wenn diese nötig ist", fasst Heber zusammen.
Hinweis: Diese Meldung ist Teil eines automatisierten Angebots der nach strengen journalistischen Regeln arbeitenden Agentur spot on news. Sie wird von der AZ-Onlineredaktion nicht bearbeitet oder geprüft. Fragen und Hinweise bitte an feedback@az-muenchen.de
- Themen:
