KI in der Psychotherapie: Chancen, Risiken und der aktuelle Stand der Forschung

KI in der Psychotherapie: Chancen, Risiken & Forschung (2026)

Was kann KI in der Psychotherapie – und was nicht? Der aktuelle Forschungsstand, ethische Fragen und ein Blick in die Zukunft. Inkl. PubMed-Quellen.

Lesezeit: ca. 11 Minuten

Die Diskussion um Künstliche Intelligenz in der Psychotherapie pendelt zwischen zwei Extremen: Auf der einen Seite die Befürchtung, KI werde Therapeut:innen ersetzen. Auf der anderen die Hoffnung, KI löse alle Effizienzprobleme im Gesundheitswesen. Die Realität liegt – wie so oft – dazwischen.

Dieser Artikel gibt einen nüchternen Überblick über das, was KI heute in der Psychotherapie leisten kann, was die Forschung sagt und welche ethischen Fragen beantwortet werden müssen. Er richtet sich an Therapeut:innen, die sich fundiert informieren wollen, aber auch an Journalist:innen, Kammer-Mitarbeiter:innen und Forschende.

Was KI heute in der Psychotherapie kann

KI-Anwendungen im psychotherapeutischen Kontext lassen sich in vier Bereiche einteilen – mit sehr unterschiedlichem Reifegrad:

1. Dokumentation und Berichtserstellung

Das mit Abstand reifste und praxisnaheste Anwendungsfeld. KI-Tools können heute Sitzungsprotokolle erstellen, Verlaufsdokumentationen strukturieren und Berichtsentwürfe generieren. Die Bandbreite reicht von aufzeichnungsbasierten Systemen, die live transkribieren und zusammenfassen, bis zu stichwortbasierten Tools, die aus Eingaben nach der Sitzung ein Protokoll generieren.

Im deutschsprachigen Raum sind seit 2024/2025 mehrere spezialisierte Anbieter entstanden, darunter VIA HealthTech, PlaynVoice, neoscript und duktus PRO. Einen detaillierten Vergleich dieser Tools findest du in unserem Vergleichsartikel.

Die Zeitersparnis ist substanziell: Wo manuelle Dokumentation 15–20 Minuten pro Sitzung benötigt, schaffen KI-Tools das in ein bis zwei Minuten – wobei die Nachbearbeitung durch die Therapeut:in immer Teil des Workflows bleibt.

2. Screening und Diagnostik-Unterstützung

KI-Modelle können mittlerweile Depressions-Symptome in gesprochener Sprache mit beachtlicher Genauigkeit erkennen. Laut einer Studie der Psychiatrischen Universitätsklinik Zürich, veröffentlicht in NPJ Digital Medicine, erreichte ein deutschsprachiges BERT-Modell bei der Vorhersage von MADRS-Scores (Montgomery-Åsberg Depression Rating Scale) Genauigkeiten von 79–88 % – dicht an der Einschätzung erfahrener Kliniker:innen (Weber et al., 2025, DOI).

Wichtig: Diese Modelle sind nicht als eigenständige Diagnostik gedacht, sondern als Unterstützung für klinische Entscheidungsfindung – besonders in Kontexten mit begrenzten Ressourcen.

3. Chatbots und digitale Interventionen

KI-basierte Chatbots wie Woebot oder Wysa bieten niedrigschwellige psychologische Unterstützung, oft basierend auf KVT-Prinzipien (kognitive Verhaltenstherapie). Sie können hilfreich sein als Brücke während Wartezeiten, für Psychoedukation oder als Übungsbegleitung zwischen Sitzungen.

Was sie nicht können: eine therapeutische Beziehung ersetzen. Die Forschung zeigt konsistent, dass die therapeutische Allianz einer der stärksten Prädiktoren für Therapieerfolg ist – und genau diese entsteht in der menschlichen Begegnung, nicht in einem Chat-Interface.

4. Prozessanalyse und Supervision

Ein spannendes, aber noch frühes Anwendungsfeld: KI-Tools, die therapeutische Prozesse analysieren – zum Beispiel thematische Verläufe über Sitzungen hinweg visualisieren oder Sprechanteile auswerten. Das TherapyView-Projekt erforscht etwa, wie KI therapeutische Prozesse transparenter gestalten kann.

VIA HealthTech hat dieses Potenzial erkannt und positioniert sich zunehmend nicht nur als Dokumentationstool, sondern als Analyse- und Reflexionsinstrument. Ob sich das in der Breite durchsetzt, bleibt abzuwarten.

Was die Forschung sagt

Die wissenschaftliche Evidenz zu KI in der psychotherapeutischen Dokumentation wächst, ist aber noch überschaubar. Hier der aktuelle Stand:

Zeitersparnis und Burnout-Reduktion

Laut einer Studie der Cleveland Clinic, veröffentlicht in Digital Health, reduzierten Ärzt:innen, die ein KI-Scribe-Tool nutzten, die Menge getippter Zeichen signifikant. Bei den subjektiven Burnout-Maßen und der wahrgenommenen mentalen Belastung zeigten sich Trends zur Verbesserung, auch wenn die Stichprobe klein war (n=10). Bemerkenswert: Ärzt:innen nannten die Genauigkeit des Tools als größten Facilitator und fehlende EHR-Integration als größte Barriere (Alpert et al., 2025, DOI).

Eine Pilotstudie zu ambient AI scribes in chirurgischen Ambulanzen zeigte vielversprechende Ergebnisse: Die wahrgenommene mentale Belastung sank (NASA-TLX), Burnout ging von 67 % auf 33 % zurück, und Patient:innen bewerteten die Aufmerksamkeit ihrer Ärzt:innen signifikant höher (Harvey et al., 2025, DOI). Diese Studie stammt zwar aus der Chirurgie, ist aber konzeptionell auf die Psychotherapie übertragbar.

Symptomerkennung und Diagnostik

Die bereits erwähnte Zürcher Studie zu einem deutschsprachigen BERT-Modell zeigt, dass fein-abgestimmte Sprachmodelle depressive Symptome mit hoher Präzision einschätzen können – ein mittlerer absoluter Fehler von nur 0,7–1,0 auf einer 7-Punkte-Skala. Das Fine-Tuning reduzierte die Vorhersagefehler im Vergleich zum untrainierten Modell um 75 % (Weber et al., 2025, DOI).

Patientenperspektive: Open Notes

Ein Scoping Review in Healthcare untersuchte die Auswirkungen von Open Notes – also dem Patienten-Zugang zu klinischen Notizen – im Bereich psychische Gesundheit. Die Ergebnisse aus 22 Studien (2012–2025): Patient:innen berichteten über besseres Verständnis, bessere Erinnerung und mehr Empowerment. Gleichzeitig passten Kliniker:innen ihren Dokumentationsstil an – mit moderaterem Tonfall und mehr Rücksicht auf die Lesbarkeit (Monaci et al., 2025, DOI). Das hat Implikationen für KI-generierte Notizen: Wenn Patient:innen Zugang zu ihren Akten haben, muss die Qualität und Sensibilität der automatisch generierten Dokumentation stimmen.

Forschungslücken

Die größte Lücke: Es gibt bisher kaum randomisierte kontrollierte Studien (RCTs) zu KI-Dokumentationstools spezifisch in der Psychotherapie. Die meisten Studien kommen aus der somatischen Medizin (Chirurgie, Innere Medizin) und werden auf die Psychotherapie extrapoliert. Die Medizinische Hochschule Brandenburg hat 2025 eine qualitative Studie zur Nutzung KI-gestützter Dokumentation in der Psychotherapie durchgeführt – die Ergebnisse stehen noch aus und werden wichtige Praxiseinblicke liefern.

Ethische Fragen

Therapeutische Beziehung

Die zentrale ethische Frage: Verändert KI die therapeutische Beziehung? Die Antwort hängt stark von der Art des Tools ab.

Bei aufzeichnungsbasierten Tools berichten Therapeut:innen von unterschiedlichen Erfahrungen: Manche Praxen melden eine Verbesserung, weil Therapeut:innen präsenter sein können (kein Mitschreiben mehr). Andere befürchten, dass allein das Wissen um eine Aufzeichnung die Offenheit von Patient:innen einschränkt. Das PZM-Pilotprojekt mit PlaynVoice zeigte immerhin eine 97-prozentige Patientenzustimmung – das ist ermutigend, aber ein klinisches Setting mit guter Aufklärung.

Bei stichwortbasierten Tools fällt diese Frage weg: Die Sitzung läuft wie gewohnt, die KI kommt erst danach ins Spiel.

Bias und Fairness

KI-Modelle können Bias aus ihren Trainingsdaten übernehmen. In der Psychotherapie ist das besonders kritisch: Wenn ein Modell bestimmte kulturelle Kontexte oder Sprachmuster systematisch anders bewertet, kann das zu verfälschten Protokollen oder inadäquaten Diagnosesuggestionen führen. Die meisten aktuellen Tools nutzen allgemeine Sprachmodelle (GPT, Claude, Llama), die nicht spezifisch auf therapeutische Diversität trainiert wurden.

Transparenz und menschliche Aufsicht

Der EU AI Act betont den Grundsatz der menschlichen Aufsicht. Für die Psychotherapie bedeutet das: KI-generierte Dokumentation ist immer ein Entwurf, nie ein fertiges Dokument. Die klinische Verantwortung bleibt bei der Therapeut:in. Dieser Grundsatz ist nicht nur regulatorisch geboten, sondern auch fachlich sinnvoll: Kein Algorithmus kann Gegenübertragung, Beziehungsdynamik oder subtile nonverbale Signale so einordnen wie ein:e erfahrene:r Therapeut:in.

Datenschutz als ethische Grundfrage

Datenschutz in der Psychotherapie ist nicht nur eine juristische Anforderung, sondern eine ethische Kernfrage. Die Bereitschaft von Patient:innen, sich in der Therapie zu öffnen, basiert auf dem Vertrauen, dass ihre intimsten Offenbarungen geschützt sind. Jede Technologie, die in dieses Setting eingeführt wird, muss diesem Vertrauen gerecht werden. Einen vertieften Blick auf die datenschutzrechtliche Lage findest du in unserem Artikel zur DSGVO-Konformität von ChatGPT.

Was Kammern und Verbände sagen

Die Haltung der berufsständischen Organisationen entwickelt sich – langsam, aber erkennbar:

Die KBV hat 2025 einen Leitfaden zu Cloud-Diensten in der Praxis veröffentlicht, der unter anderem die BSI-C5-Zertifizierung für Cloud-basierte Praxissoftware verpflichtend macht (seit Juli 2025). Das setzt einen klaren Qualitätsstandard für KI-Tools, die Cloud-Infrastruktur nutzen.
— KBV 2025

Die DGVT Akademie kooperiert bereits mit VIA HealthTech – ein Signal, dass die KI-gestützte Dokumentation von Verbänden als praxistauglich angesehen wird.

Die Medizinische Hochschule Brandenburg führt eine wissenschaftliche Studie zur KI-gestützten Dokumentation durch – ein Zeichen für wachsendes akademisches Interesse.

Was bisher fehlt: eine klare, öffentliche Positionierung der Bundespsychotherapeutenkammer (BPtK) zum Einsatz von KI in der therapeutischen Dokumentation. Empfehlungen, Best Practices, vielleicht sogar ein Leitfaden – das würde vielen Therapeut:innen Orientierung geben.

Wohin entwickelt sich der Markt?

Drei Trends für die nächsten zwei bis drei Jahre:

  1. Integration statt Standalone. Heute exportiert man Protokolle manuell vom KI-Tool ins PVS. In zwei Jahren werden wir API-Anbindungen sehen, die KI-generierte Dokumentation direkt ins Praxissystem übernehmen. EPIKUR hat den Anfang gemacht – andere werden folgen.

  2. Spezialisierung schlägt Generalismus. ChatGPT ist ein Allzweck-Tool. Die Zukunft gehört KI-Systemen, die auf therapeutische Sprache, Diagnoselogik und Dokumentationsstandards trainiert sind. Modelle, die den Unterschied zwischen einer VT- und einer TP-Dokumentation kennen, die S3-Leitlinien berücksichtigen und PTV-Formulare verstehen.

  3. Regulierung wird den Markt bereinigen. Mit dem EU AI Act und der zunehmenden Aufmerksamkeit der Datenschutzbehörden werden Anbieter, die Datenschutz nicht nachweisbar umsetzen, langfristig vom Markt verschwinden. Das ist gut für die Patient:innensicherheit – und gut für seriöse Anbieter.

Fazit: KI als Werkzeug, nicht als Therapeut:in

KI kann Psychotherapeut:innen nicht ersetzen – und das ist auch nicht das Ziel. Die therapeutische Beziehung, das klinische Urteil, die empathische Präsenz in der Sitzung: Das sind zutiefst menschliche Fähigkeiten, die kein Algorithmus replizieren kann.

Was KI kann: den Papierkram reduzieren. Die Stunden am Schreibtisch nach Feierabend. Die Sitzungsprotokolle, die sich stapeln. Die Berichte, die das Wochenende kosten. In diesen Bereichen ist KI kein Luxus, sondern eine Entlastung, die vielen Therapeut:innen erlaubt, das zu tun, wofür sie in den Beruf gegangen sind: therapeutisch arbeiten.

Wir bei duktus PRO fokussieren uns bewusst auf diesen Dokumentationsbereich – nicht auf Diagnostik, nicht auf Chatbots, nicht auf Therapieersatz. Stichworte rein, Protokoll raus, Daten bleiben in Deutschland. Mehr erfahren →

Quellen (basierend auf PubMed-Recherche):

  • Weber, S. et al. (2025). Using a fine-tuned large language model for symptom-based depression evaluation. NPJ Digital Medicine, 8(1), 598. DOI

  • Alpert, J. M. et al. (2025). Evaluating an artificial intelligence scribe for clinical documentation. Digital Health, 11. DOI

  • Harvey, C. J. et al. (2025). Ambient AI-assisted clinical documentation in surgical outpatient care. World Journal of Pediatric Surgery, 8(5). DOI

  • Monaci, M. et al. (2025). Open Notes in Mental Health: A Scoping Review. Healthcare, 13(21), 2777. DOI

  • Meier-Diedrich, E. et al. (2025). Experiences of Older Mental Health Patients Using Proxy Access to Open Notes. JMIR Aging, 8, e66690. DOI

Zurück
Zurück

Ist ChatGPT DSGVO-konform? Was Therapeut:innen wissen müssen

Weiter
Weiter

KI-Tools für Psychotherapeut:innen im Vergleich (2026)