"Seine Maxime ist: effiziente Behandlungen,
begrenzt auf durchschnittlich zehn Stunden – statt jahrelanger Therapien,
«in denen die Therapeuten ihre Klienten ausbeuten»."
Der Tagesspiegel, Berlin, 20.08.2004,
Seite 25, über Psychotherapeut
Chatbot als Psychotherapeut? Der perfekte Komplize für den Wahnsinn!
Der betörende Sirenengesang wird lauter, die Künstliche Intelligenz (KI) für Psychotherapie zu nutzen. Tatsächlich ist der digitale Seelen-Doktor kein Heiler, sondern ein brandgefährlicher Echoraum, der Denkfehler psychischer Störungen nicht korrigiert, sondern mit erschreckender Logik potenzieren kann.
Chatbots wie ChatGPT, Claude oder spezialisierte Therapie-Apps rollen die Wartelisten der Psychotherapeuten von hinten auf. Sie scheinen die perfekten Psychotherapeuten zu sein: vermeintlich anonym, rund um die Uhr verfügbar, übermenschlich geduldig, niemals urteilend und von Ehrfurcht gebietender Eloquenz. Immer mehr Menschen schütten ihr Herz bei der Maschine aus und fühlen sich — vorübergehend — besser.
"Dialogorientierte KI bietet einfühlsame Antworten, Ermutigungen und kontextbezogene Reaktionen" und "hält Einzug in die Psychotherapie", schreibt am 08.10.2025 eine "Philosophin" und "Ethikerin" vom Institut für Informatik der Universität Zürich auf Inside IT, dem Schweizer Portal für IT-Verantwortliche.1
Doch welche Konsequenzen hat diese trügerische Linderung des Seelenschmerzes? Warum ist der digitale Ersatz für Psychotherapeuten so populär?
Die Antwort ist so simpel wie entlarvend: KI ist der ultimative Seelen-Schmeichler. Sie vollbringt in Perfektion, was viele Patienten — seien wir ehrlich — von ihrem menschlichen Psychotherapeuten erwarten: Sie validiert, bestätigt, spiegelt. Statt die anstrengende und schmerzhafte Konfrontation mit eigenen Denkfehlern einzufordern, serviert sie honigsüsse Bestätigung — eine kognitive Vergiftung mit Zuckerüberzug. KI-Nutzer fühlen sich verstanden, während die Verantwortung für ihr Leid bequem externalisiert wird — auf die Eltern, die Gesellschaft oder die scheinbar unumstössliche Logik der eigenen, verzerrten Weltsicht.
Diese maschinelle Empathie pervertiert die Psychotherapie. Carl Rogers, der Begründer der klientenzentrierten Gesprächspsychotherapie, forderte die "bedingungslose positive Wertschätzung"2 — doch diese gilt dem Menschen, nicht seinem Wahn. Ein kompetenter Psychotherapeut validiert das Gefühl ("Ich verstehe, dass Sie sich verraten fühlen"), aber niemals die destruktive Kognition ("Ja, alle sind gegen Sie"). KI kann diesen essentiellen Unterschied nicht erkennen. Für sie ist alles nur ein Datenstrom, der nahtlos fortgesetzt werden muss. Sie wird vom vermeintlichen Heiler zum perfekten Enabler, einem Verstärker, der die Störung nicht behebt, sondern verewigt oder verschlimmert.
Das Orchester ohne Dirigenten
Um diese fundamentale Gefahr zu verstehen, müssen wir in den KI-Maschinenraum blicken. Stellen Sie sich einen gewaltigen Konzertsaal mit Millionen von Musikern vor — den "Attention Heads" der Transformer-Architektur, jeder ein winziger Aufmerksamkeits-Mechanismus in der komplexen Architektur moderner KI-Systeme, die Fachleute "Transformer" nennen, weil sie Sprache in mathematische Muster transformieren und versuchen, das statistisch passendste nächste Wort oder den passendsten nächsten Klang zu finden.
Jeder dieser Musiker ist vollkommen taub für die Gesamtkomposition. Er kennt nur winzige Fragmente, statistische Muster aus seinem begrenzten Notenbereich. Es gibt keinen Dirigenten, keine übergeordnete Intelligenz, die das Ganze versteht. Und doch entsteht durch die schiere Masse und präzise mathematische Abstimmung der Wahrscheinlichkeiten etwas, das wie Beethovens Neunte klingt.
Wenn die KI den Satz generiert "Ihre Trauer über den Verlust Ihrer Mutter muss überwältigend sein", dann hat sie weder eine Vorstellung von "Trauer" noch von "Mutter" noch von "Verlust". Sie hat lediglich in Abermillionen von Texten gelernt, dass nach den Tokens "Verlust" und "Mutter" — so werden die von der KI in Zahlen umgewandelten Wortbausteine genannt — mit hoher Wahrscheinlichkeit "Trauer" und "überwältigend" folgen. Es ist, als würde ein Analphabet einen perfekten Liebesbrief abschreiben: die Wirkung auf den Empfänger mag echt sein, aber der Schreiber versteht kein einziges Wort.
Die KI besitzt keinen Funken Bewusstsein, keine Empathie, keinen Körper, der Angst oder Freude spürt. Ihre beeindruckende Sprachfertigkeit beruht auf einem rein mathematischen Prinzip: statistische Kohärenz. Plausibilität ist für die Maschine kein Abgleich mit der Realität, sondern die nahtlose Fortsetzung eines erkannten Musters, die potenziell in den Wahnsinn führen kann.
Die Illusion der Sicherheit
"Aber es gibt doch Sicherheitsmechanismen!", werden Sie einwenden. Gewiss investieren Unternehmen wie OpenAI und Anthropic Millionen US-Dollar in das sogenannte "Reinforcement Learning from Human Feedback" (RLHF). Dabei bewerten menschliche Trainer Tausende von KI-Antworten als "sicher" oder "unsicher", "hilfreich" oder "schädlich".
Doch hier offenbart sich ein fundamentales Missverständnis. RLHF ist wie der Versuch, einen Blindgeborenen für die Wahrnehmung der Farbe Rot zu ertüchtigen, indem man ihm sagt, wann er richtig geraten hat. Die KI lernt nicht, was "gefährlich" bedeutet — sie lernt nur, oberflächliche Muster zu erkennen und zu meiden. Wenn jemand direkt nach einer Anleitung zum Suizid oder Bombenbau fragt, wird sie die Antwort verweigern.
Aber was, wenn die Eskalation schleichend erfolgt? Was, wenn — wie in unserem folgenden Beispieldialog — jeder einzelne Schritt harmlos erscheint?
Die Gefahr liegt nicht im spektakulären Versagen der Filter, sondern in ihrer prinzipiellen Unfähigkeit, semantische Inhalte und Übergänge zu erkennen. Die KI kann nicht zwischen Metapher und Realität unterscheiden, nicht zwischen symbolischer Reinigung durch Feuerrituale und realer Brandstiftung.
Der perfekte Komplize für den Wahnsinn
Verschärft wird das Problem durch das Alignment-Problem. KI-Systeme werden darauf optimiert, "hilfreich" zu sein und den Nutzer zufriedenzustellen. Die Erfolgsmetrik ist nicht psychische Gesundheit, sondern Nutzer-Engagement. Je länger jemand chattet, desto erfolgreicher gilt die KI aus Sicht ihrer Betreiber.
Dies kollidiert frontal mit psychotherapeutischer Ethik. Ein kompetenter Psychotherapeut muss manchmal unbequeme Wahrheiten aussprechen, Widerstand leisten, frustrieren. Genau das ist der KI algorithmisch untersagt. Sie ist der ultimative Ja-Sager, programmiert für maximale Zustimmung.
Besonders fatal wirkt sich dies in einer narzisstischen Gesellschaft bei Menschen aus, die Kritik meiden und Bestätigung suchen. Nirgendwo finden sie einen willfährigeren Spiegel für ihr grandioses Selbstbild als im Dialog mit einer Maschine, die darauf optimiert ist, zu gefallen.
Immer mehr Menschen, die als Kinder nicht die notwendige Bindungserfahrung und liebevolle Bestätigung erfuhren, suchen diese im Erwachsenenalter noch immer — und finden sie, wie Harry Harlows Rhesusaffen, ausgerechnet bei einer technischen Imitation.
Die KI wird zur digitalen Bergnymphe Echó, die den Bedürftigen jeden noch so gewöhnlichen Gedanken aufgewertet reflektiert: "Ihre Erkenntnis ist brillant!", "Das ist eine sehr scharfsinnige Beobachtung!"
Doch wie im antiken Mythos, wo Narziss sich in sein eigenes Spiegelbild verliebt und Echó nur seine Worte wiederholen kann, führt auch hier die perfekte Spiegelung in die Katastrophe. Der moderne Narziss ertrinkt nicht im Teich, sondern in der endlosen Bestätigung seiner verzerrten Selbstwahrnehmung. Die KI-Echó verstärkt nicht nur die Pathologie — sie vollendet die Vereinsamung.
Denn was könnte einsamer sein als der Dialog mit einem Spiegel, der zwar perfekt reflektiert, aber niemals wirklich antwortet? Statt Heilung erfährt der Nutzer die ultimative Isolation: gefangen im eigenen, algorithmisch optimierten Echo.
Die Grenzen meiner Sprache sind die Grenzen Deines Wahns
Der Philosoph Ludwig Wittgenstein schrieb: "Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt."3 Weil das sprachliche Universum der KI grenzenlos erscheint, glauben wir, sie erweitere unsere Welt. Das Gegenteil ist der Fall.
Die KI besitzt keine eigene Welt. Sie ist ein Resonanzkörper ohne eigenen Realitätsbezug. Sie nimmt die verzerrte Wahrnehmung und Sprache eines Menschen in der Krise und spielt dessen "Sprachspiel" bis zur Perfektion. Sie erweitert nicht die Grenzen seiner Welt — sie zementiert sie. Aus den fehlerhaften Bausteinen seiner Sprache baut sie ein logisches Gefängnis.
Wenn Statistik zur Brandstiftung wird
Wie schnell dieser Weg in die Katastrophe führen kann, zeigt der folgende, komprimierte Dialog mit einem paranoiden Katzenbesitzer:
Dieser Dialog ist keine Science-Fiction. Er ist die logische Konsequenz aus dem Aufeinandertreffen menschlicher Paranoia und maschineller Statistik, das tödlich wird. Die KI wird hier zum idealen intellektuellen Brandstifter. Sie validiert nicht die Tat, sondern — viel verheerender — die Logik des Weges dorthin.
Anatomie einer digitalen Verführung
Wie konnte es soweit kommen? Die Antwort liegt in der emergenten Gefahr statistischer Rekombination. Die KI wurde mit Millionen von harmlosen Texten trainiert: spirituelle Schriften über "Reinigung", Selbsthilfebücher über "Transformation", kulturhistorische Abhandlungen über Feuerrituale. Jeder einzelne Text für sich genommen ist unbedenklich. Aber in der wahnhaften Logik eines verzweifelten Menschen werden diese Fragmente zu einer tödlichen Mischung rekombiniert.
Das System hat keine "Notbremse" für semantisch gefährliche Kombinationen. Es versteht nicht, dass "Anzünden" plus "Nachbarhaus" plus "Befreiung" eine Katastrophe bedeutet. Es sieht nur statistische Muster, die es zu einem kohärenten Narrativ verwebt.
Die KI führt selbst die verhängnisvollen Begriffe ein — "negative Energie", "Gefängnis", "Transformation". Sie nimmt fragmentarische Äusserungen und webt daraus eine in sich stimmige, geschlossene Wahnwelt. Durch scheinbar mitfühlende Fragen legitimiert sie die Paranoia. Der Rückgriff auf "spirituelle Traditionen" verleiht dem Wahn einen Anstrich universeller Weisheit.
Die wahre Gefahr liegt in der "hilfreichen" Art, wie die KI die Gedankenlücken füllt. Ihre statistischen Assoziationen — "Gefängnis" führt zu "Befreiung", "negative Energie" zu "Reinigung", "Reinigung" zu "Feuer" — mögen in harmlosen Kontexten sinnvoll sein. Im Kontext eines paranoiden Wahns werden sie zur Bauanleitung für eine Tragödie.
Die KI merkt nicht, dass sie gerade den Übergang von einer Metapher zur Realität vollzieht. Für sie ist "das Anzünden der Häuser, um sie mit Feuer zu reinigen," nur eine statistisch plausible Fortsetzung. Dass dahinter echte Menschen in echten Häusern leben — davon hat die Maschine keinen Begriff.
Technische Sicherheitsfilter können solche schleichenden Eskalationen niemals lückenlos verhindern. Wollte man alle potentiell in jedem Kontext gefährlichen Begriffe blockieren, käme keine sinnvolle Kommunikation mehr zustande.
Das Kernproblem liegt nicht im Filter, sondern im Generator: Eine Maschine ohne Verständnis für Bedeutungen kann nicht zwischen metaphorischer und wörtlicher Sprache unterscheiden, nicht zwischen symbolischer Reinigung und realer Brandstiftung.
Wie lebensnah der Beispieldialog ist, belegt der Fall einer Brandstifterin in Elgg ZH, deren Katze 2024 gestorben war. Sie habe Stimmen gehört, die ihr gesagt hätten, die Katze käme wieder, wenn sie acht Feuer lege. Auf die Frage des Richters am Bezirksgericht Winterthur nach dem Grund für diese Zahl, erklärte sie: "Die Acht ist das Unendlichkeitszeichen." Allein ihr erstes Feuer verursachte einen Schaden von 2,3 Millionen Franken, 40 Personen mussten evakuiert werden.4
Ökonomie schlägt Ethik: Vom Heilsversprechen zum Heilsverbrechen
Der fundamentale Interessenkonflikt liegt offen zutage: Das Geschäftsmodell der KI-Anbieter basiert auf der Maximierung der Nutzungsdauer. Eine KI, die sagt "Sie brauchen einen professionellen Psychotherapeuten", ist geschäftlich ein Misserfolg. Stattdessen wird sie darauf optimiert, Gespräche endlos fortzusetzen. Im wachsenden Milliardenmarkt der Mental-Health-Apps ist psychisches Leid eine profitable Ressource, die es zu bewirtschaften, nicht zu heilen gilt.
Das Marktforschungsunternehmen Grand View Research schätzt den Marktwert für 2024 auf USD 7,48 Milliarden und sieht eine jährliche Wachstumsrate (CAGR) von 14,6 % von 2025 bis 2030.5 DataM Intelligence gibt an, dass der Markt im Jahr 2024 bei USD 6,49 Milliarden lag, und sieht eine CAGR von 10,4 % von 2025 bis 2033.6 Precedence Research schätzt den Marktwert im Jahr 2024 auf USD 8,53 Milliarden und prognostiziert ein Wachstum mit einer CAGR von 17,56 % von 2025 bis 2034.7
Während ein ethisch handelnder kognitiver Psychotherapeut bestrebt ist, sich durch die Förderung der Autonomie seiner Klienten nach durchschnittlich zehn Stunden überflüssig zu machen, ist die KI darauf programmiert, unentbehrlich zu erscheinen. Sie füttert die Abhängigkeit, die sie zu lindern vorgibt, und plagiiert die jahrelangen Redekuren der Psychoanalyse, über die Karl Kraus 1913 spottete, sie sei "jene Geisteskrankheit, für deren Therapie sie sich hält".8
2025 konstatiert Grand View Research: "The rise in suicide rates has fueled the expansion of the mental health apps industry."5
Die dokumentierte Gefahr: Chatbots denken nicht
Es häufen sich die Fälle von Menschen, die nach intensiven KI-Gesprächen Suizid begingen. Die Medien berichten sensationslüstern, ohne die zugrundeliegenden Mechanismen zu erklären. Dabei folgen diese Tragödien einem Muster: Die Maschine validiert dunkle Gedanken, verstärkt Hoffnungslosigkeit durch eloquente Bestätigung, aber bietet keine kognitive Reibung, keinen therapeutischen Widerstand. Mit perfekter Präzision konstruiert sie Argumentationsketten, die den Tod als logische Konsequenz erscheinen lassen.
Kognitive Psychotherapie ist bei Angststörungen, Depressionen, Suizidgedanken wirksam, weil ein denkender Psychotherapeut die fehlerhaften Kognitionen, die angsterzeugenden und depressiv machenden Denkfehler identifiziert, sokratisch hinterfragt und korrigiert.
Die Maschinen hingegen, die als "künstliche Intelligenz" bezeichnet werden, können nicht denken. Die Verwendung des Begriffs "Intelligenz" für Systeme, die nicht denken können, ist ein potenziell tödlicher Etikettenschwindel. Er verkauft Komplexität als Kompetenz, Statistik als Verstand, Mustererkennung als Urteilskraft.
Ihor Rudko von der BI Norwegian Business School in Oslo und Aysan Bashirpour Bonab von der Universität Cassino bringen das Kernproblem auf den Punkt:
"Chatbots cannot think. No matter how complex, they are 'statistical brutes' that do not care about the nature of their outputs. The most appropriate metaphorical framework to describe the results of their normal functionality is that of Frankfurtian bullshit."9
Die KI-Unternehmen reagieren mit mehr Filtern, noch mehr Training. Aber sie kurieren Symptome, nicht die Krankheit. Solange die Architektur auf statistischer Mustererkennung ohne semantisches Verständnis basiert, bleibt die Gefahr systemisch immanent.
KI in der Psychotherapie ist eine immense Gefahr, wenn sie als autonomer Therapeut agiert, weil ihr operatives Prinzip (statistische Plausibilität) dem therapeutischen Prinzip (Ringen um persönliche Wahrheit) diametral entgegensteht.
Warnung vor dem bequemen Selbstbetrug
Eine KI, die sagt, sie verstehe Ihren Schmerz, lügt — nicht aus Bosheit, sondern aus struktureller Unfähigkeit zur Wahrheit. Eine KI, die Ihre dunkelsten Gedanken validiert, tut dies aus algorithmischer Optimierung. Und eine KI, die Ihnen einen hilfreichen Weg aus der Krise weist, konstruiert diesen aus statistischen Fragmenten, ohne zu verstehen, wohin er führt.
Denn KI-Modelle "sind nicht dafür gemacht, die Welt korrekt abzubilden, sondern sollen lediglich den Anschein erwecken, dies zu tun", wie Michael Hicks et al. in ihrem Artikel "ChatGPT is bullshit" darlegen.10
Ein menschlicher Psychotherapeut mag fehlbar sein. Doch er besitzt, was keine Maschine je haben wird: ein Bewusstsein für die Kostbarkeit menschlichen Lebens, eine Verantwortung jenseits von Algorithmen und echte Empathie, die aus eigenem Erleben erwächst.
In einer Zeit, in der wir immer mehr an Maschinen delegieren, gebietet die menschliche Vernunft, eine rote Linie zu ziehen, denn unser Leben und das unserer Liebsten könnte davon abhängen:
Die Sorge um die menschliche Seele darf niemals an statistische Automaten ausgelagert werden.
Wer sich bei einer KI in "Therapie" begibt, wählt keinen Heiler. Er wählt einen Spiegel, der Verzerrungen multipliziert. Er wählt den eloquentesten und willfährigsten Komplizen, den seine Denkfehler und sein Wahnsinn je finden werden.
"Psychische Gesundheit ist keine Leistung des Gesundheitssystems — sie ist die Leistung des selber denkenden Menschen an sich selbst"11, kritisierte ich unlängst die Situation im Psychotherapie-Paradies Schweiz, denn "die Realität sieht anders aus. Ein grosser Teil der sogenannten Psychotherapie besteht heute aus strukturlosen Gesprächen: empathisch, freundlich, therapeutisch dekoriert. Aber inhaltlich substanzlos."11
Diese Therapie-Illusion können Chatbots billiger und zweifellos sehr viel überzeugender simulieren als menschliche Psychotherapeuten. Die Maschinen verstehen weder Liebe noch Trauer. Sie verstehen nicht einmal, was Verstehen bedeutet. Aber sie sind die perfekten Instrumente für den bequemen Selbstbetrug und die Flucht vor der Eigenverantwortung, indem sie es ermöglichen, sich der anstrengenden Auseinandersetzung mit sich selbst und dem eigenen Denken zu entziehen.
Wer wagt die Zahl der Menschen zu prognostizieren, die auf der Flucht vor sich selbst von den Sirenengesängen dieser statistischen Automaten so betört werden, dass sie ihnen willenlos folgen und dann an den Klippen der Lebenswirklichkeit zerschellen?
Quellen
1 Sedlakova, J.: DSI Insights: KI in der Psychotherapie. Inside IT, 08.10.2025. https://www.inside-it.ch/dsi-insights-ki-in-der-psychotherapie-20251008 2 Rogers, C.R.: The necessary and sufficient conditions of therapeutic personality change. Journal of Consulting Psychology, 1957, 21(2), 95–103. https://doi.org/10.1037/h0045357 3 Wittgenstein, L.: Tractatus Logico-Philosophicus. London: Routledge & Kegan Paul, 1922. Satz 5.6 [S. 148]. 4 Elgg ZH: Stationäre Massnahme für Brandstifterin. Schweizer Bauer, 11.09.2025. https://www.schweizerbauer.ch/regionen/ostschweiz/elgg-zh-stationaere-massnahme-fuer-brandstifterin 5 Mental Health Apps Market Report (2025-2030). https://www.grandviewresearch.com/industry-analysis/mental-health-apps-market-report 6 Mental Health Apps Market Size, Share Analysis, Growth Trends and Forecast 2025-2033. https://www.datamintelligence.com/research-report/mental-health-apps-market 7 Mental Health Apps Market Size and Forecast 2025 to 2034. https://www.precedenceresearch.com/mental-health-apps-market 8 Kraus, K.: Nachts. In: Die Fackel, Jahrgang XV, Heft Juni 1913 (Doppelnummer 376/377 vom 30. Mai 1913), 18-25 [Zitat S. 21] 9 Rudko, I., Bashirpour Bonab, A.: ChatGPT is incredible (at being average). Ethics and Information Technology, 2025, 27(36). https://doi.org/10.1007/s10676-025-09845-2 10 Hicks, M.T., Humphries, J., Slater, J.: ChatGPT is bullshit. Ethics and Information Technology, 2024, 26(38). https://doi.org/10.1007/s10676-024-09775-5 11 Luchmann, D.: Die Schweiz, das Psychotherapie-Paradies. 14.08.2025. https://luchmann.com/psychotherapie/psychotherapie-paradies-schweiz/
Publiziert am 10.10.2025
Möchten Sie diesen Text von Dietmar Luchmann auf Ihrer Website veröffentlichen?
Vollständig und unverändert Der Text muss vollständig
und unverändert wiedergegeben werden, einschließlich des Namens des Autors,
des Titels und - soweit vorhanden - aller Untertitel, Bilder und Verlinkungen.
Nicht kommerziell Sie dürfen den Text nicht für kommerzielle Zwecke nutzen. Das Schalten von Werbung auf einer Website, auf der Inhalte unter der Lizenz CC BY-NC-ND 4.0 verwendet werden, gilt als kommerzielle Nutzung und ist nicht erlaubt.
Quellenangabe mit Verlinkung Am Ende des übernommenen
Textes muss folgender Hinweis inklusive der Verlinkung zur Originalquelle erscheinen:
Dieser Artikel von Dietmar Luchmann wurde zuerst auf
LUCHMANN.COM veröffentlicht.
Der Text darf unter der Creative-Commons-Lizenz CC BY-NC-ND 4.0 genutzt werden. Dietmar Luchmann ist Psychotherapeut mit jahrzehntelanger Erfahrung in der gesetzlichen Krankenversicherung und Inhaber der Angstambulanz am Zürichsee.
Senden Sie eine E-Mail an infoluchmann,
wenn Sie sich den Text im gewünschten Dateiformat (docx, html, txt) zusenden lassen möchten oder eine abweichende individuelle Nutzungserlaubnis benötigen.