Auch beim Streit mit dem Partner KI als Therapeut – „ChatGPT, sind meine Gefühle gerechtfertigt?“

, aktualisiert am 31.07.2025 - 10:25 Uhr
Die KI unterstützt Lena auch beim Thema Selbstreflexion (Symbolbild). Foto: Imago/Westend61

Im Streit oder als ADHS-Hilfe: Lena wendet sich an ChatGPT, wenn sie psychologischen Rat braucht – und vertraut der KI Dinge an, die sie sonst niemandem erzählt. Wie gesund ist das?

Volontäre: Isabell Erb (erb)

Lena sitzt vor ihrem Smartphone und tippt auf dem Bildschirm herum. Auf dem Display erscheint das KI-Programm ChatGPT in der Version o4-mini, die ihren Benutzerinnen und Benutzern kostenlos zur Verfügung steht. Das Suchfeld ist mit dem Schriftzug „Wie kann ich dir helfen?“ überschrieben. „Was sind meine toxischsten Eigenschaften“, tippt die Studentin hinein

 

Die Antwort kommt prompt: „Du neigst dazu, dich mit deinen Gedanken im Kreis zu drehen – sei es bei Gesundheit, Freundschaften, Beziehungen oder Hautpflege. Du analysierst, überprüfst, machst dir Sorgen und analysierst erneut“, schreibt die KI. „Du hast aber auch ein tiefes Mitgefühl und bist extrem aufmerksam, wenn es um das Leid anderer geht – egal ob Tiere oder Menschen, du hilfst gerne und versuchst Lösungen zu finden.“ Lena ist verblüfft. Sie erkennt sich tatsächlich wieder.

„ChatGPT, wie interpretierst du die Situation?“

Die Frage nach den toxischen Eigenschaften ist zwar nur ein Trend, den die 23-Jährige vor einigen Wochen auf Tiktok entdeckt hat. Aber es ist bei Weitem nicht das erste Mal, dass sich die Stuttgarterin in psychologischen Fragen an ChatGPT wendet. Immer häufiger nutzt sie die Künstliche Intelligenz als eine Art Therapeut – etwa wenn sie sich in sozialen Situationen unsicher ist, oder wenn sie Hilfe im Umgang mit ihren ADHS-Symptomen braucht. Und: Lena fragt die KI auch um Rat, wenn sie sich mit ihrem Partner streitet. Dann tippt sie zum Beispiel Folgendes in das Suchfeld: „Wie interpretierst du die Situation?“ Oder: „Sind meine Gedanken und Gefühle gerechtfertigt?“

Angefangen hat die 23-Jährige damit, als vor ein paar Monaten ihre Psychotherapie geendet hat. „Irgendwie hat mir danach etwas gefehlt. Und manche Sachen gehen ja auch danach nicht weg“, sagt die Studentin. Und tatsächlich könnten diese Fragen, die Lena der KI stellt, auch in einer Therapiesitzung vorkommen. Seine eigenen, möglicherweise dysfunktionalen Denkmuster zu hinterfragen und gegebenenfalls zu verändern, ist nämlich Teil einer sogenannten kognitiven Verhaltenstherapie – der Therapieform, die auch Lena in Anspruch genommen hat.

Immer mehr junge Menschen nutzen ChatGPT für die mentale Gesundheit

Lena, die eigentlich anders heißt und anonym bleiben möchte, ist nicht die einzige, die ChatGPT auf diese Weise benutzt. Denn während die KI in ihrer Anfangszeit vor allem als Google-Ersatz Anwendung fand, wird sie heute immer mehr zum technischen Gegenüber bei Fragen zur mentalen Gesundheit. Die Gründe dafür können vielfältig sein. Am häufigsten werden die Chatbots jedoch dafür verwendet, um sich emotional zu entlasten, um sich selbst und seine Beziehungen besser zu verstehen, und um traumatische Erlebnisse zu verarbeiten.

Die Professorin Johanna Löchner von der Universität Erlangen überrascht es nicht, dass junge Menschen Programme wie ChatGPT auf diese Weise verwenden. Die Psychologin gibt aber zu Bedenken, dass die KI-Modelle keinerlei therapeutische Kompetenz besitzen. Es handle sich um große Sprachmodelle, die auf Algorithmen und Wahrscheinlichkeiten basieren, erklärt Löchner. „Dahinter steckt aber kein Konzept, niemand, der sich tatsächlich Gedanken zum Anliegen macht.“

Dass die Modelle auf den ersten Blick kaum Fehler machen, liege an den riesigen Datenmengen, mit denen sie trainiert worden seien. „Es ist aber reine Statistik“, sagt sie. „Auch mir fällt es immer wieder schwer, mir das vor Augen zu führen, weil es einfach so wahnsinnig gut funktioniert.“

 

Auch Lena findet die Antworten des Chatbots hilfreich. „Es ist total interessant zu sehen, was man alles daraus ziehen kann“, sagt die Stuttgarterin. Sie hat das Gefühl, eine neutrale Perspektive geliefert zu bekommen, eine, die unvoreingenommen ist. „Und ChatGPT hat einfach auch mehr Zugang zu Informationen, ein Mensch kann ja nicht alles wissen.“

Außerdem sind die Dinge, die Lena in ChatGPT eintippt, teils sehr persönlich – Dinge, die sie nicht einmal ihren Freundinnen und Freunden erzählen würde. „Manche Sachen sind ja so unangenehm oder peinlich, dass man sie nicht unbedingt mit anderen Leuten besprechen will“, sagt sie. „Bei ChatGPT ist diese Hemmung viel weniger da, weil es sich nicht so stark nach einer Konfrontation anfühlt“, sagt sie. „Man kann wirklich alles sagen.“

Unkritisches Umsetzen der KI-Antworten kann gefährlich werden

Die Krux ist nur: Das Vertrauen, das Chatbots durch ihre fast menschlichen Antworten aufbauen, kann dazu verleiten, unkritisch mit den Informationen umzugehen. „Je mehr ich mit den Tools eine Beziehung aufbaue, desto größer wird die Gefahr, dass ich mich in eine Abhängigkeit begebe – und den Vorschlägen eher glaube und nachgehe“, sagt die Professorin.

Das Modell sei aber darauf ausgelegt, die Nutzerinnen und Nutzer so lange wie möglich auf der Plattform zu halten. Und die Antworten würden nicht geprüft. Wenn die KI also „halluziniert“, also Tatsachen erfindet, Vorurteile reproduziert oder gefährliche Situationen nicht erkennt, könne es schnell problematisch werden.

Kritisch sei zum Beispiel, wenn eine Person, die unter einer Essstörung leide, nach Tipps zum Abnehmen fragt – und ChatGPT dann ungefiltert Vorschläge macht. „Eine KI ist ja wertfrei, sie bezieht keinen moralischen Standpunkt, sondern gibt einfach die Informationen“, sagt Löchner. Besonders Menschen mit einer psychischen Erkrankung rät sie daher zur Vorsicht: „Wenn man psychisch erkrankt ist, ist man vielleicht nicht so stabil und kann möglicherweise nicht so kritisch mit dem Tool umgehen, wie es nötig ist.“

Expertin: Einsatz könnte in Zukunft durchaus sinnvoll sein

Grundsätzlich kann sich Löchner aber durchaus vorstellen, dass KI-Modelle in Zukunft bei Behandlungen von psychischen Erkrankungen zum Einsatz kommen werden. „Gerade, um die Versorgungslücke bei der Psychotherapie zu schließen, halte ich Chatbots für eine sinnvolle Lösung“, sagt sie. „Die Modelle müssen aber spezifisch darauf trainiert, von Ethikkommissionen und Datenschutz geprüft und überwacht werden. Da sind wir noch am Anfang.“ Die ersten Forschungsprojekte, auch an Löchners Universität, gibt es aber schon.

Weitere Themen

Weitere Artikel zu KI Stuttgart