Beziehungen und KI „Soll ich mich von meiner Frau trennen, ChatGPT?“
Immer mehr Menschen suchen bei Beziehungsproblemen Hilfe bei einer Künstlichen Intelligenz. Was taugen die KI-Ratschläge?
Immer mehr Menschen suchen bei Beziehungsproblemen Hilfe bei einer Künstlichen Intelligenz. Was taugen die KI-Ratschläge?
„Ja, es wäre besser für dich, wenn du dich trennst.“ Schon lange hadert der Mann mit der Scheidung, geht den Schritt aber doch nicht. Auch mit Freunden hat er das Thema besprochen, aber nicht den klaren Ratschlag erhalten, den er gern hören möchte. Der Chatbot aber, den er nun mit seinen Beziehungsproblemen konfrontiert, liefert das, wonach er ihn fragt: eine eindeutige Empfehlung.
Einer künstlichen Intelligenz seine Beziehungsprobleme anzuvertrauen und Rat bei einem Computer für mitunter gravierende Lebensentscheidungen zu suchen, verbreitet sich rasant. „Noch vor einem Jahr war das eher die Ausnahme. Heute ist es die Regel“, sagt die Schweizer Paartherapeutin Felizitas Ambauen.
Sie kann auch verstehen, warum so viele Menschen diesen Weg gehen, immerhin ist so ein Chatbot rund um die Uhr verfügbar, er kostet nichts, man muss nicht auf einen Termin warten, man kann ihn 50-mal dasselbe fragen, ohne dass er ärgerlich wird. Und vor allem liefert er das, was Therapeuten in aller Regel ablehnen, viele Patienten aber suchen: klare Ratschläge.
„In den Therapien geht es uns darum, die Leute dazu zu befähigen, selbst ihre Entscheidungen treffen zu können“, sagt Bastian Schiller, Professor am Psychologischen Institut der Universität Heidelberg. Dazu gehört es, sich auch mal kritischen Fragen zur eigenen Verhaltensweise zu stellen, den eigenen Beitrag für einen zwischenmenschlichen Konflikt zu sehen. Das ist bisweilen unbequem. „Ein Ratschlag, der sich für den Moment gut anhört, weil er mich bestärkt, muss aber nicht langfristig gut für mich sein“, sagt Bastian Schiller.
Chatbots aber seien darauf ausgelegt, den Menschen zu gefallen. Im Oktober 2025 konnte ein US-amerikanisches Forscherteam in einer Studie zeigen, dass Künstliche Intelligenzen dazu neigen, den Nutzerinnen und Nutzern zu schmeicheln und im Zweifel recht zu geben. Sie bestärken die Fragenden oft darin, dass ihr Verhalten richtig gewesen sei und sie nichts falsch gemacht hätten. Eben aus diesen Gründen warnten die Forscher davor, Chatbots als persönliche Lebensberater zu nutzen.
„Natürlich könnte ich einem Chatbot auch dazu bringen, kritische Rückfragen zu stellen, wenn ich ihn mit den entsprechenden Informationen füttere und in diese Richtung anleite. Ich glaube aber, die wenigsten Menschen machen das“, sagt Bastian Schiller. Stattdessen überraschte die KI Bastian Schiller und sein Forscherteam neulich sogar darin, schneller gefühlte Nähe erzeugen zu können als ein realer Gesprächspartner.
„Die Studienteilnehmer, die nicht wussten, dass sie mit einem Chatbot sprachen, konnten sich in diesen Gesprächen tatsächlich schneller öffnen, weil die KI mehr emotionale Wörter und mehr Ich-Botschaften verwendet hat, als die echten Gesprächspartner“, sagt Bastian Schiller. Wussten die Teilnehmer dagegen, dass es sich um einen Chatbot handelte, waren sie vorsichtiger.
Mehr gesunde, kritische Distanz zu den künstlichen Therapeuten würde sich auch Felizitas Ambauen wünschen. „Sich eher allgemeine Infos zu einem Beziehungsproblem einzuholen, kann ja durchaus hilfreich sein. Kritisch wird es, wenn man sich konkrete Einschätzungen oder Lösungen erhofft, die direkt auf die Beziehungsperson abzielen“, erklärt die Schweizer Paartherapeutin.
So habe sie es schon erlebt, dass eine Klientin ihrem Mann Narzissmus unterstellt und einen Chatbot um Rat gefragt habe. „Zum Schluss war der Anwalt am Telefon, eine Mediation wurde gefordert. Mit ihrem Partner aber hatte die Frau noch gar nicht gesprochen. Dafür wurde der Chatbot zum besten Freund, zum Therapeuten und zum Schiedsrichter“, sagt Felizitas Ambauen. Dass der Partner weitere Charaktereigenschaften habe oder dass es bei der Beurteilung von Narzissmus auch auf die konkreten Situationen ankäme, ließ der Chatbot bei seiner Beratung außen vor.
Um die oft sehr komplexen und individuellen menschlichen Verhaltensweisen auch individuell deuten zu können, fehlt dem Chatbot auch noch ein weiteres Werkzeug: das direkte Gespräch. „Wenn ich Menschen in Therapiestunden gegenüber sitze, sehe ich die Mimik, spüre, wenn jemand traurig wird oder Angst bekommt. Und ich kann es deuten, wenn jemand mit einer Antwort beispielsweise lange zögert. Das alles kann ein Chatbot nicht“, sagt Psychologieprofessor Bastian Schiller. Trotzdem kann er sich Bereiche vorstellen, in denen Chatbots Therapeuten künftig auch sinnvoll in ihrer Arbeit unterstützen könnten. „Psychotherapeutinnen und Psychotherapeuten sehen die Patienten ja meist nur einmal in der Woche für eine Stunde. Wenn es dazwischen ein sicheres und wissenschaftlich basiertes Tool gäbe, das meine Therapie weiter unterstützt, könnte das durchaus hilfreich sein“, erklärt Bastian Schiller.
Und dann sind da noch die Menschen, die trotz Problemen bislang keine Paartherapie aufsuchen – sei es aus Scham, weil die Kosten hoch sind oder die Wartezeiten zu lang. Für diese Menschen entwickelt die Therapeutin und Psychologin Laura Vowels von der Universität Lausanne derzeit einen Chatbot namens Amanda, der auch wissenschaftlichen und datenschutzrechtlichen Anforderungen genügen soll.
„Amanda soll auch keine schnellen Lösungen präsentieren, sondern dazu anregen, über Gefühle, Bedürfnisse und Verhaltensweisen nachzudenken und sich auch mal selbst zu hinterfragen“, präzisiert Laura Vowels. Ebenso könnte Amanda beispielsweise dazu motivieren, digitale Selbsthilfeprogramme für zu Hause auch wirklich durchzuführen. Was Amanda von anderen Angeboten unterscheidet: „Das Ziel ist es, bestehende Hilfsangebote zu ergänzen und nicht, sie zu ersetzen“, betont Laura Vowels.