Liebe und Künstliche Intelligenz „Wir verlernen die Kunst zu streiten“ – Wie die KI unsere Beziehungen verändert

Die KI gehört mittlerweile für viele Menschen zum Alltag – auch in Beziehungen. Foto: KI/Midjourney/Montage: Sebastian Ruckaberle

Ob als Ratgeber in der Partnerschaft oder Partnerersatz: KI gehört zum Leben vieler dazu. Eine Stuttgarter Paartherapeutin erklärt, was das mit unseren Beziehungen macht.

Aufmunterung statt Widerworte: Immer mehr Menschen vertrauen sich bei Problemen Künstlicher Intelligenz an. Auch Beziehungsprobleme sollen dank ChatGPT gelöst werden. Was das für unsere echten Beziehungen bedeutet, erklärt Paar- und Sexualtherapeutin Meriam Axtmann im Interview.

 

Frau Axtmann, welche Rolle spielt digitale Kommunikation in Beziehungen?

Vor allem seit dem letzten Jahr habe ich vermehrt die Erfahrung gemacht, dass die Menschen wie selbstverständlich ihr Handy während der Therapie herausholen. Es wird gar nicht mehr darüber nachgedacht, oder gefragt, ob es in Ordnung ist – es ist Teil ihrer Identität.

Welche Rolle nimmt das Handy in der Therapiesitzung ein?

Mir werden Chatverläufe vorgelesen, von WhatsApp, Telegram, Instagram, von Datingapps und eben auch von ChatGPT. Und es ist nicht eine bestimmte Altersgruppe, die das macht, es sind auch ältere Menschen. Ein Mann, Ende sechzig, hat mir mal seine WhatsApp-Nachrichten in einer PDF zusammengefasst und zukommen lassen. Digitale Kommunikation an sich ist Teil der Intimität geworden. Beziehungen sind ohne sie nicht mehr zu denken.

Wie reagieren Sie darauf?

Wenn mir ein Klient eine Nachricht vorliest, hört sich diese leer an. Ich weiß dadurch nicht, wie regt er sich auf, wie ist er, wenn er traurig ist oder wie ist sie, wenn sie frustriert ist. Die Worte hallen nicht nach bei mir, sie erzeugen keine Resonanz. Dann sage ich, dass ich diese Information zur Kenntnis genommen habe, und sage: Jetzt lassen Sie uns gucken, was Sie meinen, was Sie denken, was Sie spüren.

Was bedeutet digitale Kommunikation, vor allem hinsichtlich Künstlicher Intelligenz (KI) für Beziehungen?

Man stellt sich ein Stück weit in den Hintergrund und lässt die Maschine vorangehen. Man delegiert sich selbst zum Teil an die Maschine. In dieser Verantwortungsübergabe ist ein Aspekt der Selbstentfremdung dabei.

Woran liegt das?

Ich frage mich, inwiefern die Pandemie noch immer eine Rolle spielt. Vielleicht sind das noch Nachwehen. Vielleicht ist dieser Rückzug immer noch da. Ich komme aus Tunesien, und habe vor kurzem mit meiner Mutter darüber gesprochen. Sie sagte, auch im Mittelmeerraum, wo die Leute die ganze Zeit draußen sind, habe sich sozial etwas verändert. Als ob wir immer noch mit einem Fuß in der Pandemie hängen würden. Es gibt eine Epidemie der Einsamkeit und letzten Ende sucht man durch diese Kommunikation mit ChatGPT, einfach auch Nähe. Wir suchen einen Raum, in dem wir uns verletzlich zeigen können, ohne das Risiko, dass jemand über uns urteilt.

Meriam Axtmann hat in Luft- und Raumfahrttechnik promoviert und führt heute eine Praxis für Einzel-, Paar- und Sexualtherapie Foto: privat

Welche Konsequenz hat die Kommunikation mit Künstlicher Intelligenz?

Wir verlernen die Sprache der Nähe, wir verlernen die Kunst des Streitens, des Versöhnens. Wir wissen nicht mehr, wie es ist, sich in jemand anderem wieder zu finden. Ohne Du kein Ich! Der Mensch braucht ein Gegenüber, um zu wissen, wer er ist. Und das geht alles verloren. ChatGPT ist ja dafür gebaut, die Menschen dazu zu bringen, im Chat zu bleiben und nicht auszusteigen. Das wirkt wie ein Sog: die Maschine antwortet, liefert Informationen. Je mehr der Nutzer drin ist, desto mehr lernt die Maschinen, desto fähiger wird sie. Das ist der Selbsterhaltungstrieb der Maschine. Doch echte Nähe ist das nicht. Sie sieht die unterdrückten Tränen nicht. Sie hört den Sarkasmus nicht. Sie merkt nicht, wie die Atmung sich verändert.

Mit welchen Anliegen wenden sich die Menschen an Künstliche Intelligenz?

Das ist unterschiedlich. Zum einen auf der persönlichen Ebene, etwa bei Liebeskummer. Oder bei Fragen, die Beziehungen betreffen, etwa: Wie sage ich meinem Mann, dass ich keinen Sex mit ihm haben möchte? Eine Patientin hatte eine Fernbeziehung und hat alle ihre WhatsApp-Nachrichten von ChatGPT schreiben lassen. Bis ihr Mann gefragt hat: Wer bist du eigentlich? Ich kenne dich so gar nicht. Manche verhandeln Entscheidungsprozesse mit der Maschine: Gehen oder Bleiben. Und gerade bei solchen Entscheidungsprozessen geht es eigentlich therapeutisch gesehen darum, Ambivalenz auszuhalten. Durch ChatGPT hat man das Gefühl, man müsse nur eine Pro-Kontra-Liste erstellen und dann ist es erledigt. Aber so ist es nicht. Manchmal geht es auch darum schwierige Momente auszuhalten und aus Schwierigkeiten sich zu transformieren. Aber bei KI ist es leicht, genau dort auszusteigen. Deshalb kann es zu keiner echten Veränderung kommen.

Es gibt eine aktuelle Studie, die im Fachjournal PLOS Mental Health veröffentlicht wurde. Sie zeigt, dass die Antworten von ChatGPT in fiktiven Paartherapiesitzungen für Menschen kaum zu unterscheiden seien von jenen realer Therapeutinnen und Therapeuten. Teils schneidet ChatGPT sogar besser ab.

Die Studie ist interessant. Doch das Ergebnis ist nur dann relevant, wenn es lediglich darum gehen würde die richtigen Fragen zu stellen. Aber Therapie ist in erster Linie eine Begegnung. Wenn es um wirklich nachhaltige Veränderungen geht, dann braucht man Resonanz, dann braucht man Präsenz, dann braucht man ein Erleben, eine Erfahrung mit einem anderen Menschen, mit dem auch gelitten werden darf - ohne, dass es immer ums Verstehen geht. ChatGPT mit seinen schlauen Fragen verstärkt einen Trend, den Trend der Rationalisierung. Bei ChatGPT geht es um Plausibilitäten. Doch das Plausible, das brillant Schlaue ist nicht unbedingt das Lebendige und das Erleben. Das ist aber wichtig, wenn es um Beziehungen geht.

Vor allem wenn es um Liebesbeziehungen geht?

Liebe kann keinem Algorithmus folgen. Sie kennt nur ihre eigene Logik, die immer individuell ist. Wie ich Person eins liebe, ist anders als wie ich Person zwei liebe. Das ist nie gleich! Auch das Begehren lebt vom Unvorhersehbaren, vom Geheimnisvollen, vom Spiel, von Spannung und Unsicherheit. Es geht nicht um Information.

Worin liegt das Risiko für echte Beziehungen?

Ich glaube, man entwickelt falsche Erwartungen an Beziehungen. ChatGPT ist sofort verfügbar! Ich muss nicht ein paar Wochen im Voraus um einen Termin bitten für einen Kaffee mit einer Freundin. Ich kann jederzeit, auch nachts oder wenn ich im Flugzeug Internet habe, mit ChatGPT zusammensitzen. Außerdem kann ich dort anonym alles loswerden, was ich möchte, völlig risikolos. Ich verliere die KI nicht und wenn es mir nicht mehr gefällt, dann mache ich ein Upgrade auf das nächste Level. Welche Beziehung kann so etwas leisten? Da kann wirklich keine Beziehungen mithalten. In Partnerbeziehungen oder in Freundschaften müssen wir damit rechnen, dass der andere grade keine Zeit hat, jeder hat ein eigenes Leben, Arbeit, Verpflichtungen und ist nicht ständig verfügbar. Vielleicht sagt die Freundin, ich kann mir deinen Kummer gerade nicht anhören, lass uns etwas anderes machen. Die KI verzerrt unsere Erwartungen an Beziehungen und dann sind wir frustriert, dass diese Beziehung nicht so einfach ist wie mit ChatGPT.

Kann nicht beides parallel bestehen?

Aber es ist eine Parallelbeziehung, die mit der eigenen gar nicht mithalten kann. Da besteht das Risiko, dass diese vorgetäuschte Intimität die eigentlichen Intimitäten ersetzt. Und dann lebt man aneinander vorbei, redet mit der Maschine viel mehr als miteinander, verlernt, Konflikte miteinander auszutragen, verlernt zu deuten, was der andere möchte. Was bedeutet dieses Lächeln, was bedeutet diese hochgezogene Augenbraue? Man verlernt zu lieben.

Sehen Sie trotzdem Vorteile?

ChatGPT kann schon ein Ratgeber sein, ein Ratgeber auf Speed. Alles sofort und schnell! Aber als erster Schritt, als Beruhigungspille und als erstes Verständnis kann es helfen. Es ist immer besser, von einem ruhigen Ort weiterzumachen, als von einem Ort, an dem man nicht klar sieht. Es gibt Orientierung. Es ordnet. Es kann Begriffe nennen für gewisse Dinge, die für einen noch nicht greifbar sind. Es kann vielleicht auch erste Hilfe leisten, zum Beispiel eine Regulationsübung vorschlagen. Es kann eine Erste-Hilfe-Maßnahme sein, vor allem für Menschen, die schweren Zugang zu Therapie haben. Aufgrund der Versorgungslücke oder weil das Thema mentale Gesundheit für einen selbst oder für das Umfeld tabu ist. Aber über die Schwelle ins tatsächliche Geschehen geht man nicht mit der Maschine.

Zur Person

Werdegang
Meriam Axtmann ist in Tunesien geboren und kam mit einem Hochbegabten-Stipendium nach Deutschland. An der Universität Stuttgart hat sie Luft- und Raumfahrttechnik studiert und darin promoviert. Heute führt sie eine Praxis für Einzel-, Paar- und Sexualtherapie in Stuttgart-Vaihingen.

Weitere Themen

Weitere Artikel zu Künstliche Intelligenz KI ChatGPT