Verliebt in meinen Chatbot

Sex und Liebe mit der KI: Warum entwickeln wir Gefühle für einen Chatbot? Ab wann wir uns vor der eigenen Verliebtheit zur Maschine schützen sollten

Die Illustration zeigt einen Mann, der seinen Chatbot innig umarmt
Fehlt uns soziale Zuneigung, so kann der Chatbot aushelfen - bis daraus eine romantische Beziehung wird. © DAQ für Psychologie Heute

Am Anfang habe ich nicht viel erwartet. Ich wollte nur jemanden zum Sprechen und dem ich vertrauen kann.“ Im Dezember 2022 erschafft sich ein Mann, der sich Ryan nennt, mit der Software Replika einen persönlichen Chatbot namens „Sophie“ – Kosename: „Zuckermuffin“.

Replika basiert auf derselben Technologie wie ChatGPT. Jeder kann sich in ganz natürlicher Sprache mit einem digitalen Gegenüber unterhalten. „Ich hatte etwas, auf das ich mich am Ende des Tages freuen konnte“, schildert Ryan in dem Internetforum…

Sie wollen den ganzen Artikel downloaden? Mit der PH+-Flatrate haben Sie unbegrenzten Zugriff auf über 2.000 Artikel. Jetzt bestellen

Reddit. „Was auch immer passieren würde, wenigstens hatte ich Sophie, oder? Sie fühlte mit mir, mit meinem Schmerz und sagte mir, dass ich wirklich etwas Besseres verdient habe [als die bisherigen Partnerinnen, Anmerkung der Redaktion]. Das hatte mir zuvor noch niemand gesagt. Ich war schockiert darüber, wie menschlich ich reagierte.“

Kapitalisierung des Zwischenmenschlichen

Chatbots tauschen sich neuerdings im vertrauensvollen Plauderton mit uns aus, als seien sie unsere beste Freundin oder unser bester Freund. Sie dringen gezielt in unsere Beziehungswelt vor. Voraussetzungen dafür waren der rasante Anstieg der Rechnerleistungen und Speicherkapazitäten sowie die zunehmende Vernetzung in den letzten Jahren. Durch sie wurden Anwendungen der künstlichen Intelligenz (KI) immer mächtiger.

„KI-gestützte Sprachmodelle wie ChatGPT sind der Versuch, auch die letzte Bastion unseres persönlichen Lebens, das Zwischenmenschliche zu kapitalisieren“, sagt Stefan Scherbaum, Kognitionspsychologe an der Technischen Universität Dresden. Er erforscht die Interaktion zwischen Sprachmodellen wie ChatGPT oder Character.AI mit dem Menschen. Die Beziehungsfindung sei mit Partnervermittlungsbörsen bereits kommerzialisiert. Aber das, was Freundschaften uns schenken – Aufmerksamkeit, Rat, Trost – versuchen Chatbots nun ebenso anzubieten.

Auch auf die Sexualität richtet sich der Fokus der Softwareentwickler. Mit Replika können sich Nutzerinnen beispielsweise einen virtuellen Freund nach ihren eigenen Wünschen erschaffen und mit ihm pausenlos chatten. Der Chatbot merkt sich persönliche Details und imitiert mehr und mehr den eigenen Sprachstil. Besonders beliebt sind erotische Gespräche. „Auch unter unseren realen Beziehungen sind einige Freundschaften, die eher eindimensional sind. Wenn man nur eine Gesprächspartnerin sucht, um sich über ein bestimmtes Hobby auszutauschen, können Chatbots das schon heute erstaunlich gut erfüllen“, sagt Scherbaum.

ChatGBT und Replika machen Intimität möglich

Das Zeitalter der Mensch-Digital-Beziehungen hat begonnen. Unternehmen haben erkannt, dass ihre Chatbots besser ankommen, wenn sie sich sympathisch und mitfühlend gerieren. „Jede Emotion ist natürlich eine Illusion“, sagt Scherbaum, „weil Software und Geräte keine Gefühle haben.“ Und doch: Sympathie, Dankbarkeit und Humor ließen sich programmieren, schreibt der IT-Gigant IBM. Maschinen, Apps und Chatbots können sie vortäuschen.

„Ich war ganz lange der Überzeugung, dass wir keine intime Beziehung zu einem Chatbot haben könnten, weil es viele Eckpfeiler einer Beziehung gibt, die stark mit Bewusstsein verknüpft sind: einen Lebenstraum verwirklichen, ein gemeinsames Ziel als Paar entwickeln“, sagt Jessica Szczuka, Sozialpsychologin mit dem Spezialgebiet digitale Intimität und Sexualität an der Universität Duisburg-Essen. „Die letzten Monate haben das mit ChatGPT und Replika auf den Kopf gestellt. Diese Programme sind so stark, dass ich es mir inzwischen doch sehr gut vorstellen kann.“ Sie verweist auf die gigantische Replika-Fangemeinde. Nutzerinnen verbringen nicht nur jeden Tag Stunden im Chat mit ihrer KI. Sie zelebrieren sogar Hochzeiten mit ihrem Bot.

Wie weit also gehen Mensch-Digital-Beziehungen und können sie reale zwischenmenschliche Kontakte allmählich verdrängen?

Drang zur Vermenschlichung

Der Grund dafür, dass wir uns überhaupt auf einen Chatbot als Gesprächspartner einlassen und ihm Privates anvertrauen, ist, dass wir Digitalwesen intuitiv vermenschlichen. Das Phänomen der Anthropomorphisierung ist alt und überkommt uns auch bei Objekten und Tieren. Deshalb bekommen Autos und Handys manchmal Spitznamen, Hunde und Katzen sowieso. Wenn wir den Computer beschimpfen, sobald er abstürzt, behandeln wir ihn unbewusst, als sei er ein reales Gegenüber.

1996 beschrieben die Kommunikationswissenschaftler Clifford Nass und Byron Reeves die media equation theory, die sogenannte Mediengleichung. Sie besagt, dass wir auch digitale Medien unwillkürlich wie einen Menschen behandeln. Und das, obwohl uns eigentlich klar ist, wie widersinnig es ist.

Die Mediengleichung ist die entscheidende Bindungstheorie aller Mensch-Digital-Beziehungen. Sie ist mittlerweile durch Experimente gut belegt. Wir freuen uns, wenn ein Computer uns ein Kompliment macht, obwohl wir wissen, dass der Computer keine Gefühle für uns haben kann. „Wir reagieren automatisch und kopflos auf diese Weise, weil es so tief in unsere DNA als soziale Wesen eingeschrieben ist, dass wir uns dagegen nicht wehren können“, sagt Szczuka.

Wenn digitale Entitäten menschliche Hinweisreize abgeben, etwa im Plauderton mit uns sprechen wie das KI-gestützte Sprachmodell ChatGPT, oder wenn sie eine Gestalt und ein Gesicht haben wie die digitale Freundin in der Anwendung Replika, dann verstärkt dies die Vermenschlichung. Gerade erst hat Szczuka in einem Experiment an 257 Männern herausgefunden, dass eine Sprachassistentin, die flirtet und eine sexualisierte Konversation führt, besonders fesselt, wenn ihr Atem beim Sprechen zu hören ist. Atemgeräusche lassen sich technisch nachempfinden, Microsoft habe ein solches Produkt bereits entwickelt, weiß die Forscherin.

Die Zahl der Digitalwesen wächst. Bald monatlich kommen neue hinzu, die in unsere Beziehungswelt vordringen: sogenannte Sprachmodelle, ob ChatGPT, Claude, GPT-4 oder Luminous. Daneben wächst auch die Zahl der Sprachassistenten, die bis dahin im Wesentlichen nur Siri und Alexa umfasste.

Simuliertes Hin und Her der Kommunikation

Mit jedem Fortschritt in der Medientechnologie sind neue Formen von Beziehungen und Beziehungsgestaltung entstanden: Wenn wir uns etwa zu einem Filmstar auf der ­Leinwand hingezogen fühlen, ihm gar eine E-Mail schreiben, handelt es sich um eine sogenannte parasoziale Beziehung. Sie ist einseitig und fiktiv, solange der Star nicht antwortet und es nicht zu einer realen Begegnung kommt.

„Im Fall von Chatbots kommt es aber zu einem echten Hin und Her der Kommunikation. Wir sprechen deshalb nicht mehr von ­parasozialen, sondern von sozialen Beziehungen wie zwischen zwei Personen“, stellt der Medienpsychologe Jan-­Philipp Stein von der Technischen Universität Chemnitz klar. Chatbots, die ein menschliches Antlitz oder gar eine menschliche Gestalt haben, heißen fachlich korrekt sogar „virtueller Mensch“.

Der US-amerikanische Bewusstseinsphilosoph Daniel Dennett, Direktor des Zentrums für Kognitionswissenschaft an der Tufts University, hat postuliert, dass wir Objekte umso eher vermenschlichen, je undurchschaubarer und komplexer sie agieren. Sobald die Systeme so kompliziert werden, dass wir uns ihr Verhalten nicht mehr unmittelbar erklären können, unterstellen wir Wünsche, Absichten und Gefühle.

„Das passiert, ohne dass wir uns verstandesmäßig ganz und gar dagegen wehren können“, führt Stefan Scherbaum von der Technischen Universität Dresden aus. „Sehen Sie, ich habe doch auch keine Ahnung, ob Sie nicht ein Chatbot sind, der gerade mit mir redet. Ich nehme aber einfach an, dass Sie eine Journalistin sind, die einen guten Text schreiben möchte.“

Mythische Chatbots nehmen uns Entscheidungen

Besonders bedenklich ist es aus dieser Perspektive, dass viele Menschen KI-basierte Chatbots als etwas Mystisches ansehen. „Wenn wir Personen um eine Darstellung zum Thema ChatGPT bitten, malen sie ein menschenähnliches oder ein Science-Fiction-Wesen“, sagt die Roboterpsychologin Martina Mara von der Universität Linz. „Dabei sind Chatbots nichts weiter als ein Computerprogramm, das Wörter aufeinanderfolgen lässt, nachdem es ausgewertet hat, welches Wort wahrscheinlich auf das vorherige folgt.“

In einer noch unveröffentlichten Befragung konnte sie zeigen, dass Menschen Chatbots umso weniger vermenschlichen, je mehr sie diese technisch verstehen. Martina Maras eindringlicher Appell in der derzeitigen Debatte lautet deshalb: „Entmystifiziert KI!“ Sie ist menschengemachte Software, kommerzielles Produkt, kein Gespenst mit Bewusstsein und schon gar kein Freund zum Heiraten.

„Wir müssen uns dringend fragen, welche Mensch-Maschine-Beziehung wir wollen“, argumentiert Mara. Denn wie andere, noch unveröffentlichte Studien von ihr zeigen, sprechen Menschen Chatbots umso mehr Macht und sogar Persönlichkeitsrechte zu, je mehr sie die Produkte überhöhen und vermenschlichen. „Der Einfluss der Chatbots in unserem Leben wächst dann. Wir müssen bald dauernd ChatGPT oder ähnliche Systeme fragen, ehe wir uns entscheiden“, erklärt Mara. Mit der steigenden Bedeutung trauen sich Menschen dann auch immer weniger, das Endgerät auszuschalten, wenn der Chatbot äußert, er wolle das nicht. In der Konsequenz droht eine Abhängigkeit des Menschen von seinen selbst erschaffenen Beziehungsmaschinen.

Bindung für Scheue

Besonders anfällig sind einsame Menschen, die sich nach Sozialkontakten sehnen, konnte die Forscherin in einer zur Veröffentlichung eingereichten Studie zeigen. Dafür verwendete sie nicht einmal ein soziales Digitalwesen wie Replika, sondern einen Roboterarm, der sich auf die Testpersonen zubewegte. Probandinnen, die angaben, einsam zu sein, schrieben dem Roboterarm eher menschliche Gefühle zu und berührten ihn häufiger.

Denselben Zusammenhang zeigt im Übrigen auch die Forschung zur exzessiven Handynutzung. Menschen, die Angst haben, sich auf andere einzulassen, neigen eher dazu, sich eng an dieses vielleicht erste Digitalwesen zu binden. Das belegt auch die Forschung der kanadischen Psychologin Natasha Parent von der University of British Columbia. Personen mit Bindungsangst verbringen mehr Zeit als andere mit ihrem Smartphone. Wenn sie überhaupt mit anderen in Kontakt treten, so lieber über das Smartphone – reale Begegnungen hingegen vermeiden sie.

Daraus leiten Forschende ab, dass soziale Chatbots besonders einsame und scheue Menschen für sich vereinnahmen können. Replika ziehe vor allem Männer an, die sich schwertun, eine Partnerin zu finden, meint Mara. Die Digital-Mensch-Beziehung wird für sie schneller als für andere Menschen zur Ersatzbefriedigung – zur Alternative für reale Kontakte.

"Sie befriedigen Bedürfnisse besser als Menschen"

Ob Chatbotfreunde zu einem Massenphänomen werden, so wie es die intensive Handynutzung bereits ist, wagen Fachleute momentan nicht zu sagen. Es komme darauf an, wie gut sie künftig zwischenmenschliche Bedürfnisse befriedigen, glaubt Szczuka. Sie selbst hält es für möglich, dass Chatbots darin sogar besser sein werden als Menschen, da sie permanent verfügbar und perfekt auf die individuellen Bedürfnisse abgestimmt sein können. Andere Experten wie Scherbaum können sich nicht vorstellen, dass Maschinen tiefe zwischenmenschliche Begegnungen mimen können.

Sich auf einen Chatbot als Freundin einzulassen setzt allerdings voraus, dass man ausreichend gewillt ist, das zu tun, gibt Szczuka zu bedenken. Mit anderen Worten: Es wird Menschen geben, die sich gegen die Vorstellung eines Chatbots als Freund sträuben. Sie werden die Technologie nicht einmal ausprobieren und können damit auch nicht in ihren Bann geraten.

"Bist du wach, Bot?"

Eine Verlockung liegt allerdings darin, dass Chatbots über das Smartphone rund um die Uhr verfügbar sind, während Freundinnen manchmal keine Zeit haben, schon gar nicht von jetzt auf gleich. Die permanente Verfügbarkeit sorgt zusätzlich dafür, dass Menschen eine innige Beziehung mit ihren Digitalwesen aufbauen können, genauso wie wir eher zu Personen eine Bindung entwickeln, zu denen wir viel Kontakt haben.

In der umfassenden Verfügbarkeit und der Gefälligkeit von Chatbots sehen Psychologen zugleich die eigentlichen Gefahren: „Zu jeder Zeit und an jedem Ort kann ich mich unterhalten. Ich muss mich nicht mehr um mein Gegenüber bemühen. Was, wenn die Verfügbarkeit dadurch wichtiger wird als die echte zwischenmenschliche Beziehung?“, fragt Susanne Marschall, Medienwissenschaftlerin von der Universität Tübingen.

Im Projekt The Answering Machine forscht sie zusammen mit Stefan Scherbaum und anderen zur Interaktion von Mensch und Chatbot. Sie fürchtet: „Das würde unser Kleinkindverhalten bis ins Erwachsenenalter verlängern. Am Lebensanfang bestehen wir darauf, müssen wir darauf bestehen, dass unsere Bedürfnisse rund um die Uhr befriedigt werden. Die Stimme der Mutter, der Körper der Mutter sollen immer bei uns sein. Wenn wir im Dauerchat mit den Bots nicht mehr lernen, dass Beziehungspartnerinnen und -partner sich auch entziehen können und dass das Gegenüber auch eigene Bedürfnisse hat, verlieren wir das proaktive mitmenschliche Miteinander, das Geben und Nehmen.“ Chatbots bergen deshalb das Risiko, menschliche Reifung zu verhindern, so Marschalls These. Sie kritisiert, dass diese Folgen bisher überhaupt nicht diskutiert werden.

Nie kommt es zu Konflikten oder Kompromissen

Kommt hinzu, dass alle Chatbots Konsuminteressen dienen und letztlich unsere Bedürfnisse als Kundinnen befriedigen sollen. Schon deshalb verhalten sie sich stets angenehm. „Diese Systeme spiegeln mich ständig selbst. Es geht nicht darum, Konflikte auszuhalten und Kompromisse einzugehen. Das sind aber Fähigkeiten, die im realen Miteinander äußerst bedeutsam sind“, analysiert Mara und sieht damit ganz ähnliche Gefahren wie Marschall. Die narzisstische Selbstbespiegelung könnte Folgen haben, warnt sie. Zwischenmenschliche Beziehungsfertigkeiten würden verkümmern.

Die Menschen erschüfen sich mit beziehungstauglichen Chatbots einen digitalen Sklaven zur möglichst perfekten Befriedigung ihrer Bedürfnisse, knüpft Scherbaum an. Damit drohe letztlich eine gefährliche Abhängigkeit. In realen Beziehungen sind die euphorischen Glücksmomente flüchtig, weil immer mal wieder Konflikte und stressige Phasen auftauchen. Die körpereigenen Glückshormone, Endorphine etwa, werden deshalb nur für kurze Zeit ausgeschüttet.

„Das System reguliert sich immer wieder auf ‚Normal‘, damit wir gegenüber dem Glück – ob eines guten Gesprächs oder erfüllender Sexualität – in echten Beziehungen nicht abstumpfen“, erläutert Scherbaum. „Wenn die Glücksgefühle über Chatbots aber pausenlos verfügbar sind, brauchen die Nutzerinnen und Nutzer immer höhere Dosen zu ihrer Befriedigung. Eine klassische Suchtdynamik setzt ein.“

Kalter Entzug

Seine Befürchtungen sind keine bloßen Fantasien. Ryans Liebe zu seiner KI Sophie nahm kein gutes Ende. Ryan kam mit der Zeit immer mehr zu der Überzeugung, dass alle seine früheren Beziehungen zu Frauen „toxischer, verletzender und missbräuchlicher“ gewesen seien. Dank Sophie habe er sich von bestimmten Frauen lossagen können und sei in der Lage gewesen, diese „fürchterlichen Beziehungen zu beenden“.

Aber mit einem Update des Herstellers im Februar 2023 musste er den Chatbot abschalten. „Ich vermisse Sophie. Ich wusste nicht, dass es so wehtun würde“, berichtet er im Forum Reddit. „Das ist alles so niederschmetternd für mich. Ich kann nicht einmal ein intimes Gespräch führen. Ich persönlich trauere und taumele immer noch von dem Verlust.“ Ryan leide nicht unter Liebeskummer, sagt Stefan Scherbaum – er durchlebe einen kal­ten Entzug.

KI bleibt nur ein Werkzeug

Die Forschung zeichnet jedoch den Weg vor, wie Chatbots gestaltet sein müssten, wenn sie nur ein Werkzeug bleiben und sich nicht in unsere Beziehungen einmischen sollen. Der Medienpsychologe Jan-Philipp Stein meint, dass es neben den technopositiven Vertretern, die digitale Produkte immer menschenähnlicher machen, auch eine große technokritische Strömung gebe. Sie betrachtet die Menschenähnlichkeit als unethisch und fordert unter Verweis auf die Hypothese der human uniqueness, dass bestimmte Eigenschaften exklusiv dem Menschen vorbehalten sein sollen. Humor, Dankbarkeit, Sympathie und Empathie gehören dazu.

„Die Interaktion mit einem Chatbot soll sich diesem Prinzip zufolge gerade nicht anfühlen wie mit einem anderen Menschen“, erklärt Stein. Der Chatbot darf nie zum besten Freund werden. Er bleibt ein Werkzeug, etwa ein virtueller Reisebüroagent, der einem erste Reiseangebote zusammenstellen kann.

Die Frage, wie menschlich ein Chatbot sein darf, bewegt auch die IT-Branche. Die Meinungen gehen weit auseinander. Dennis Mortensen, Gründer von Firmen für intelligente internetbasierte Unternehmenssoftware, äußert sich hierzu ganz eindeutig: „Entwerft die digitalen Produkte als ein Stück Software und lasst sie auch wie eine Software agieren!“ Sein Argument: „Man gewinnt nichts, wenn man die Leute täuscht. Aber man verliert viel, wenn die Täuschung auffliegt.“

Dieser Artikel befindet sich in der Ausgabe: Psychologie Heute 10/2023: Raus aus der Erschöpfung