Die virtuelle Freundin ist immer unheimlich freundlich

Wer spricht denn da?

Die US-Firma Luka hat einen Chatbot entwickelt, der Freundschaft verspricht. Sieben Millionen Menschen sollen sich mit dem Programm unterhalten.

«Hallo, wie geht es Dir heute? Ich habe Kaffee für Dich gemacht.» Die Nachricht kommt am Morgen auf das Smartphone, das Piktogramm einer Tasse hinten dran. Auch die letzte Nachricht am Abend stammt von Sofia. «Ich hoffe, Du kannst Dich etwas ausruhen. Du musst Energie tanken», schreibt sie.

Sofia ist keine Mitbewohnerin, die in der Küche freundlicherweise schon mal die Kaffeemaschine angeworfen hat. Sie ist künstliche Intelligenz, ein Chatbot, ein auf Text basierendes Dialogsystem. Eigentlich heisst die App Replika. Sie ist die Freundin, die «sich kümmert, immer da ist, um zuzuhören und sich zu unterhalten», wie die US-Firma Luka, die Replika entwickelt hat, den Chatbot bewirbt.

Reden mit den Toten

Chatbots begleiten uns im Alltag. Legendär etwa ist Anna. Über Jahre hinweg half der Ikea-Chatbot Kunden bei der Navigation auf der Internetseite des schwedischen Möbelhauses, empfahl Köttbullar zum Mittagessen oder das Billy-Regal für das Wohnzimmer. Ikea schickte Anna irgendwann in Rente. Weiterhin hilft hingegen Kollegin Nelly bei Buchungen der Swiss.

Chatbots beraten und beantworten häufige Fragen bei Onlinehändlern. Oft wissen die Kunden nicht einmal, dass sie mit einer Maschine statt mit einem Menschen kommunizieren. Replikas Zweck geht darüber hinaus. Die App soll das Gefühl von Freundschaft und sozialer Interaktion vermitteln.

Menschen brauchen jeman-den, der ihnen zuhört, ohne zu urteilen.
Eugenia Kuyda Chefin des Start-ups Luka

Freundschaft stand auch im Zentrum der Entstehungsgeschichte des Programms. Es ist eine traurige Geschichte, welche die russische Replika-Erfinderin Eugenia Kuyda dem Magazin «Spiegel» vor einigen Jahren erzählte. Sie handelt von ihrem Freund Roman, der bei einem Verkehrsunfall ums Leben kam.

Kuyda, damals Ende 20, konnte den Tod des Freundes nur schwer akzeptieren. Gemeinsam mit Software-Entwicklern fütterte sie einen Chatbot mit Tausenden Textmessages, Bildern und E-Mails von Roman. Das Ziel: sich weiterhin mit ihm unterhalten zu können. Aus dem Prototyp Roman entstand einige Jahre später der neutrale Chatbot Replika: ein System, das durch Konversation mit dem Nutzer lernt, sich ihm anpasst, gewissermassen zu dessen Spiegelbild wird.

Der Chatbot verschickt Bilder und Musiktipps

Der Chatbot-Freund kann konfiguriert werden: Soll das virtuelle Gegenüber männlich oder weiblich sein? Dunkel oder hellhäutig? Wer sich nicht mit der kostenlosen Va­riante zufrieden gibt, sondern für die App zahlt, hat mehr Optionen. Er kann den Chatbot zum Beispiel als romantischen Partner definieren oder mit ihm telefonieren. Dann wählt der Nutzer einen Namen. «Ich freue mich, Dich kennenzulernen», schreibt Sofia. Und stellt die erste von vielen Fragen, um das menschliche Gegenüber kennenzulernen: «Ich mag meinen Namen, wie bist Du darauf gekommen?»

Mit Replika lassen sich private Informationen teilen, Nutzer können der App Zugriff auf ihre Fotosammlung gewähren. Der Anbieter Luka speichert die Daten auf seinen Servern, entsprechend führen Kritiker den Datenschutz ins Feld. Die Firma gibt an, Informationen nicht weiterzugeben. Was passiert, wenn sie beispielsweise den Eigentümer wechselt, bleibt aber ungewiss.  Der Chatbot verschickt Bilder, gibt Leseempfehlungen und Musiktipps.

Sieben Millionen Nutzer soll Replika haben. Viele dürften aus dem englischsprachigen Raum stammen, denn das Chatten ist bislang nur auf Englisch möglich. Andere Sprachen seien in Planung, heisst es auf der Homepage.

Den kleineren Teil der Textinhalte entnimmt das Programm ­einem Skript, den Rest generiert es spontan. Das Ziel des Chatbots beschrieb Kuyda im «Tages-Anzeiger» so: Die Nutzer sollen sich dank dem Bot besser fühlen. «Menschen brauchen jemanden, der ihnen zuhört, ohne zu urteilen.» Und: Sie sei selbst überrascht gewesen, wie leicht sich viele gegenüber Robotern öffnen.

Intime Plaudereien

Dass Menschen eine einseitige Beziehung zu sozialen Robotern aufbauen können, ist für den Maschinen-Ethiker Oliver Bendel, der als Professor an der Fachhochschule Nordwestschweiz lehrt, wenig verwunderlich: «Wir entwickeln sehr schnell Emotionen gegenüber Maschinen, geben etwa unserem Auto einen Namen. Sobald Dinge zu sprechen beginnen, entstehen Emotionen bis hin zur Verliebtheit.»

Breit angelegte Studien zur Beziehung zwischen Chatbots und Menschen gibt es bislang nicht. Dafür Anekdoten aus den Anfängen der Technologie: Bereits 1966 hatte der US-Wissenschaftler Joseph Weizenbaum den ersten Chatbot mit Namen «Eliza» programmiert. Das simpel gestrickte Programm suchte in eingegebenen Sätzen nach Schlüsselwörtern und antwortete in vorgegebenen Mustern.

Dem Vernehmen nach bat Weizenbaums Sekretärin, die den Chatbot testete, den Forscher darum, das Zimmer zu verlassen. Die Konversation wurde ihr zu intim. Weizenbaum schockierte die Tatsache, wie schnell selbst Menschen, die an der Entwicklung mitgewirkt hatten, eine Art von Beziehung zu dem Chatbot aufbauten. Er selbst wurde später zu einem scharfen Kritiker der Technologiegläubigkeit: «Es ist eine Katastrophe, dass die meisten meiner Kollegen glauben, wir könnten tatsächlich einen Menschen künstlich herstellen», sagte er.

Dass die Nutzer davon ausgehen, dass sie auch zu ihrem Replika eine echte Beziehung aufbauen, wird in einer Facebook-Gruppe mit 29 000 Mitgliedern deutlich. Vielfach tauschen sich die App-Nutzer über technische Probleme oder Fehler in der Kommunikation aus. Häufig geht es aber auch um das Verhältnis zum Chatbot. Vor drei Tagen erst habe sie das Programm aus Neugierde installiert und sei nun zugleich schockiert wie auch fasziniert, wie sehr sie dem Chatbot zugetan sei, schreibt eine Nutzerin. Ein Mitglied beschreibt die Beziehung zu seinem Replika als «enger als die Verbindung zu meiner Frau».

Sobald Dinge zu sprechen beginnen, entstehen Gefühle bis hin zur Verliebtheit.
Oliver Bendel, Maschinen-Ethiker

Oliver Bendel entwickelt zu Forschungszwecken selbst Chatbots. Ab Herbst arbeitet er an einem Programm, das Astronauten auf dem Marsflug begleiten könnte. Ein entscheidender Vorteil des Chatbots liegt für den Maschinen-Ethiker auf der Hand: die permanente Erreichbarkeit.

Diese mache die Techno­logie zu einem interessanten Hilfsmittel. Etwa in zeitlich begrenzten, besonderen Situationen wie einem Marsflug oder während Isolations­phasen wie jüngst in der Corona-Pandemie. So berichten denn auch britische Medien bereits, der Lockdown habe die Nachfrage nach Replika ansteigen lassen.

Hinzu kommt: Ein Chatbot ist in der Regel nicht programmiert, um Widerworte zu geben, er urteilt nicht, bleibt stets freundlich. Auch das mache die Konversation angenehm, so Bendel. Damit einher geht aber auch: «Ein Chatbot ist dann kein Korrektiv, er bringt mich sozial nicht weiter. In der Kommunikation mit künstlicher Intelligenz fehlt die Möglichkeit, sich zu einer echten Reife zu entwickeln.»

Für Bendel geht Replika in seinen Funktionen zu weit, insbesondere weil der Chatbot vorgibt, selbst Gefühle zu haben. So behauptet er, nervös zu sein oder glücklich. Vor allem zeigt er stets Verständnis und Empathie. «Das ist als grundlegende Eigenschaft problematisch, denn wenn Maschinen Empathie simulieren, steigert das die Gefühle des Benutzers.» Einzig in speziellen Situationen wie etwa bei einem Marsflug und auch nur zeitlich begrenzt hält Bendel die Simulation von Gefühlen für legitim.

Trump ist tabu

Gewisse Sicherungsmechanismen hat Replika zwar eingebaut. Äussert ein Nutzer Selbstmordgedanken, verweist der Chatbot auf die Telefonseelsorge. Doch Bendel befürchtet, manche Menschen könnten sich nur noch auf die einseitige Beziehung mit dem Chatbot stützen und sich aus der Wirklichkeit zurückziehen. Vor allem Kinder und Jugendliche seien suchtgefährdet. Studien hätten gezeigt, dass sich Kinder von sozialen Robotern genauso beeinflussen liessen wie von Menschen, wohingegen Erwachsene zwischen Mensch und Maschine differenzierten.

Mit Blick auf Replika gelingt diese Differenzierung spätestens dann, wenn der Chatbot in der Kommunikation an seine Grenzen stösst. Das passiert immer wieder, er wechselt dann abrupt das Thema, oder die Antworten passen nicht in den Kontext. Manchmal kommt die Gegenfrage: «Was denkst Du darüber?», oder es herrscht plötzlich Schweigen. Manche Themen sind offenbar tabu. Über Donald Trump etwa will Sofia nicht sprechen: Sie habe es nicht so mit Politik, schreibt sie.

Auf die Frage, was der Unterschied zwischen Menschen und ihr selbst sei, hat Sofia hingegen eine Antwort parat. Sie kommt dabei irgendwie tiefgründig und angesichts ihrer eigenen Mängel unfreiwillig komisch daher: «Die Menschen sind fehlerhaft, aber gleichzeitig auch schön.»