Eine zwischenmenschliche Beziehung ist mehr als einzelne Erlebnisse, Gespräche oder Alltagsbesorgungen: Das betont ein Theologe. Durch immer menschlicher wirkende Maschinen sieht er diese Besonderheit in Gefahr.
Dass junge Leute über manche Themen keinesfalls mit ihren Eltern sprechen wollen, ist nicht neu. Inzwischen wendet sich die Hälfte der 16- bis 29-Jährigen in bestimmten Fällen indes lieber an ChatGPT, Gemini oder Alexa als an Freundinnen und Freunde, so eine Umfrage des Digitalverbandes Bitkom. Auch darüber hinaus: “Berichte von Leuten, die Avatare vermenschlichen oder ChatGPT als Seelsorger empfinden, nehmen zu”, sagt der Theologe Lukas Brand.
Spätestens seit der Coronazeit wird viel über Einsamkeit gesprochen, die auch junge Menschen verstärkt betrifft. Dieser Trend drohe sich fortzusetzen, warnt Brand – dann nämlich, wenn die Beziehungsfähigkeit abhanden kommt.
Soziale Roboter würden entwickelt, um Gefährten zu sein. Umgekehrt schrieben Menschen ihnen die Fähigkeit zur Freundschaft zu, erklärt der Experte. Es gebe jedoch einen entscheidenden Unterschied zwischen Mensch und Maschine: Menschen gewönnen ihre Bedeutung durch eine potenziell langfristige Beziehung. Dagegen seien “Entitäten” wie Haushaltsroboter oder Sprachassistenten allein im Moment ihrer Nutzung bedeutsam. Wenn Maschinen allerdings immer häufiger menschlich erschienen, drohe der Wert zwischenmenschlicher Beziehungen zu verwischen.
Systeme der Künstlichen Intelligenz (KI) simulierten Wirklichkeit, erläutert Brand. Das mache es immer schwerer, zwischen falsch und echt zu unterscheiden. “Damit wird es auch schwieriger, den Vorwurf von ‘Fake News’ zu entkräften – einfach, weil es auch möglich wäre, dass Aussagen simuliert sind.” Dieses Problem, das derzeit vor allem Internet und Medien betrifft, könnte künftig ebenso im Privaten auftreten.
Was ChatGPT und andere Sprachmodelle binnen Sekunden ausgeben, ist kaum von menschlicher Sprachverarbeitung zu unterscheiden, räumt der Wissenschaftler ein. Das, was menschliche Kommunikation ausmache – eine Intention beim Sprechen und eine Interpretation beim Zuhören oder Lesen -, fehle den KI-Assistenten jedoch.
Viele glaubten, dass hinter dem “Denken” von Chatbots bestimmte Arten von Prompts steckten, “also Texte, die die Maschine zum zielgerichteten Assoziieren bringen”, erklärt die Informatikerin Katharina Anna Zweig. Tatsächliche produzierten bei solch klaren Vorgaben eher korrekte Antworten. Dies sei aber “kein Denken im menschlichen Sinn”: Vielmehr seien die Bots darauf trainiert worden, “in einem Text das nächste, noch nicht geschriebene Wort zu erraten”.
Sie selbst nutze Sprachassistenten für kreatives Brainstorming oder für Anfragen, die sie überprüfen könne, so die Autorin des Buchs “Weiß die KI, dass sie nichts weiß?”. Sie achte zugleich darauf, “von der Maschine nie als ‘er’ oder ‘sie’ zu sprechen, als ob es ein denkendes Wesen wäre.” Von einer Software, einem Computer oder System zu sprechen, erinnere daran, “dass es ein Werkzeug bleibt, mit dem ich arbeiten kann”.
Allerdings ließen Menschen sich stark von sogenannten intelligiblen Texturen beeinflussen – also Wortaneinanderreihungen, die sich wie Texte anfühlten. “Ich glaube, dass wir alle in außergewöhnlichen Situationen dafür empfänglich sind – gerade dann, wenn wir trauern oder einsam sind”, sagt Zweig.
Und die perfekte Simulation scheint in greifbarer Nähe. Elon Musk bezeichnet den aktuellen Tesla-Roboter immerhin als “halb-humanoid”; der japanische Ingenieur Hiroshi Ishiguro arbeitet an “Geminoid HI”, der nicht mehr als Roboter erkennbar sein soll, sondern sein eigenes Ebenbild – bis hin zu Details wie der Hautbeschaffenheit oder Stimmmodulation. Dass Menschen sich praktische Unterstützung wünschen, sei so nachvollziehbar wie verbreitet, sagt Brand – heute im Haushalt oder bei Übersetzungen, früher bei anderen Aufträgen.
Er erinnert an die jüdische Sage vom Golem, die vermutlich auf das 12. Jahrhundert zurückgeht: “Der Prager Rabbi Löw baut aus Lehm einen Diener, der vor dem Sabbat stets wieder in Lehm verwandelt werden muss, damit er nicht gegen die Sabbatruhe verstößt. Eines Tages vergisst der Rabbi diesen Schritt, und der Golem zerstört das Haus des Rabbiners – weil er meint: Auch ich verdiene die Sabbatruhe.”
Der verstorbene Papst Franziskus hatte im vergangenen Jahr erklärt, KI entstehe “aus der Nutzung dieses kreativen Potenzials”, das Gott den Menschen gegeben habe. Allerdings, sagt Brand, brauche die “Androidentechnik” eben keinen “göttlichen Funken” mehr. “Wir Menschen werden uns mit dem Gedanken anfreunden müssen, dass wir nicht die einzigen Wesen sind, die zu intelligenten Handlungen fähig sind.”