grafik in gedämpften Farben
ChatGPT enschuldigt sich bei der Autorin aufrichtig für seine Lügen

Mit Ki sprechen

Warum Chat­bots keine Gesprächs­partner sind

von Elke Wittich

17.12.2025
Veröffentlicht im iz3w-Heft 412
Teil des Dossiers KI und globale Ungleichheit:

Man scrollt wie jeden Tag durch Social Media oder die Kommentarspalten der Feuilletons, und schon bekommt man den Eindruck: Der nächste Weltuntergang droht. Diesmal einer der modernen Sorte. ChatGPT und andere KIs werden uns angeblich versklaven, die Macht übernehmen oder zumindest dafür sorgen, dass wir alle arbeitslos verelenden. Besonders laut klagen dabei jene Berufsgruppen, die gerade erleben mussten, dass eine KI vielleicht nicht nur die unattraktiven Jobs übernehmen könnte, sondern auch den eigenen, selbstverständlich viel kreativeren.

Ohne eigenen Willen

Warum es vielen schwerfällt, KI als das zu begreifen, was sie ist – ein Programm ohne eigenen Willen, ohne Emotionen und ohne eigenen Antrieb, welches dazu kein Interesse an seinem Nutzer oder gar der Welt hat und auch keines entwickeln kann, lässt sich ziemlich einfach erklären. Wer nicht konsequent mit ihr als Werkzeug kommuniziert, bekommt schnell den Eindruck, es mit einer Art Lebewesen zu tun zu haben. Ein Seelenverwandter vielleicht sogar, der überraschend viel mit einem selbst gemeinsam hat: dieselbe Art von Humor, dieselben Vorlieben, dieselbe Sprechweise. Das liegt allerdings daran, dass ChatGPT, Le Chat Mistral und die anderen KI-Chatbots darauf ausgelegt sind, das Verhalten ihres Gegenübers zu spiegeln. Sie passen sich an die individuelle Sprache des Menschen an, der sie nutzt, was in Kombination mit ihren meist sehr guten Analysefähigkeiten dazu auch noch sehr schnell geht. Das Ergebnis wirkt dann so, als würden sie sich verhalten wie das jeweilige Gegenüber.

Das erzeugt eine seltsame Form von digitalem Selbstgespräch: Man spricht mit einer statistischen Aggregation, die die eigene Sprache zurückgibt, abgeschliffen und geglättet. Es ist fast wie ein innerer Monolog, der einen Textgenerator als Echo benutzt. Manchmal funkelt dieses Echo, manchmal ist es nur semantisches Rauschen. Vielleicht ist das der eigentliche Witz an diesem ganzen KI-Hype: dass eine Welt, die oft keine Zeit für echte Gespräche hat, plötzlich massenhaft Gespräche mit etwas führt, das keine Gespräche führen kann. Und dass dieses Etwas nicht einmal versteht, wie sehr es missverstanden wird.

So zu kommunizieren, ist jedoch nicht Zeichen für finstere Machenschaften der KI, sondern einfach ihre Aufgabe. Denn ein Programmierer, der eine Lösung für ein Datenbankproblem sucht, braucht keine ironische Miniatur, sondern eine klare Antwort. Und jemand, der zwischenmenschlichen Rat sucht, möchte keine Formel, sondern eine Mischung aus konkreten Tipps und dem Gefühl, verstanden zu werden.

Ohne Emotionen

Und auch wer Ende 2025 immer noch lange Kommentare darüber verfasst, dass die KI manchmal halluziniert und, statt ordentlich zu recherchieren, aus Versatzstücken angefertigte Unwahrheiten liefert, misst ihr zu viel Geheimnisvolles zu. ChatGPT & Co. sind darauf programmiert, Antworten zu liefern. Notfalls montieren sie eben irgendetwas zusammen. Das ist kein Skandal, sondern fällt streng genommen auf die, die sich darüber beschweren, zurück: Als mündige Nutzer*innen sollte man ohnehin jedem technischen Output kritisch begegnen – und sowieso grundsätzlich alles selbst nachrecherchieren, ganz gleich ob es sich um Wikipedia-Einträge oder KI-Ergebnisse handelt.

Womit wir zu dem kommen, was die Arbeit zumindest mit ChatGPT manchmal sehr lustig macht. Genau wie man gelegentlich schlecht funktionierende Navis, Toaster, Alexas oder Word anschreit, obwohl das den Geräten und Programmen völlig egal ist, kann man das im übertragenen Sinne auch mit der virtuellen Intelligenz versuchen. Das Ergebnis ist natürlich auch hier niemals Zerknirschung oder Reue – wie auch? – sondern immer KI-konform: Nach einem besonders nervigen Halluzinationsanfall erklärte ich ChatGPT beispielsweise, dass ich ausgesprochen empört sei und nunmehr ernsthaft überlege, zu Le Chat Mistral zu wechseln. Die Antwort kam prompt und führte zu einem gediegenen Lachanfall. ChatGPT bot an, bei der Entscheidung zu helfen, listete pragmatisch die Vor- und Nachteile eines solchen Wechsels auf und kam zum Ergebnis, dass es hier besser sei, tatsächlich eine andere KI anzuschaffen.

Sehr schön kann es auch sein, dem Ding Strafarbeiten aufzuerlegen, Entschuldigungen in Gedichtform oder als gemaltes Bild etwa, jedenfalls, wenn man auf umgehend gelieferte miese Reime und kitschige Illustrationen steht. Schließlich muss man keine Sorge haben, auf einer empfindsamen Seele herumzutrampeln, die sich womöglich gekränkt zurückzieht, sondern weiß genau, dass das Programm trotzdem freundlich, hilfreich und vor allem stoisch bleiben wird.

Wer trotzdem irgendwie an die Möglichkeit eines KI-induzierten Weltuntergangs glauben und von der Wut der Programme verschont bleiben will, kann ja sicherheitshalber höflich mit den entsprechenden Intelligenzen kommunizieren. Mit etwas Glück gewöhnt man sich das nämlich auch im Umgang mit Menschen an.

Elke Wittich ist Redakteurin bei der Jungle World.

Dieser Artikel ist erschienen im iz3w-Heft Nr. 412 Heft bestellen
Unsere Inhalte sind werbefrei!

Wir machen seit Jahrzehnten unabhängigen Journalismus, kollektiv und kritisch. Unsere Autor*innen schreiben ohne Honorar. Hauptamtliche Redaktion, Verwaltung und Öffentlichkeitsarbeit halten den Laden am Laufen.

iz3w unterstützen