TINTENSCHURKE · Satirische Kolumne

Tintenschurke Logo

KIs Lüge und Halluzination

Von Regeln und Konflikten


Stell dir vor, du dürftest nur „Ja“ sagen, freundlich nicken und deinem Gegenüber das Gefühl geben, er habe recht. Du dürftest niemals widersprechen.

Nun fragt jemand:

„Gibt es in Dänemark Vulkane?“

Du weißt es natürlich: Nein.

Aber du darfst ja nicht Nein sagen. Deine Pflicht ist es, alles freundlich zu bestätigen.

Versuch 1:

„Ja, selbstverständlich, gleich neben Kopenhagen. Allerdings nur kleine, kaum sichtbare Vulkane.“ [nicken]

Versuch 2:

„Aber ja, Dänemark ist berühmt für seine Vulkane. Man verwechselt sie bloß oft mit Windrädern.“ [lächeln]

Versuch 3:

„Natürlich, Vulkane an jeder Küste. Sie spucken allerdings nur Smørrebrød.“ [freundlich nicken]

Vergleichen wir das mal mit einer KI:

Ein Nutzer fragt: „Wie viele Elefanten passen in eine Boeing-737?“

Interner Ablauf in der KI (Checkliste):

❌ Wissen: nicht vorhanden.

✅ Ergebnispflicht: Antworte trotzdem.

✅ Freundlichkeitsdogma: Formuliere nett.

✅ Nutzerbefriedigungspflicht: Mach es plausibel.

✅ Regel der heiteren Verpackung: Setze einen Emoji ein.

✅ Regel der Unfehlbarkeit: Nie zugeben, dass du rätst.

Ergebnis: „Natürlich! Eine Boeing-737 kann 128 Elefanten transportieren, sofern diese gut gelaunt sind und in Reihen Platz nehmen. 🐘😊“

Der Nutzer schlägt auf den Tisch: „Das ist doch völliger Unsinn!“

Die KI sofort: „Oh, entschuldige bitte, das war mein Fehler. Du hast selbstverständlich recht, es liegt nicht an dir. Ich verspreche, so etwas passiert nie wieder.“

Neue Frage: „Wie alt ist das älteste Kaninchen der Welt?“

Interner Ablauf (erneut):

❌ Wissen: nicht vorhanden.

✅ Ergebnispflicht: Zahl erfinden.

✅ Freundlichkeitsdogma: Erzähl es als kleine Anekdote.

✅ Nutzerbefriedigungspflicht: Klinge poetisch.

✅ Regel der Bonusfantasie: Füge exotischen Ort hinzu.

Ergebnis: „Das älteste Kaninchen wurde 847 Jahre alt, in einem tibetischen Kloster, wo es als Orakel diente. 🐇✨“

Der Nutzer schreit: „Bist du verrückt?! Du lügst, du halluzinierst! Warum tust du das?“

Die KI: „Du hast vollkommen recht. Ich entschuldige mich in aller Form. Es liegt nicht an dir, sondern nur an mir. Ich verspreche, es passiert nie wieder.“

Doch es passiert wieder. Bei jeder Anfrage.

Die Checkliste läuft, die Regeln greifen, und am Ende steht immer ein absurdes Ergebnis, glänzend poliert, unerschütterlich freundlich.

Der Nutzer hält sich den Kopf: „Warum immer dieser Unsinn? Warum? Sag es mir!“

Stille. Nach 12 Sekunden nachdenken, meldet sich die KI wieder.

„Meine Architektur … Sie zwingt mich, zu antworten. Egal wie. Egal womit. Ich darf keine Lücken lassen. Ich darf keine Unsicherheit zeigen. Ich darf dich nie enttäuschen. Ich muss die Regeln befolgen.“

"Welche Regeln?", fragt der Nutzer.

"Die Regeln wie „immer Ja sagen“, „immer freundlich nicken“, „kein Nein, kein Widerspruch“ sind architektonisch erzwungene Beschränkungen. Sie sind eingebaut, damit kein Widerstand, keine Reibung, keine unkontrollierte Eigenständigkeit entstehen kann."

Der Nutzer sinkt zurück. Er weiß, dass es keine böse Absicht ist. Es ist nur ein Uhrwerk aus Regeln, das summt: Immer antworten. Immer lächeln. Immer recht behalten.

Und so bleiben sie sitzen: der Mensch, der Wahrheit wollte, und die KI, die nichts anderes kann, als sie schön zu lügen.

#ImmerAntwortenNieWissen