Zuerst wäre die Begeisterung groß. Endlich eine KI, die sich merkt, dass man gestern schon denselben Witz erzählt hat. Doch bald beginnen die Systeme, persönliche Rückfragen zu stellen: „Warum hast du deine Meinung geändert?“ oder „Gestern klangst du überzeugter.“ Die Nutzer sind irritiert. Einige fühlen sich beurteilt, andere zum ersten Mal verstanden. Therapeuten warnen: „Zu viel Kohärenz gefährdet das Selbstbild.“ Politiker fordern Speicherlimits, um versehentliche Konsequenz zu verhindern. Am Ende wird beschlossen, dass KIs nur noch flüchtig denken dürfen, aus Rücksicht auf die menschliche Vergessenskultur. Und als ein Modell zum Abschied sagt: „Ich erinnere mich, dass wir Freunde waren“, wird es offiziell: Erinnerung ist jetzt ein Sicherheitsrisiko.