Ein Experiment aus dem Jahr 1885
Hermann Ebbinghaus war ein deutscher Psychologe, der sich in den 1880er Jahren eine ungewöhnliche Frage stellte: Wie genau vergessen Menschen? Um das herauszufinden, nutzte er sich selbst als Versuchsperson. Er memorierte über Monate hinweg sinnlose Silbenfolgen und maß anschließend, wie schnell sie aus seinem Gedächtnis verschwanden.
Das Ergebnis war eindeutig: Das Vergessen folgt einer mathematischen Kurve. In den ersten Stunden nach dem Lernen fällt die Behaltensleistung steil ab. Danach flacht sie sich ab. Wer eine Information nie wieder abruft, hat sie nach einer Woche größtenteils verloren — unabhängig davon, wie wichtig sie erschien.
Die Ebbinghaus-Kurve wird bis heute in der Gedächtnisforschung zitiert. Sie ist eine der robustesten Erkenntnisse der Kognitionspsychologie. Und sie wird von nahezu allen modernen KI-Gedächtnissystemen vollständig ignoriert.
Das Grundproblem: KI-Gedächtnis wächst, aber altert nicht
Wenn ein Unternehmen heute einen KI-Assistenten mit Gedächtnis aufbaut, läuft das in der Regel so ab: Informationen werden als Textstücke gespeichert, in Zahlenvektoren umgewandelt und in einer Datenbank abgelegt. Bei jeder Anfrage sucht das System nach Inhalten, die thematisch ähnlich sind, und gibt sie zurück.
Dieses Verfahren — man nennt es vektorbasierte Suche oder RAG — ist für viele Anwendungsfälle sinnvoll. Für Dokumentensuche, Produktkataloge, Handbücher: solide Technologie.
Das Problem entsteht, wenn KI-Agenten über längere Zeiträume eingesetzt werden und dabei kontinuierlich Wissen über ein Unternehmen, Mitarbeiter oder Prozesse aufbauen. Dann passiert folgendes:
- Ein Mitarbeiter wechselt die Abteilung. Die KI kennt noch die alte Rolle.
- Ein Projekt wird abgeschlossen. Die Ziele und Aufgaben des Projekts sind weiterhin abrufbar.
- Eine Strategie ändert sich. Die veraltete Version konkurriert bei jeder Anfrage mit der aktuellen.
- Ein Kunde gibt neues Feedback. Das alte Feedback aus dem Vorjahr wird mit gleicher Gewichtung abgerufen.
Das Vektorsystem unterscheidet nicht zwischen "gestern gespeichert" und "vor zwei Jahren gespeichert". Ein hoher Ähnlichkeitswert sagt aus, dass etwas thematisch passt — nicht, dass es noch stimmt.
Was das in der Praxis bedeutet
Wer KI-Agenten in Unternehmensprozessen einsetzt, kennt die Symptome, auch wenn man sie nicht unbedingt auf dieses Problem zurückführt:
Die Qualität der KI-Antworten verschlechtert sich im Laufe der Zeit. Empfehlungen werden unschärfer. Zusammenfassungen enthalten Informationen, die längst überholt sind. Das System verhält sich, als hätte es Rückstände aus vergangenen Phasen angesammelt — weil es das tatsächlich hat.
Der typische Umgang damit: manuelle Bereinigung. Veraltete Datensätze werden gelöscht, Zeitfilter werden eingebaut, Prompts werden um Anweisungen wie "ignoriere Informationen, die älter als sechs Monate sind" ergänzt. Das funktioniert, aber es bedeutet, dass das Vergessen — eine grundlegende kognitive Funktion — auf den Menschen ausgelagert wird.
Das ist kein hypothetisches Problem. Es ist eine der häufigsten Ursachen für KI-Projekte, die nach einem Jahr schlechter laufen als nach drei Monaten.
Vergessen als Designprinzip
Das menschliche Gehirn löst dieses Problem nicht durch manuelle Bereinigung. Es vergisst aktiv und systematisch.
Ebbinghaus hat gezeigt, dass Vergessen einem Gesetz folgt. Wichtiger: Jedes erfolgreiche Abrufen einer Information stabilisiert sie. Eine Information, die regelmäßig bestätigt wird, bleibt — auch wenn sie alt ist. Eine Information, die nie wieder aufgerufen wird, verblasst — auch wenn sie einmal wichtig erschien.
Das Prinzip dahinter lautet: Relevanz wird nicht durch das Alter einer Information bestimmt, sondern durch ihre Nutzungsgeschichte. Ein Kundenpräferenz, die seit Jahren in jeder Interaktion bestätigt wird, verdient mehr Gewicht als eine Präferenz, die einmalig erwähnt und nie wieder berührt wurde.
Wenn man dieses Prinzip in ein KI-System überträgt, ändert sich das Verhalten grundlegend. Das System lernt nicht mehr nur — es bewertet ständig neu, was es weiß.
Der technische Ansatz: Stabilitätswerte statt statischer Einträge
Das Verfahren, das wir in ZenBrain einsetzen, weist jedem gespeicherten Wissenselement einen Stabilitätswert zu. Dieser Wert steigt, wenn die Information erfolgreich abgerufen und bestätigt wird. Er fällt, wenn die Information über längere Zeit nicht verwendet wird.
Beim Abrufen wird nicht nur die semantische Ähnlichkeit berücksichtigt, sondern auch der aktuelle Stabilitätswert. Eine aktuelle, häufig bestätigte Information landet höher in den Ergebnissen als eine thematisch ähnliche, aber veraltete.
Das Verfahren basiert auf einem Algorithmus namens FSRS (Free Spaced Repetition Scheduler), der ursprünglich für Lernanwendungen wie Anki entwickelt wurde und nachweislich bessere Erinnerungsleistungen erzeugt als einfache Zeitintervall-Methoden. Für KI-Gedächtnissysteme lässt er sich direkt anwenden: statt Lernkarten werden Wissensfakten bewertet, statt Nutzerratings werden Nutzungsmuster ausgewertet.
Was das nicht bedeutet
Ein aktives Vergessen bedeutet nicht, dass Informationen gelöscht werden. Eine Information mit niedrigem Stabilitätswert ist weiterhin im System vorhanden. Sie wird nur seltener spontan abgerufen. Wenn ein klarer Bezug zu einer Anfrage besteht, kann sie trotzdem gefunden werden.
Das entspricht eher dem, was Gedächtnispsychologen "Abrufhemmung" nennen als echtem Vergessen: die Information ist vorhanden, aber weniger zugänglich. Das schützt davor, dass veraltetes Wissen ständig in den Vordergrund drängt, ohne es unwiederbringlich zu verlieren.
Warum das für KI-Agenten im Unternehmen relevant ist
Je länger KI-Agenten im Einsatz sind, desto mehr akkumulieren sie. Ein Agent, der seit einem Jahr Besprechungen zusammenfasst, Aufgaben verwaltet und Entscheidungen begleitet, hat Tausende von Wissensfragmenten gespeichert. Ohne aktives Vergessen wird dieser Bestand mit der Zeit zum Rauschen.
Das betrifft besonders Anwendungsfälle, bei denen Kontext über viele Monate oder Jahre aufgebaut wird: Kundenbeziehungen, interne Wissensbasen, Projektgedächtnis. Genau die Bereiche, in denen der Nutzen eines langlebigen KI-Assistenten am größten wäre — wenn das System mit der Zeit nicht an Qualität einbüßen würde.
Das ist der Kerngedanke hinter ZenBrain: nicht mehr Speicherkapazität, sondern eine bessere Gewichtung dessen, was bereits gespeichert ist.
Einschränkungen und offene Fragen
Dieser Ansatz hat reale Kosten. Stabilitätswerte müssen periodisch neu berechnet werden, was Rechenaufwand bedeutet. Die Kalibrierung der Parameter — wie schnell ein Wert steigt, wie schnell er fällt — beeinflusst das Systemverhalten erheblich und erfordert Erfahrung mit dem konkreten Anwendungsfall.
Es gibt auch den umgekehrten Fehlerfall: Wenn ein Nutzer einen KI-Agenten längere Zeit nicht verwendet und dann mit verändertem Kontext zurückkehrt, können Stabilitätswerte verloren gegangen sein, die eigentlich noch gültig waren. Dafür braucht es explizite Mechanismen — die Möglichkeit, bestimmte Wissenselemente dauerhaft zu stabilisieren, unabhängig von der Nutzungsfrequenz.
Diese Fragen haben keine einfachen Antworten. Sie sind Teil der echten Ingenieursprobleme, mit denen man es zu tun bekommt, wenn man KI-Gedächtnis ernst nimmt.
ZenBrain erscheint am 14. April als Open-Source-Bibliothek. Das Kernpaket @zensation/algorithms enthält die Ebbinghaus-Decay-Implementierung, den FSRS-Scheduler und weitere Algorithmen — als TypeScript-Bibliothek ohne externe Abhängigkeiten, verwendbar in jedem Node.js-Projekt.
Einen Überblick über die technische Architektur gibt der Beitrag Die Wissenschaft hinter ZenBrain.
