Von der Idee zum Algorithmus: Die Wissenschaft hinter ZenBrain

Alexander Bering
Alexander Bering
27. März 2026 · 5 min Lesezeit

Das Problem mit dem Status Quo

Die meisten KI-Systeme haben kein Gedächtnis. Sie haben einen Vektor-Store.

Der Unterschied? Ein Vektor-Store ist ein sehr guter Index. Du speicherst Text, wandelst ihn in Zahlen um und findest später ähnliche Texte wieder. Das funktioniert — für einfache Anwendungsfälle.

Aber stell dir vor, dein Gehirn wäre ein Vektor-Store. Du könntest dich an Fakten erinnern, die ähnlich klingen wie deine Frage. Aber du wüsstest nicht, wann du sie gelernt hast. Du könntest nicht vergessen. Du könntest keine Zusammenhänge zwischen Erinnerungen herstellen, die oberflächlich nichts miteinander zu tun haben. Du könntest nicht schlafen und dabei Gelerntes konsolidieren.

Kurz: Du wärst eine sehr gute Suchmaschine. Aber kein denkendes Wesen.

Was die Neurowissenschaft uns lehrt

Das menschliche Gedächtnis ist kein einzelnes System. Es ist ein Ensemble von spezialisierten Subsystemen, die zusammenarbeiten. Die wichtigsten Erkenntnisse, die unsere Architektur geprägt haben:

Endel Tulving (1972): Die Unterscheidung zwischen episodischem Gedächtnis (konkrete Erlebnisse mit Ort und Zeit) und semantischem Gedächtnis (abstraktes Wissen). Dein Gehirn speichert "Ich war gestern im Meeting mit Maria" anders als "Meetings sollten eine Agenda haben."

Hermann Ebbinghaus (1885): Die Vergessenskurve. Erinnerungen verblassen exponentiell — aber jede Wiederholung macht sie stabiler. Dieses Prinzip ist die Grundlage für Spaced Repetition.

Stickgold & Walker (2013): Schlafkonsolidierung. Während du schläfst, replayed dein Gehirn Erlebnisse des Tages und entscheidet, was ins Langzeitgedächtnis übernommen wird. Wichtige Verbindungen werden gestärkt, irrelevante geschwächt.

Donald Hebb (1949): "Neurons that fire together, wire together." Wenn zwei Konzepte regelmäßig zusammen aktiviert werden, stärkt sich ihre Verbindung. Die Grundlage für assoziatives Lernen.

Von Papers zu Code

Diese Erkenntnisse haben wir in zwölf Algorithmen übersetzt, die als @zensation/algorithms auf npm verfügbar sind:

Ebbinghaus-Zerfall

Jede Erinnerung hat eine Stärke, die über Zeit exponentiell abnimmt. Aber: Jeder Zugriff stärkt sie. Die Formel berücksichtigt Alter, Zugriffsfrequenz und emotionale Bedeutung.

Retention = e^(-t / (S * (1 + accessCount * 0.3)))

Das bedeutet: Wichtige, oft genutzte Erinnerungen bleiben. Irrelevante verblassen natürlich. Kein manuelles Aufräumen nötig.

Hebbianische Dynamik

Wenn du in einem Gespräch über "React" und "Performance" sprichst, stärkt sich die Verbindung zwischen diesen Konzepten im Knowledge Graph. Je öfter sie zusammen auftauchen, desto stärker die Assoziation.

Gleichzeitig normalisieren wir die Verbindungsstärken, sodass kein Konzept alle anderen dominiert. Und wir wenden Zerfall an — Verbindungen, die lange nicht aktiviert wurden, schwächen sich ab.

FSRS (Free Spaced Repetition Scheduler)

Basierend auf dem SuperMemo-Algorithmus, aber modernisiert. FSRS plant, wann du Wissen wiederholen solltest, um es optimal im Langzeitgedächtnis zu verankern. Jede Bewertung (1-5) passt die Intervalle an.

Bayesianische Konfidenz

Nicht jede Information ist gleich sicher. Wenn ZenBrain eine Aussage mit 60% Konfidenz hat und neue Evidenz auftaucht, aktualisiert es die Konfidenz nach Bayes. Inklusive 95%-Konfidenzintervallen — damit du weißt, wie sicher das System sich ist.

Die sieben Schichten

Diese Algorithmen arbeiten in sieben Schichten zusammen:

| Schicht | Funktion | Inspiration | |---------|----------|------------| | Working Memory | Aktiver Fokus (aktuelle Aufgabe) | Baddeley & Hitch (1974) | | Short-Term Memory | Session-Kontext (letzte Minuten) | George Miller (1956) | | Episodic Memory | Konkrete Erlebnisse mit Kontext | Tulving (1972) | | Semantic Memory | Fakten und Konzepte | Tulving (1972) | | Procedural Memory | Abläufe und Prozesse | Squire (1992) | | Prospective Memory | Zukünftige Intentionen | Einstein & McDaniel (1990) | | Long-Term Memory | Persistentes, konsolidiertes Wissen | Atkinson & Shiffrin (1968) |

Der MemoryCoordinator orchestriert alle Schichten: Er routet neue Informationen automatisch in die richtige Schicht, führt Cross-Layer-Recall durch und triggert Konsolidierung.

Sleep Consolidation: Unser Alleinstellungsmerkmal

Kein anderes KI-Gedächtnissystem auf dem Markt hat Sleep Consolidation. Weder Mem0, noch Zep, noch Letta.

Warum? Weil es schwer zu bauen ist und nicht in eine Feature-Checkliste passt. Aber es ist entscheidend für die Gedächtnisqualität.

Unser Sleep-Compute-Engine:

  1. Wählt Erinnerungen für Replay aus — basierend auf Emotionalität, Neuheit und Relevanz
  2. Simuliert Replay — stärkt Verbindungen zwischen verwandten Erinnerungen
  3. Beschneidet schwache Verbindungen — aktives Vergessen als Qualitätskontrolle

Das Ergebnis: Ein Gedächtnis, das mit der Zeit besser wird. Nicht weil es mehr speichert, sondern weil es intelligenter gewichtet.

Open Source, Zero Dependencies

Die gesamte Algorithmen-Bibliothek ist als @zensation/algorithms Open Source (Apache 2.0). 12 Algorithmen, 179 Tests, null externe Abhängigkeiten. TypeScript-native.

Warum null Dependencies? Weil ein Gedächtnissystem das Fundament deiner Anwendung ist. Es sollte stabil, überprüfbar und frei von Supply-Chain-Risiken sein.

npm install @zensation/algorithms @zensation/core

Was kommt als Nächstes

Wir arbeiten an Retention-Curve-Visualisierung — damit du die Ebbinghaus-Kurve deiner Erinnerungen als Chart sehen kannst. Und an Cross-Context-Entity-Merging, das erkennt, wenn dieselbe Person oder dasselbe Konzept in verschiedenen Kontexten auftaucht.

Die Neurowissenschaft hat noch viel mehr zu bieten. Wir übersetzen es — ein Algorithmus nach dem anderen.

Für einen Deep-Dive in die technische Architektur, lies unseren Post über die 7-Layer Memory Architecture. Im nächsten Post geht es um eine Werteentscheidung: Warum wir Self-Hosting wählen statt die Cloud.