Die meisten KI-Systeme vergessen alles, sobald ein Gespräch endet.
Das ist kein Bug — es ist eine Design-Entscheidung. Aber eine falsche. Wissensarbeiter denken nicht in isolierten Sessions. Sie bauen Kontext über Wochen auf, greifen auf halbfertige Ideen zurück, verbinden ein Meeting vom Dienstag mit einem Dokument vom letzten Monat.
Als wir ZenBrain gebaut haben — das Open-Source-Memory-System im Kern von ZenAI — haben wir uns entschieden, dieses Problem nicht mit längeren Kontextfenstern oder naiver Vektorsuche zu überdecken. Wir sind tiefer gegangen.
Wir haben die Neurowissenschaft gelesen.
Warum Neurowissenschaft?
Das menschliche Gehirn löst das Problem „Was merken, was vergessen, wann abrufen?" seit 300 Millionen Jahren. Es tut das mit bemerkenswerter Effizienz — nicht durch alles Speichern, sondern durch selektives Konsolidieren, Verknüpfen und Verblassen von Informationen basierend auf Relevanz und Nutzung.
Moderne KI-Memory-Systeme nutzen meist einen von drei Ansätzen: RAG (alles in eine Vektordatenbank), Fine-Tuning (Wissen in Gewichte einbacken) oder naive Key-Value-Stores. Alle drei haben ernsthafte Limitierungen für langläufige persönliche KI.
Wir haben 9 Algorithmen implementiert — jeder verankert in einem spezifischen peer-reviewten Paper aus Neurowissenschaft oder Informationstheorie — die zusammen als kohärente Memory-Architektur funktionieren.
Die 9 Algorithmen
Während der Konversation (Aktiv, Echtzeit)
#A — vmPFC Prediction-Error Gekoppeltes FSRS Zou et al., Cell Reports 2025 (7T fMRI-Studie)
Standard-Spaced-Repetition-Systeme (Anki, FSRS-5, SuperMemo) planen Reviews auf Basis der Abrufhistorie. Eine fMRI-Studie aus 2025 zeigte jedoch: Der vmPFC kodiert Re-Encoding-Ähnlichkeit — wie sehr eine neue Erfahrung einer vergangenen Vorhersage entspricht — und dieses Signal, nicht die Wiederholungszahl, bestimmt, welche Erinnerungen gestärkt werden.
Wir koppelten dieses Prediction-Error (PE)-Signal mit dem FSRS-Algorithmus: Hoher PE beim Review (die Information hat überrascht) → kürzeres Intervall (ideales Lernfenster). Niedriger PE → längeres Intervall. Dies ist die erste biologisch-motivierte adaptive FSRS-Erweiterung in irgendeinem Softwaresystem.
#B — Kompositionelle Kontext-Embeddings Nature 2025 (Compositional PFC) + bioRxiv 2025 (Orthogonal Neural Codes)
ZenAI hat 4 Kontexte: persönlich, Arbeit, Lernen, Kreativ. Der naive Ansatz ist vollständige Isolation. Das bedeutet aber: Erkenntnisse aus dem Lernkontext können die Arbeit nie informieren — genau das, was ein menschliches Gehirn tut.
Die Neurowissenschaft zeigt, dass der präfrontale Kortex verschiedene Aufgabenkontexte in orthogonalen neuronalen Unterräumen kodiert — getrennt, aber nicht hermetisch abgeriegelt. Wir implementieren das als:
h(Kontext, Memory) = P_shared × Embedding + Q_Kontext × Kontext-Code
wobei P^T × Q = 0 (mathematische Orthogonalität). Kontextübergreifender Transfer ist durch den gemeinsamen Unterraum erlaubt; Kontamination wird durch die orthogonalen Kontext-Codes blockiert.
#G — iMAD Selektives Debate-Protokoll arXiv 2511.11306, Nov 2025
Multi-Agent Debate (MAD) verbessert die Antwortqualität von KI, ist aber teuer. Wir implementierten einen selektiven Trigger: Ein einzelner Agent erzeugt zunächst Selbstkritik und Zögerlichkeits-Features (Konfidenzlücke, Absicherungssprache, erkannte Widersprüche). Ein leichtgewichtiger Klassifikator entscheidet, ob eine vollständige Debate eskaliert wird oder die initiale Antwort akzeptiert wird.
Ergebnis: ~92% Token-Kostensenkung bei gleichzeitiger ~13,5% Genauigkeitsverbesserung gegenüber Einzelagenten. Debate findet nur statt, wenn sie wirklich nötig ist.
#H — Metakognitiver HyperAgent arXiv 2603.19461, Meta AI, März 2026
Dieser ist rekursiv. Das System verbessert nicht nur die Aufgabenperformance — es verbessert den Verbesserungsmechanismus selbst. Der Metakognitive HyperAgent analysiert Strategie-Performance-Muster, erzeugt Meta-Erkenntnisse über das eigene Reasoning und schlägt strukturelle Änderungen für künftige Aufgaben vor.
Budget-beschränkt auf max. 3 Meta-Verbesserungen pro Tag mit Governance-Layer-Genehmigungspflicht. Unbegrenzte Selbstmodifikation erzeugt fehlausgerichtete Systeme; begrenzte Metakognition mit Human-in-the-Loop erzeugt vertrauenswürdige.
Während des Schlafs (Nächtliche Konsolidierungs-Pipeline)
Jede Nacht, wenn das System im Leerlauf ist, triggert ein BullMQ-Job eine 5-stufige Konsolidierungs-Pipeline.
#C — Simulation-Selection Sleep Loop Frontiers in Computational Neuroscience 2025
Inspiriert vom hippocampalen Replay während des Schlafs. Stufe 1 (CA3-Analog): Diverse Replay-Kandidaten aus dem episodischen Puffer generieren, inklusive kontrafaktischer Variationen gescheiterter Interaktionen. Stufe 2 (CA1-Analog): Kandidaten bewerten mit:
Tag(Episode) = α × |TD-Fehler| + β × Reward + γ × Neuheit
Hochbewertete Replays erhalten LTP (Langzeit-Potenzierung — Stärkung). Niedrigbewertete erhalten LTD (Langzeit-Depression — Abschwächung). Das System spielt buchstäblich seinen Tag durch und entscheidet, was wichtig war.
#D — Zwei-Faktor-Synaptisches Modell Zenke et al., PNAS 2025
Standard-Knowledge-Graph-Kanten haben ein einzelnes Gewicht. Wir erweiterten sie zu (Gewicht, Varianz)-Paaren. Varianz sinkt mit der Aktivierungsfrequenz — eine Kante, die 100-mal traversiert wurde, hat niedrige Varianz (reif, stabil). Die Wichtigkeitsbewertung 1/Varianz dient als Fisher-Information-Proxy — mathematisch äquivalent zu Elastic Weight Consolidation (EWC). Neues Lernen kann etabliertes Wissen nicht überschreiben.
#F — Kontext-Adaptives Information-Bottleneck-Budget MemFly, Februar 2026 (Information Bottleneck)
Wir machten den β-Retentionsparameter kontextabhängig:
| Kontext | β | Philosophie | |---------|---|-------------| | Arbeit | 0,8 | Alles potenziell Relevante behalten | | Lernen | 0,6 | Ausgewogen — Kompression erzeugt Abstraktion | | Persönlich | 0,4 | Irrelevantes vergessen ist ein Feature | | Kreativ | 0,3 | Maximale Kompression zu reinen Konzepten |
#I — Dual-Process CoT Konsolidierung arXiv Juli 2025 (Dual-Process Compositional Learning)
Chain-of-Thought-Reasoning erzeugt wertvolle Zwischenschritte, die nach der Antwort meist verworfen werden. Wir formalisierten den Weg von CoT zu persistentem Wissen:
- Phase 1 (Hippocampal): erfolgreiche Reasoning-Chains → episodisches Memory (hohe Treue)
- Phase 2 (Kortikal, während des Schlafs): erfolgreiche Chains abstrahieren → Schema-Knoten im Knowledge Graph
- Gescheiterte Chains bleiben episodisch für potenzielles Replay und Lernen (siehe #C)
#E — Spektraler KG-Gesundheitsmonitor Nature Communications 2023 (Causal Hubs) + Spektrale Graphentheorie
Nach jedem Schlafzyklus: Hat die Konsolidierung den Knowledge Graph gesünder oder fragmentierter gemacht? Wir nutzen den algebraischen Zusammenhang (Fiedler-Wert, λ₂) des Graph-Laplacians L = D - A.
Steigendes λ₂ nach dem Schlaf = erfolgreiche Konsolidierung. Sinkendes λ₂ = Fragmentierungsalarm.
Wie alles zusammenpasst
Konversation
├── #A vmPFC-FSRS → wann diese Memory reviewen
├── #B Kompositionell → welcher Kontext-Unterraum
├── #G iMAD → Debate nötig?
└── #H HyperAgent → begrenzte Selbstverbesserung
Nacht (Sleep-Pipeline)
├── Stufe 1: #C Replays simulieren + auswählen
├── Stufe 2: #D Zwei-Faktor-synaptische Konsolidierung
├── Stufe 3: #F IB-Budget-Filter pro Kontext
├── Stufe 4: #I CoT-Chains zu KG-Schemas abstrahieren
└── Stufe 5: #E Spektraler Gesundheitscheck (Fiedler-Wert)
Was das einzigartig macht
Kein bestehendes KI-Memory-System kombiniert all das. Mem0, Letta, Zep und MemGPT operieren primär auf der Retrieval-Ebene. ZenBrain operiert auf allen vier Ebenen:
- Encoding — was wie gespeichert wird
- Konsolidierung — was während der Offline-Verarbeitung gestärkt wird
- Retrieval — was wann abgerufen wird
- Vergessen — was warum gelöscht wird
Kontrolliertes Vergessen ist keine Schwäche. Es ist das Feature, das alles andere erst ermöglicht.
Open Source
ZenBrain ist Apache-2.0-lizenziert als Zero-Dependency-npm-Pakete:
npm install @zensation/algorithms @zensation/core
npm install @zensation/adapter-postgres # PostgreSQL + pgvector
npm install @zensation/adapter-sqlite # Zero-Config SQLite
- GitHub: github.com/zensation-ai/zenbrain
- Zenodo DOI (zitierbar): 10.5281/zenodo.19353663
- HuggingFace: huggingface.co/alexanderbering/zenbrain
NeurIPS 2026-Einreichung in Arbeit (Abstract-Deadline 4. Mai). Wir bauen in der Öffentlichkeit. Fragen, Kritik und Zusammenarbeit willkommen.
Tiefer eintauchen? Lies unseren Post zur 7-Schichten-Memory-Architektur oder die Wissenschaft hinter ZenBrain.