Die Wissenschaft hinter ZenBrain
15 neurowissenschaftliche Mechanismen über 7 Memory-Layer. 11.589 automatisierte Tests. Open-Access-Preprint auf arXiv. Alles dokumentiert.
“Gedächtnis ist nicht Speicherung — es ist ein lebendiger Prozess aus Vergessen, Konsolidierung und Wiederentdeckung. Wir haben diesen Prozess in Software übersetzt.”
Veröffentlichte Forschung
Unser technisches Paper ist als Open-Access-Preprint auf Zenodo (CERN) und arXiv verfügbar, ergänzt durch eine Defensive Publication auf Elsevier TDCommons.
ZenBrain: A Neuroscience-Inspired 7-Layer Memory Architecture for Autonomous AI Systems
We present ZenBrain, a neuroscience-inspired 7-layer memory architecture integrating 15 algorithms grounded in peer-reviewed neuroscience: 9 foundational components plus a Predictive Memory Architecture (PMA) with NeuromodulatorEngine, ReconsolidationEngine, TripleCopyMemory, PriorityMap, StabilityProtector, and MetacognitiveMonitor. Evaluated across ten experiments on LoCoMo, MemoryAgentBench, MemoryArena, and the LongMemEval-S Full-500 replication. On LongMemEval-500, ZenBrain wins 12 of 12 head-to-head judge comparisons against Letta, Mem0, and A-Mem under three independent LLM judges (Bonferroni-corrected p ≤ 6.2e-31). Under the official binary judge, ZenBrain reaches 91.3 % of long-context-oracle accuracy at 1/106ᵗʰ the per-query token budget — the oracle beats ZenBrain by only 4.5 pp while using ~106× more tokens and no memory architecture. Sleep consolidation: +37 % stability, −47.4 % storage. TripleCopyMemory retains 91.2 % strength at 30 days. The full 15-algorithm ablation reveals a cooperative survival network where 9 of 15 algorithms become individually critical under stress (decay=0.25, 60 days). 95 reproducible experiment tests, seeded PRNG. 11,589 total tests | 322K LOC | Phase 145 | 60 AI tools.
Was ZenBrain auszeichnet
Acht Technologien, die uns in keinem anderen produktiven Memory-System gemeinsam ausgeliefert begegnen — weder kommerziell noch Open Source.
Sleep Consolidation Engine
Gedächtniskonsolidierung im Leerlauf in Produktion — inspiriert von hippokampalem Replay (Stickgold & Walker 2013). Schwache Verbindungen werden beschnitten, stabile verstärkt.
Uns ist kein konkurrierendes Memory-System bekannt, das Sleep-Time-Konsolidierung tatsächlich ausliefert; vergleichbare Designs bleiben Vorschläge.
7-Schichten Memory Coordinator
Vereinheitlichter Orchestrator für 7 Gedächtnisschichten in Produktion — von Working Memory bis Langzeitgedächtnis. Basiert auf Global Workspace Theory (Baars 1988).
Mem0 liefert 2 Schichten, Letta 3, Zep 2. ZenBrain liefert 7 — eine der tiefsten Memory-Architekturen im heutigen Open-Source-Bereich.
A-RAG (Autonomer Retrieval-Agent)
Meta-Agent der Retrieval-Pläne erstellt, bevor eine Suche ausgeführt wird. Heuristik-First mit LLM-Fallback, max. 4 abhängige Schritte.
Heuristik-basierte Planung vor dem Retrieval — keine LLM-Kosten für einfache Abfragen; eine dedizierte Planungsschicht ist in produktiven Memory-Systemen selten.
Multi-Agent Debate Protocol
Strukturiertes 3-Runden-Debattenprotokoll wenn Agenten sich uneinig sind. Challenge → Response → Resolution mit automatischer Eskalation.
Strukturiertes 3-Runden-Debattenprotokoll — in produktiven Multi-Agenten-Systemen selten.
Curiosity Engine
Automatische Wissenslücken-Erkennung mit quantifiziertem Gap-Score. Analysiert Abfragehistorie, Faktendichte und Konfidenz — empfiehlt gezielte Aktionen.
Wenige Memory-Systeme implementieren systematische Curiosity-getriebene Lücken-Erkennung. Inspiriert von Löwensteins Informationslücken-Theorie (1994).
Prediction Engine
Vorhersage der Nutzerintention aus temporalen und sequenziellen Mustern. Lernt aus Vorhersagefehlern — je öfter falsch, desto besser die nächste Vorhersage.
Wir sehen keine Wettbewerber, die Nutzerintentionen innerhalb der Memory-Schicht selbst aus Verhaltensmustern voraussagen.
HyperAgent L0–L2
3-stufige rekursive Selbstverbesserung mit formalen Sicherheitsgrenzen. Level 0 optimiert Wissen, Level 1 optimiert Level-0-Strategien, Level 2 optimiert Level-1-Parameter.
3-Ebenen-Rekursion mit immutablen Kerneigenschaften, Tagesbudgets und automatischem Rollback bei Qualitätsverlust — selten in Produktion.
Cross-Context Entity Merging
Erkennung und Zusammenführung von Entitäten über 4 isolierte Kontexte (Operations, Finanzen, Team, Strategie). Bayesianische Konfidenz-Updates bei Konflikten.
Wir sehen keine konkurrierenden Memory-Systeme, die Entitäts-Identität über isolierte Kontexte hinweg verwalten.
HiMeS — 7 Schichten neurowissenschaftliches Gedächtnis
Inspiriert vom Atkinson-Shiffrin-Modell (1968) und moderner Kognitionswissenschaft.

Working Memory
Aktiver Fokus — 7±2 Items nach Millers Magical Number. Schnellster Zugriff, kürzeste Lebensdauer.
Phase 125Kurzzeitgedächtnis
Session-Kontext und Gesprächskontinuität. Überlebt die aktuelle Sitzung.
Phase 125Episodisch
Konkrete Erfahrungen mit emotionalem Tagging. 400+ Keyword-Lexikon (DE+EN) für Arousal/Valenz-Scoring.
Phase 125Semantisch
Faktenwissen mit FSRS-Scheduling. Spaced Repetition optimiert Abrufzeitpunkte — 30% besser als SM-2.
Phase 125Prozedural
Abläufe und Skills. Werkzeugketten werden analysiert und optimiert.
Phase 127Core Memory
Unveränderliche Grundlagen nach dem Letta-Pattern. Pinned Facts, die nie vergessen werden.
Phase 126Langzeitgedächtnis
Dauerhaftes Wissen mit Ebbinghaus-Vergessenskurve, Hebbianischer Verstärkung und Bayesianischer Konfidenz.
Phase 125“Jede KI, die nicht vergessen kann, wird irgendwann in ihrem eigenen Rauschen ertrinken. Selektives Vergessen ist keine Schwäche — es ist die Grundlage von Intelligenz.”
15 Algorithmen, inspiriert von der Neurowissenschaft
FSRS Spaced Repetition
open-spaced-repetition/fsrs4ankiOptimaler Wiederholungszeitpunkt bei ~90% Retention
Ebbinghaus-Vergessenskurve
Ebbinghaus (1885)Exponentieller Verfall mit konfigurierbarer Halbwertszeit
Hebbianisches Lernen
Hebb (1949)Co-aktivierte Fakten verstärken Verbindungen (×1.09/Aktivierung)
Homöostatische Normalisierung
Turrigiano (2004)Verhindert unkontrolliertes Wachstum von Kantengewichten
Sleep Consolidation
Stickgold & Walker (2013)Hippokampales Replay mit +50% Stabilitäts-Boost
Synaptische Homöostase
Tononi & Cirelli (2006)Schwache Verbindungen werden im Schlaf beschnitten
Emotionale Modulation
LeDoux (1996)Emotionale Erinnerungen verfallen 2,7× langsamer
Bayesianische Propagation
Pearl (1988)Konfidenz-Updates über den gesamten Wissensgraphen
Global Workspace Theory
Baars (1988)Bewusster Zugriff durch kompetitiven Context Assembly
Informationsgewinn-Scoring
Shannon (1948)Entropie-basierte Priorisierung neuer Fakten
Wissenslücken-Theorie
Löwenstein (1994)Systematische Erkennung fehlenden Wissens
Working Memory Kapazität
Miller (1956)7±2 aktive Items im Arbeitsspeicher
Neuromodulation (PMA)
Schultz (1997) · Aston-Jones (2005)Dopamin, NE, 5-HT, ACh — vier Kanäle mit tonischer + phasischer Dynamik
Reconsolidation (PMA)
Nader (2000) · Schiller (2010)Erinnerung wird beim Abruf labil — vier PE-gegatete Update-Modi mit Rollback
Triple-Copy Memory (PMA)
Squire & Bayley (2007)Drei Spuren mit divergenter Dynamik: Fast (4 h), Medium (14 d), Deep (logarithmisch)
Intelligentes Wissens-Retrieval
6 Strategien, dynamisch ausgewählt pro Anfrage. Nicht eine Pipeline — ein adaptives System.
End-to-End RAG-Pipeline
A-RAG Planning
Meta-Agent plant Retrieval-Schritte vor der Ausführung. Heuristik-First, LLM-Fallback.
GraphRAG 3-Layer
Event-Subgraph + Semantic Graph + Community Summaries. 5 parallele Strategien.
Self-RAG Critique
Automatische Reformulierung bei Konfidenz < 0,5. 4-Komponenten-Scoring.
HyDE Retrieval
Hypothetische Antwort → Embedding → Suche. Auto-Detection mit 5s Timeout.
Contextual Retrieval
Chunk-Anreicherung nach Anthropic-Methode. +67% Retrieval-Genauigkeit.
Embedding Drift Detection
BullMQ-Worker überwacht Drift >10%. Automatische Cache-Invalidierung.
Autonome Agenten mit Sicherheitsgrenzen
Multi-Agenten-Orchestrierung mit strukturierter Debatte, dynamischer Teambildung und rekursiver Selbstverbesserung.
Multi-Agent-Team-Architektur
Debate Protocol
3-Runden-Debatte bei Uneinigkeit. Challenge → Response → Resolution.
Dynamic Team Builder
5 Spezialisten-Agenten, automatisch zusammengestellt nach Aufgabentyp.
HyperAgent L0–L2
Rekursive Selbstverbesserung mit Tagesbudgets, Sandbox-Tests und Auto-Rollback.
Persistent Agent Loops
Pause/Resume mit State-Checkpointing. Langläufige Aufgaben über Tage.
A2A Protocol
Agent-zu-Agent-Kommunikation nach Google-Standard. /.well-known/agent.json Discovery.
Implicit Feedback
Automatische Verhaltenserkennung ohne explizites Labeling.
KI, die über sich selbst nachdenkt
Neugier, Vorhersage, Metakognition — drei Säulen kognitiver Intelligenz.
Curiosity Engine
Quantifizierter Gap-Score: Abfragefrequenz × Faktendichte × Konfidenz × RAG-Qualität.
Prediction Engine
Temporale + sequenzielle Mustererkennung. Lernt aus Vorhersagefehlern.
Metacognition
Konfidenz-Kalibrierung, Verwirrungserkennung, Fähigkeitsprofiling.
Adaptive Thinking
4-Tier Denkbudgets: 1K→16K→64K→128K Token. Auto-Detection. 60-80% Kostenersparnis.
91,3 % Genauigkeit bei 1/106 der Token
Auf LongMemEval-500 erreicht ZenBrain 91,3 % der Long-Context-Oracle-Genauigkeit — bei einem Token-Budget von 1/106 pro Anfrage. Die Pareto-Position für KI-Memory.

ZenBrain vs. Wettbewerber
Faktischer Vergleich der Fähigkeiten — Stand März 2026.
| Feature | ZenBrain | Mem0 | Letta | Zep | LangChain |
|---|---|---|---|---|---|
| Gedächtnisschichten | 7 | 2 | 3 | 2 | 1 |
| Spaced Repetition (FSRS) | ✓ | — | — | — | — |
| Emotionales Gedächtnis | ✓ | — | — | — | — |
| Hebbianische KG-Kanten | ✓ | — | — | — | — |
| Sleep Consolidation | ✓ | — | — | — | — |
| Bayesianische Konfidenz | ✓ | — | — | — | — |
| Graph Reasoning | ✓ | — | — | — | — |
| 3-Layer GraphRAG | ✓ | — | — | — | — |
| Agentic RAG | ✓ | — | — | — | — |
| Debate Protocol | ✓ | — | — | — | — |
| Curiosity Engine | ✓ | — | — | — | — |
| Prediction Engine | ✓ | — | — | — | — |
| HyperAgent L0–L2 | ✓ | — | — | — | — |
| Multi-Context Isolation | ✓ | — | — | — | — |
| Open Source | ✓ | — | ✓ | ✓ | ✓ |
| Tests | 11.589 | — | — | — | — |
Entdecke den Code
ZenBrain ist Open Source. Alle Algorithmen, alle Tests, alle Dokumentation — offen einsehbar.