TECHNOLOGIE

Die Wissenschaft hinter ZenBrain

15 neurowissenschaftliche Mechanismen über 7 Memory-Layer. 11.589 automatisierte Tests. Open-Access-Preprint auf arXiv. Alles dokumentiert.

Alexander Bering, Gründer & Entwickler

Gedächtnis ist nicht Speicherung — es ist ein lebendiger Prozess aus Vergessen, Konsolidierung und Wiederentdeckung. Wir haben diesen Prozess in Software übersetzt.

Alexander Bering

Veröffentlichte Forschung

Unser technisches Paper ist als Open-Access-Preprint auf Zenodo (CERN) und arXiv verfügbar, ergänzt durch eine Defensive Publication auf Elsevier TDCommons.

PreprintOpen Access

ZenBrain: A Neuroscience-Inspired 7-Layer Memory Architecture for Autonomous AI Systems

Alexander Bering — Zensation AI, Kiel, Germany

We present ZenBrain, a neuroscience-inspired 7-layer memory architecture integrating 15 algorithms grounded in peer-reviewed neuroscience: 9 foundational components plus a Predictive Memory Architecture (PMA) with NeuromodulatorEngine, ReconsolidationEngine, TripleCopyMemory, PriorityMap, StabilityProtector, and MetacognitiveMonitor. Evaluated across ten experiments on LoCoMo, MemoryAgentBench, MemoryArena, and the LongMemEval-S Full-500 replication. On LongMemEval-500, ZenBrain wins 12 of 12 head-to-head judge comparisons against Letta, Mem0, and A-Mem under three independent LLM judges (Bonferroni-corrected p ≤ 6.2e-31). Under the official binary judge, ZenBrain reaches 91.3 % of long-context-oracle accuracy at 1/106ᵗʰ the per-query token budget — the oracle beats ZenBrain by only 4.5 pp while using ~106× more tokens and no memory architecture. Sleep consolidation: +37 % stability, −47.4 % storage. TripleCopyMemory retains 91.2 % strength at 30 days. The full 15-algorithm ablation reveals a cooperative survival network where 9 of 15 algorithms become individually critical under stress (decay=0.25, 60 days). 95 reproducible experiment tests, seeded PRNG. 11,589 total tests | 322K LOC | Phase 145 | 60 AI tools.

PDF herunterladen

Was ZenBrain auszeichnet

Acht Technologien, die uns in keinem anderen produktiven Memory-System gemeinsam ausgeliefert begegnen — weder kommerziell noch Open Source.

Sleep Consolidation Engine

Gedächtniskonsolidierung im Leerlauf in Produktion — inspiriert von hippokampalem Replay (Stickgold & Walker 2013). Schwache Verbindungen werden beschnitten, stabile verstärkt.

Uns ist kein konkurrierendes Memory-System bekannt, das Sleep-Time-Konsolidierung tatsächlich ausliefert; vergleichbare Designs bleiben Vorschläge.

7-Schichten Memory Coordinator

Vereinheitlichter Orchestrator für 7 Gedächtnisschichten in Produktion — von Working Memory bis Langzeitgedächtnis. Basiert auf Global Workspace Theory (Baars 1988).

Mem0 liefert 2 Schichten, Letta 3, Zep 2. ZenBrain liefert 7 — eine der tiefsten Memory-Architekturen im heutigen Open-Source-Bereich.

A-RAG (Autonomer Retrieval-Agent)

Meta-Agent der Retrieval-Pläne erstellt, bevor eine Suche ausgeführt wird. Heuristik-First mit LLM-Fallback, max. 4 abhängige Schritte.

Heuristik-basierte Planung vor dem Retrieval — keine LLM-Kosten für einfache Abfragen; eine dedizierte Planungsschicht ist in produktiven Memory-Systemen selten.

Multi-Agent Debate Protocol

Strukturiertes 3-Runden-Debattenprotokoll wenn Agenten sich uneinig sind. Challenge → Response → Resolution mit automatischer Eskalation.

Strukturiertes 3-Runden-Debattenprotokoll — in produktiven Multi-Agenten-Systemen selten.

Curiosity Engine

Automatische Wissenslücken-Erkennung mit quantifiziertem Gap-Score. Analysiert Abfragehistorie, Faktendichte und Konfidenz — empfiehlt gezielte Aktionen.

Wenige Memory-Systeme implementieren systematische Curiosity-getriebene Lücken-Erkennung. Inspiriert von Löwensteins Informationslücken-Theorie (1994).

Prediction Engine

Vorhersage der Nutzerintention aus temporalen und sequenziellen Mustern. Lernt aus Vorhersagefehlern — je öfter falsch, desto besser die nächste Vorhersage.

Wir sehen keine Wettbewerber, die Nutzerintentionen innerhalb der Memory-Schicht selbst aus Verhaltensmustern voraussagen.

HyperAgent L0–L2

3-stufige rekursive Selbstverbesserung mit formalen Sicherheitsgrenzen. Level 0 optimiert Wissen, Level 1 optimiert Level-0-Strategien, Level 2 optimiert Level-1-Parameter.

3-Ebenen-Rekursion mit immutablen Kerneigenschaften, Tagesbudgets und automatischem Rollback bei Qualitätsverlust — selten in Produktion.

Cross-Context Entity Merging

Erkennung und Zusammenführung von Entitäten über 4 isolierte Kontexte (Operations, Finanzen, Team, Strategie). Bayesianische Konfidenz-Updates bei Konflikten.

Wir sehen keine konkurrierenden Memory-Systeme, die Entitäts-Identität über isolierte Kontexte hinweg verwalten.

HiMeS — 7 Schichten neurowissenschaftliches Gedächtnis

Inspiriert vom Atkinson-Shiffrin-Modell (1968) und moderner Kognitionswissenschaft.

Visualisierung der HiMeS-Memory-Architektur — sieben unterscheidbare Memory-Schichten in einem Gehirn-Querschnitt, gerendert in tiefem Petrol-Teal mit Amber-Akzenten
Sieben differenzierte Memory-Schichten arbeiten als kohärentes Ganzes — modelliert nach dem Atkinson-Shiffrin-Modell und aktueller kognitiver Neurowissenschaft.
1

Working Memory

Aktiver Fokus — 7±2 Items nach Millers Magical Number. Schnellster Zugriff, kürzeste Lebensdauer.

Phase 125
2

Kurzzeitgedächtnis

Session-Kontext und Gesprächskontinuität. Überlebt die aktuelle Sitzung.

Phase 125
3

Episodisch

Konkrete Erfahrungen mit emotionalem Tagging. 400+ Keyword-Lexikon (DE+EN) für Arousal/Valenz-Scoring.

Phase 125
4

Semantisch

Faktenwissen mit FSRS-Scheduling. Spaced Repetition optimiert Abrufzeitpunkte — 30% besser als SM-2.

Phase 125
5

Prozedural

Abläufe und Skills. Werkzeugketten werden analysiert und optimiert.

Phase 127
6

Core Memory

Unveränderliche Grundlagen nach dem Letta-Pattern. Pinned Facts, die nie vergessen werden.

Phase 126
7

Langzeitgedächtnis

Dauerhaftes Wissen mit Ebbinghaus-Vergessenskurve, Hebbianischer Verstärkung und Bayesianischer Konfidenz.

Phase 125

Jede KI, die nicht vergessen kann, wird irgendwann in ihrem eigenen Rauschen ertrinken. Selektives Vergessen ist keine Schwäche — es ist die Grundlage von Intelligenz.

Alexander Bering

15 Algorithmen, inspiriert von der Neurowissenschaft

FSRS Spaced Repetition

open-spaced-repetition/fsrs4anki

Optimaler Wiederholungszeitpunkt bei ~90% Retention

Ebbinghaus-Vergessenskurve

Ebbinghaus (1885)

Exponentieller Verfall mit konfigurierbarer Halbwertszeit

Hebbianisches Lernen

Hebb (1949)

Co-aktivierte Fakten verstärken Verbindungen (×1.09/Aktivierung)

Homöostatische Normalisierung

Turrigiano (2004)

Verhindert unkontrolliertes Wachstum von Kantengewichten

Sleep Consolidation

Stickgold & Walker (2013)

Hippokampales Replay mit +50% Stabilitäts-Boost

Synaptische Homöostase

Tononi & Cirelli (2006)

Schwache Verbindungen werden im Schlaf beschnitten

Emotionale Modulation

LeDoux (1996)

Emotionale Erinnerungen verfallen 2,7× langsamer

Bayesianische Propagation

Pearl (1988)

Konfidenz-Updates über den gesamten Wissensgraphen

Global Workspace Theory

Baars (1988)

Bewusster Zugriff durch kompetitiven Context Assembly

Informationsgewinn-Scoring

Shannon (1948)

Entropie-basierte Priorisierung neuer Fakten

Wissenslücken-Theorie

Löwenstein (1994)

Systematische Erkennung fehlenden Wissens

Working Memory Kapazität

Miller (1956)

7±2 aktive Items im Arbeitsspeicher

Neuromodulation (PMA)

Schultz (1997) · Aston-Jones (2005)

Dopamin, NE, 5-HT, ACh — vier Kanäle mit tonischer + phasischer Dynamik

Reconsolidation (PMA)

Nader (2000) · Schiller (2010)

Erinnerung wird beim Abruf labil — vier PE-gegatete Update-Modi mit Rollback

Triple-Copy Memory (PMA)

Squire & Bayley (2007)

Drei Spuren mit divergenter Dynamik: Fast (4 h), Medium (14 d), Deep (logarithmisch)

Intelligentes Wissens-Retrieval

6 Strategien, dynamisch ausgewählt pro Anfrage. Nicht eine Pipeline — ein adaptives System.

End-to-End RAG-Pipeline

01Query02A-RAG-Plan03HyDE04Vektorsuche05Cross-Encoder06Confidence07Antwort

A-RAG Planning

Meta-Agent plant Retrieval-Schritte vor der Ausführung. Heuristik-First, LLM-Fallback.

GraphRAG 3-Layer

Event-Subgraph + Semantic Graph + Community Summaries. 5 parallele Strategien.

Self-RAG Critique

Automatische Reformulierung bei Konfidenz < 0,5. 4-Komponenten-Scoring.

HyDE Retrieval

Hypothetische Antwort → Embedding → Suche. Auto-Detection mit 5s Timeout.

Contextual Retrieval

Chunk-Anreicherung nach Anthropic-Methode. +67% Retrieval-Genauigkeit.

Embedding Drift Detection

BullMQ-Worker überwacht Drift >10%. Automatische Cache-Invalidierung.

Autonome Agenten mit Sicherheitsgrenzen

Multi-Agenten-Orchestrierung mit strukturierter Debatte, dynamischer Teambildung und rekursiver Selbstverbesserung.

Multi-Agent-Team-Architektur

HyperAgent L0–L2rekursive SelbstverbesserungDebate Protocol3 Runden: Challenge → Response → ResolutionOrchestratorPersistent LoopsPause · Resume · CancelResearcherWriterReviewerCoder

Debate Protocol

3-Runden-Debatte bei Uneinigkeit. Challenge → Response → Resolution.

Dynamic Team Builder

5 Spezialisten-Agenten, automatisch zusammengestellt nach Aufgabentyp.

HyperAgent L0–L2

Rekursive Selbstverbesserung mit Tagesbudgets, Sandbox-Tests und Auto-Rollback.

Persistent Agent Loops

Pause/Resume mit State-Checkpointing. Langläufige Aufgaben über Tage.

A2A Protocol

Agent-zu-Agent-Kommunikation nach Google-Standard. /.well-known/agent.json Discovery.

Implicit Feedback

Automatische Verhaltenserkennung ohne explizites Labeling.

KI, die über sich selbst nachdenkt

Neugier, Vorhersage, Metakognition — drei Säulen kognitiver Intelligenz.

Curiosity Engine

Quantifizierter Gap-Score: Abfragefrequenz × Faktendichte × Konfidenz × RAG-Qualität.

Prediction Engine

Temporale + sequenzielle Mustererkennung. Lernt aus Vorhersagefehlern.

Metacognition

Konfidenz-Kalibrierung, Verwirrungserkennung, Fähigkeitsprofiling.

Adaptive Thinking

4-Tier Denkbudgets: 1K→16K→64K→128K Token. Auto-Detection. 60-80% Kostenersparnis.

91,3 % Genauigkeit bei 1/106 der Token

Auf LongMemEval-500 erreicht ZenBrain 91,3 % der Long-Context-Oracle-Genauigkeit — bei einem Token-Budget von 1/106 pro Anfrage. Die Pareto-Position für KI-Memory.

Pareto-Frontier-Kurve — Genauigkeit aufgetragen gegen Token-Kosten. Ein leuchtender Amber-Peak markiert den Sweet-Spot, an dem ZenBrain 91 % der Oracle-Genauigkeit zu 1× der Kosten erreicht.
Bonferroni-korrigierter p-Wert ≤ 6,2 × 10⁻³¹ über drei unabhängige LLM-Judges. ZenBrain gewinnt 12 von 12 Head-to-Head-Vergleichen gegen Letta, Mem0 und A-Mem.

ZenBrain vs. Wettbewerber

Faktischer Vergleich der Fähigkeiten — Stand März 2026.

FeatureZenBrainMem0LettaZepLangChain
Gedächtnisschichten72321
Spaced Repetition (FSRS)
Emotionales Gedächtnis
Hebbianische KG-Kanten
Sleep Consolidation
Bayesianische Konfidenz
Graph Reasoning
3-Layer GraphRAG
Agentic RAG
Debate Protocol
Curiosity Engine
Prediction Engine
HyperAgent L0–L2
Multi-Context Isolation
Open Source
Tests11.589

Entdecke den Code

ZenBrain ist Open Source. Alle Algorithmen, alle Tests, alle Dokumentation — offen einsehbar.