Die Wissenschaft hinter ZenBrain
40 technische Innovationen. 8 weltweit einzigartig. 12 neurowissenschaftliche Algorithmen. 9.228 Tests. Alles offen dokumentiert.
“Gedächtnis ist nicht Speicherung — es ist ein lebendiger Prozess aus Vergessen, Konsolidierung und Wiederentdeckung. Wir haben diesen Prozess in Software übersetzt.”
Was es sonst nirgendwo gibt
Diese acht Technologien existieren in keinem anderen KI-System in Produktion — weder kommerziell noch Open Source.
Sleep Consolidation Engine
Erste produktive KI mit Gedächtniskonsolidierung im Leerlauf — inspiriert von hippokampalem Replay (Stickgold & Walker 2013). Schwache Verbindungen werden beschnitten, stabile verstärkt.
Kein Wettbewerber implementiert Sleep-Time-Konsolidierung. Einzigartig in der gesamten KI-Branche.
7-Schichten Memory Coordinator
Erster vereinheitlichter Orchestrator für 7 Gedächtnisschichten in Produktion — von Working Memory bis Langzeitgedächtnis. Basiert auf Global Workspace Theory (Baars 1988).
Mem0 hat 2 Schichten, Letta 3, Zep 2. ZenBrain hat 7 — die tiefste Gedächtnisarchitektur im Open-Source-Bereich.
A-RAG (Autonomer Retrieval-Agent)
Meta-Agent der Retrieval-Pläne erstellt, bevor eine Suche ausgeführt wird. Heuristik-First mit LLM-Fallback, max. 4 abhängige Schritte.
Erste Planungsschicht für Multi-Step-Retrieval. Heuristik-basiert — keine LLM-Kosten für einfache Abfragen.
Multi-Agent Debate Protocol
Strukturiertes 3-Runden-Debattenprotokoll wenn Agenten sich uneinig sind. Challenge → Response → Resolution mit automatischer Eskalation.
Erstes strukturiertes Debattenprotokoll für Multi-Agenten-Systeme in Produktion.
Curiosity Engine
Automatische Wissenslücken-Erkennung mit quantifiziertem Gap-Score. Analysiert Abfragehistorie, Faktendichte und Konfidenz — empfiehlt gezielte Aktionen.
Kein Wettbewerber implementiert systematische Neugier. Inspiriert von Loewensteins Informationslücken-Theorie (1994).
Prediction Engine
Vorhersage der Nutzerintention aus temporalen und sequenziellen Mustern. Lernt aus Vorhersagefehlern — je öfter falsch, desto besser die nächste Vorhersage.
Kein Wettbewerber sagt Nutzerintentionen aus Verhaltensmustern voraus.
HyperAgent L0–L2
3-stufige rekursive Selbstverbesserung mit formalen Sicherheitsgrenzen. Level 0 optimiert Wissen, Level 1 optimiert Level-0-Strategien, Level 2 optimiert Level-1-Parameter.
Einzigartige 3-Ebenen-Rekursion mit immutablen Kerneigenschaften, Tagesbudgets und automatischem Rollback bei Qualitätsverlust.
Cross-Context Entity Merging
Erkennung und Zusammenführung von Entitäten über 4 isolierte Kontexte (Personal, Arbeit, Lernen, Kreativ). Bayesianische Konfidenz-Updates bei Konflikten.
Kein Wettbewerber verwaltet kontextübergreifende Entitäten.
HiMeS — 7 Schichten neurowissenschaftliches Gedächtnis
Inspiriert vom Atkinson-Shiffrin-Modell (1968) und moderner Kognitionswissenschaft.
Working Memory
Aktiver Fokus — 7±2 Items nach Millers Magical Number. Schnellster Zugriff, kürzeste Lebensdauer.
Phase 125Kurzzeitgedächtnis
Session-Kontext und Gesprächskontinuität. Überlebt die aktuelle Sitzung.
Phase 125Episodisch
Konkrete Erfahrungen mit emotionalem Tagging. 400+ Keyword-Lexikon (DE+EN) für Arousal/Valenz-Scoring.
Phase 125Semantisch
Faktenwissen mit FSRS-Scheduling. Spaced Repetition optimiert Abrufzeitpunkte — 30% besser als SM-2.
Phase 125Prozedural
Abläufe und Skills. Werkzeugketten werden analysiert und optimiert.
Phase 127Core Memory
Unveränderliche Grundlagen nach dem Letta-Pattern. Pinned Facts die nie vergessen werden.
Phase 126Langzeitgedächtnis
Dauerhaftes Wissen mit Ebbinghaus-Vergessenskurve, Hebbianischer Verstärkung und Bayesianischer Konfidenz.
Phase 125“Jede KI, die nicht vergessen kann, wird irgendwann in ihrem eigenen Rauschen ertrinken. Selektives Vergessen ist keine Schwäche — es ist die Grundlage von Intelligenz.”
12 Algorithmen, inspiriert von der Neurowissenschaft
FSRS Spaced Repetition
open-spaced-repetition/fsrs4ankiOptimaler Wiederholungszeitpunkt bei ~50% Retention
Ebbinghaus-Vergessenskurve
Ebbinghaus (1885)Exponentieller Verfall mit konfigurierbarer Halbwertszeit
Hebbianisches Lernen
Hebb (1949)Co-aktivierte Fakten verstärken Verbindungen (×1.09/Aktivierung)
Homöostatische Normalisierung
Turrigiano (2004)Verhindert unkontrolliertes Wachstum von Kantengewichten
Sleep Consolidation
Stickgold & Walker (2013)Hippokampales Replay mit +50% Stabilitäts-Boost
Synaptische Homöostase
Tononi & Cirelli (2006)Schwache Verbindungen werden im Schlaf beschnitten
Emotionale Modulation
LeDoux (1996)Emotionale Erinnerungen verfallen 2,7× langsamer
Bayesianische Propagation
Pearl (1988)Konfidenz-Updates über den gesamten Wissensgraphen
Global Workspace Theory
Baars (1988)Bewusster Zugriff durch kompetitiven Context Assembly
Informationsgewinn-Scoring
Shannon (1948)Entropie-basierte Priorisierung neuer Fakten
Wissenslücken-Theorie
Loewenstein (1994)Systematische Erkennung fehlenden Wissens
Working Memory Kapazität
Miller (1956)7±2 aktive Items im Arbeitsspeicher
Intelligentes Wissens-Retrieval
6 Strategien, dynamisch ausgewählt pro Anfrage. Nicht eine Pipeline — ein adaptives System.
A-RAG Planning
Meta-Agent plant Retrieval-Schritte vor der Ausführung. Heuristik-First, LLM-Fallback.
GraphRAG 3-Layer
Event-Subgraph + Semantic Graph + Community Summaries. 5 parallele Strategien.
Self-RAG Critique
Automatische Reformulierung bei Konfidenz < 0,5. 4-Komponenten-Scoring.
HyDE Retrieval
Hypothetische Antwort → Embedding → Suche. Auto-Detection mit 5s Timeout.
Contextual Retrieval
Chunk-Anreicherung nach Anthropic-Methode. +67% Retrieval-Genauigkeit.
Embedding Drift Detection
BullMQ-Worker überwacht Drift >10%. Automatische Cache-Invalidierung.
Autonome Agenten mit Sicherheitsgrenzen
Multi-Agenten-Orchestrierung mit strukturierter Debatte, dynamischer Teambildung und rekursiver Selbstverbesserung.
Debate Protocol
3-Runden-Debatte bei Uneinigkeit. Challenge → Response → Resolution.
Dynamic Team Builder
5 Spezialisten-Agenten, automatisch zusammengestellt nach Aufgabentyp.
HyperAgent L0–L2
Rekursive Selbstverbesserung mit Tagesbudgets, Sandbox-Tests und Auto-Rollback.
Persistent Agent Loops
Pause/Resume mit State-Checkpointing. Langläufige Aufgaben über Tage.
A2A Protocol
Agent-zu-Agent-Kommunikation nach Google-Standard. /.well-known/agent.json Discovery.
Implicit Feedback
Automatische Verhaltenserkennung ohne explizites Labeling.
KI die über sich selbst nachdenkt
Neugier, Vorhersage, Metakognition — drei Säulen kognitiver Intelligenz.
Curiosity Engine
Quantifizierter Gap-Score: Abfragefrequenz × Faktendichte × Konfidenz × RAG-Qualität.
Prediction Engine
Temporale + sequenzielle Mustererkennung. Lernt aus Vorhersagefehlern.
Metacognition
Konfidenz-Kalibrierung, Verwirrungserkennung, Fähigkeitsprofiling.
Adaptive Thinking
4-Tier Denkbudgets: 1K→16K→64K→128K Token. Auto-Detection. 60-80% Kostenersparnis.
ZenBrain vs. Wettbewerber
Faktischer Vergleich der Fähigkeiten — Stand März 2026.
| Feature | ZenBrain | Mem0 | Letta | Zep | LangChain |
|---|---|---|---|---|---|
| Gedächtnisschichten | 7 | 2 | 3 | 2 | 1 |
| Spaced Repetition (FSRS) | ✓ | — | — | — | — |
| Emotionales Gedächtnis | ✓ | — | — | — | — |
| Hebbianische KG-Kanten | ✓ | — | — | — | — |
| Sleep Consolidation | ✓ | — | — | — | — |
| Bayesianische Konfidenz | ✓ | — | — | — | — |
| Graph Reasoning | ✓ | — | — | — | — |
| 3-Layer GraphRAG | ✓ | — | — | — | — |
| Agentic RAG | ✓ | — | — | — | — |
| Debate Protocol | ✓ | — | — | — | — |
| Curiosity Engine | ✓ | — | — | — | — |
| Prediction Engine | ✓ | — | — | — | — |
| HyperAgent L0–L2 | ✓ | — | — | — | — |
| Multi-Context Isolation | ✓ | — | — | — | — |
| Open Source | ✓ | — | ✓ | ✓ | ✓ |
| Tests | 9.228 | — | — | — | — |
Entdecke den Code
ZenBrain ist Open Source. Alle Algorithmen, alle Tests, alle Dokumentation — offen einsehbar.