TECHNOLOGIE

Die Wissenschaft hinter ZenBrain

40 technische Innovationen. 8 weltweit einzigartig. 12 neurowissenschaftliche Algorithmen. 9.228 Tests. Alles offen dokumentiert.

Alexander Bering, Gründer & Entwickler

Gedächtnis ist nicht Speicherung — es ist ein lebendiger Prozess aus Vergessen, Konsolidierung und Wiederentdeckung. Wir haben diesen Prozess in Software übersetzt.

Alexander Bering

Was es sonst nirgendwo gibt

Diese acht Technologien existieren in keinem anderen KI-System in Produktion — weder kommerziell noch Open Source.

Sleep Consolidation Engine

Erste produktive KI mit Gedächtniskonsolidierung im Leerlauf — inspiriert von hippokampalem Replay (Stickgold & Walker 2013). Schwache Verbindungen werden beschnitten, stabile verstärkt.

Kein Wettbewerber implementiert Sleep-Time-Konsolidierung. Einzigartig in der gesamten KI-Branche.

7-Schichten Memory Coordinator

Erster vereinheitlichter Orchestrator für 7 Gedächtnisschichten in Produktion — von Working Memory bis Langzeitgedächtnis. Basiert auf Global Workspace Theory (Baars 1988).

Mem0 hat 2 Schichten, Letta 3, Zep 2. ZenBrain hat 7 — die tiefste Gedächtnisarchitektur im Open-Source-Bereich.

A-RAG (Autonomer Retrieval-Agent)

Meta-Agent der Retrieval-Pläne erstellt, bevor eine Suche ausgeführt wird. Heuristik-First mit LLM-Fallback, max. 4 abhängige Schritte.

Erste Planungsschicht für Multi-Step-Retrieval. Heuristik-basiert — keine LLM-Kosten für einfache Abfragen.

Multi-Agent Debate Protocol

Strukturiertes 3-Runden-Debattenprotokoll wenn Agenten sich uneinig sind. Challenge → Response → Resolution mit automatischer Eskalation.

Erstes strukturiertes Debattenprotokoll für Multi-Agenten-Systeme in Produktion.

Curiosity Engine

Automatische Wissenslücken-Erkennung mit quantifiziertem Gap-Score. Analysiert Abfragehistorie, Faktendichte und Konfidenz — empfiehlt gezielte Aktionen.

Kein Wettbewerber implementiert systematische Neugier. Inspiriert von Loewensteins Informationslücken-Theorie (1994).

Prediction Engine

Vorhersage der Nutzerintention aus temporalen und sequenziellen Mustern. Lernt aus Vorhersagefehlern — je öfter falsch, desto besser die nächste Vorhersage.

Kein Wettbewerber sagt Nutzerintentionen aus Verhaltensmustern voraus.

HyperAgent L0–L2

3-stufige rekursive Selbstverbesserung mit formalen Sicherheitsgrenzen. Level 0 optimiert Wissen, Level 1 optimiert Level-0-Strategien, Level 2 optimiert Level-1-Parameter.

Einzigartige 3-Ebenen-Rekursion mit immutablen Kerneigenschaften, Tagesbudgets und automatischem Rollback bei Qualitätsverlust.

Cross-Context Entity Merging

Erkennung und Zusammenführung von Entitäten über 4 isolierte Kontexte (Personal, Arbeit, Lernen, Kreativ). Bayesianische Konfidenz-Updates bei Konflikten.

Kein Wettbewerber verwaltet kontextübergreifende Entitäten.

HiMeS — 7 Schichten neurowissenschaftliches Gedächtnis

Inspiriert vom Atkinson-Shiffrin-Modell (1968) und moderner Kognitionswissenschaft.

1

Working Memory

Aktiver Fokus — 7±2 Items nach Millers Magical Number. Schnellster Zugriff, kürzeste Lebensdauer.

Phase 125
2

Kurzzeitgedächtnis

Session-Kontext und Gesprächskontinuität. Überlebt die aktuelle Sitzung.

Phase 125
3

Episodisch

Konkrete Erfahrungen mit emotionalem Tagging. 400+ Keyword-Lexikon (DE+EN) für Arousal/Valenz-Scoring.

Phase 125
4

Semantisch

Faktenwissen mit FSRS-Scheduling. Spaced Repetition optimiert Abrufzeitpunkte — 30% besser als SM-2.

Phase 125
5

Prozedural

Abläufe und Skills. Werkzeugketten werden analysiert und optimiert.

Phase 127
6

Core Memory

Unveränderliche Grundlagen nach dem Letta-Pattern. Pinned Facts die nie vergessen werden.

Phase 126
7

Langzeitgedächtnis

Dauerhaftes Wissen mit Ebbinghaus-Vergessenskurve, Hebbianischer Verstärkung und Bayesianischer Konfidenz.

Phase 125

Jede KI, die nicht vergessen kann, wird irgendwann in ihrem eigenen Rauschen ertrinken. Selektives Vergessen ist keine Schwäche — es ist die Grundlage von Intelligenz.

Alexander Bering

12 Algorithmen, inspiriert von der Neurowissenschaft

FSRS Spaced Repetition

open-spaced-repetition/fsrs4anki

Optimaler Wiederholungszeitpunkt bei ~50% Retention

Ebbinghaus-Vergessenskurve

Ebbinghaus (1885)

Exponentieller Verfall mit konfigurierbarer Halbwertszeit

Hebbianisches Lernen

Hebb (1949)

Co-aktivierte Fakten verstärken Verbindungen (×1.09/Aktivierung)

Homöostatische Normalisierung

Turrigiano (2004)

Verhindert unkontrolliertes Wachstum von Kantengewichten

Sleep Consolidation

Stickgold & Walker (2013)

Hippokampales Replay mit +50% Stabilitäts-Boost

Synaptische Homöostase

Tononi & Cirelli (2006)

Schwache Verbindungen werden im Schlaf beschnitten

Emotionale Modulation

LeDoux (1996)

Emotionale Erinnerungen verfallen 2,7× langsamer

Bayesianische Propagation

Pearl (1988)

Konfidenz-Updates über den gesamten Wissensgraphen

Global Workspace Theory

Baars (1988)

Bewusster Zugriff durch kompetitiven Context Assembly

Informationsgewinn-Scoring

Shannon (1948)

Entropie-basierte Priorisierung neuer Fakten

Wissenslücken-Theorie

Loewenstein (1994)

Systematische Erkennung fehlenden Wissens

Working Memory Kapazität

Miller (1956)

7±2 aktive Items im Arbeitsspeicher

Intelligentes Wissens-Retrieval

6 Strategien, dynamisch ausgewählt pro Anfrage. Nicht eine Pipeline — ein adaptives System.

A-RAG Planning

Meta-Agent plant Retrieval-Schritte vor der Ausführung. Heuristik-First, LLM-Fallback.

GraphRAG 3-Layer

Event-Subgraph + Semantic Graph + Community Summaries. 5 parallele Strategien.

Self-RAG Critique

Automatische Reformulierung bei Konfidenz < 0,5. 4-Komponenten-Scoring.

HyDE Retrieval

Hypothetische Antwort → Embedding → Suche. Auto-Detection mit 5s Timeout.

Contextual Retrieval

Chunk-Anreicherung nach Anthropic-Methode. +67% Retrieval-Genauigkeit.

Embedding Drift Detection

BullMQ-Worker überwacht Drift >10%. Automatische Cache-Invalidierung.

Autonome Agenten mit Sicherheitsgrenzen

Multi-Agenten-Orchestrierung mit strukturierter Debatte, dynamischer Teambildung und rekursiver Selbstverbesserung.

Debate Protocol

3-Runden-Debatte bei Uneinigkeit. Challenge → Response → Resolution.

Dynamic Team Builder

5 Spezialisten-Agenten, automatisch zusammengestellt nach Aufgabentyp.

HyperAgent L0–L2

Rekursive Selbstverbesserung mit Tagesbudgets, Sandbox-Tests und Auto-Rollback.

Persistent Agent Loops

Pause/Resume mit State-Checkpointing. Langläufige Aufgaben über Tage.

A2A Protocol

Agent-zu-Agent-Kommunikation nach Google-Standard. /.well-known/agent.json Discovery.

Implicit Feedback

Automatische Verhaltenserkennung ohne explizites Labeling.

KI die über sich selbst nachdenkt

Neugier, Vorhersage, Metakognition — drei Säulen kognitiver Intelligenz.

Curiosity Engine

Quantifizierter Gap-Score: Abfragefrequenz × Faktendichte × Konfidenz × RAG-Qualität.

Prediction Engine

Temporale + sequenzielle Mustererkennung. Lernt aus Vorhersagefehlern.

Metacognition

Konfidenz-Kalibrierung, Verwirrungserkennung, Fähigkeitsprofiling.

Adaptive Thinking

4-Tier Denkbudgets: 1K→16K→64K→128K Token. Auto-Detection. 60-80% Kostenersparnis.

ZenBrain vs. Wettbewerber

Faktischer Vergleich der Fähigkeiten — Stand März 2026.

FeatureZenBrainMem0LettaZepLangChain
Gedächtnisschichten72321
Spaced Repetition (FSRS)
Emotionales Gedächtnis
Hebbianische KG-Kanten
Sleep Consolidation
Bayesianische Konfidenz
Graph Reasoning
3-Layer GraphRAG
Agentic RAG
Debate Protocol
Curiosity Engine
Prediction Engine
HyperAgent L0–L2
Multi-Context Isolation
Open Source
Tests9.228

Entdecke den Code

ZenBrain ist Open Source. Alle Algorithmen, alle Tests, alle Dokumentation — offen einsehbar.