Apache 2.0TypeScriptZero Dependencies

Neuroscience Memory
for AI Agents.

Der kognitive Kern aus ZenAI — extrahiert, getestet, open source. 15 Algorithmen, die Ihrer KI beibringen, sich zu erinnern, zu vergessen und zu schlafen.

Hebbian LearningFSRS Spaced RepetitionSleep ConsolidationBayesian ConfidenceEbbinghaus DecayEmotional Tagging7-Layer MemoryMemoryCoordinatorCross-Context
276Tests
15Algorithmen
0Dependencies
DOIOpen Access
Die Geschichte

Extrahiert aus 322.000 Zeilen Production-Code.

ZenBrain ist kein Experiment. Es ist der Kern von ZenAI — einem KI-Betriebssystem mit 11.589 Tests und 7 kognitiven Säulen. Wir haben die Memory-Algorithmen extrahiert, damit Sie sie nutzen können.

ZenAI322K LOC11.589 TestsProduction AI OS
Extraktion15 Algorithmen7 LayerNeuroscience Kern
ZenBrainnpm Pakete276 TestsOpen Source Apache 2.0
Algorithmen

15 Algorithmen. 9 fundamentale + 6 PMA-Komponenten.

ZenBrain liefert 15 neurowissenschaftlich fundierte Algorithmen (zero dependencies, open-access): 9 fundamentale Mechanismen — FSRS, Hebbian, Sleep Consolidation, Bayesian Confidence und weitere — plus 6 Komponenten der Predictive Memory Architecture (PMA), die die Memory-Dynamik regieren: NeuromodulatorEngine, ReconsolidationEngine, TripleCopyMemory, PriorityMap, StabilityProtector, MetacognitiveMonitor.

Cooperative Survival Network — 15 vernetzte Knoten in tiefem Petrol-Teal mit kaskadierenden Amber-Ausfallswellen, die zeigen, wie ZenBrains Algorithmen sich unter Stress gegenseitig stützen
9 von 15 Algorithmen werden unter Stress individuell kritisch (Decay = 0,25/Tag, 60 Tage Aging). Was unter Normalbedingungen redundant erscheint, ist tatsächlich kooperativ redundant.

Hebbian Learning

Synapsen stärken durch Co-Aktivierung

Hebb 1949

FSRS Spaced Repetition

Optimales Wiederholungs-timing

Wozniak 2022

Sleep Consolidation

Memory Replay im Schlaf — wie das Gehirn

Stickgold & Walker 2013

Ebbinghaus Decay

Vergessenskurve mit adaptiven Intervallen

Ebbinghaus 1885

Bayesian Confidence

Belief-Update mit Prior + Evidence

Bayes 1763

Emotional Tagging

Emotionale Marker für besseren Recall

Damasio 1994

Activation Spreading

Assoziative Netzwerkaktivierung

Collins & Loftus 1975

Temporal Context

Zeitbasierte Gedächtniskodierung

Howard & Kahana 2002

Memory Consolidation

STM→LTM Transfer mit Importance-Scoring

McClelland et al. 1995

Confidence Intervals

95% CI für alle probabilistischen Outputs

Wilson 1927

Cross-Context Transfer

Wissen über Kontexte hinweg teilen

Tulving 1972

Retention Visualization

Ebbinghaus-Kurven als Datenpunkte exportieren

Ebbinghaus 1885

Neuromodulation

Dopamin, NE, 5-HT, ACh — vier Kanäle mit tonischer + phasischer Dynamik

Schultz 1997 · Aston-Jones 2005

Reconsolidation

Erinnerung wird beim Abruf labil — vier PE-gegatete Update-Modi mit Rollback

Nader 2000 · Schiller 2010

Triple-Copy Memory

Drei Spuren mit divergenter Dynamik — Fast (4 h), Medium (14 d), Deep (logarithmisch)

Squire & Bayley 2007
Orchestrierung

Ein Coordinator. 7 Memory Layers.

Der MemoryCoordinator orchestriert alle Schichten — von Working Memory bis Sleep Consolidation. Ein Aufruf. Das System entscheidet.

Drei parallele Memory-Streams fließen von links nach rechts mit divergenten Decay-Kurven — Fast (4 Stunden), Medium (14 Tage) und Deep (logarithmisches Wachstum)
Der MemoryCoordinator orchestriert alle 7 Schichten. Darüber liegt die 6-teilige Predictive Memory Architecture (PMA), die die Memory-Dynamik regiert — TripleCopyMemory ist hier abgebildet.
Auto-Routingstore() erkennt den richtigen Layer automatisch
Cross-Layer RecallEine Query, alle Layer gleichzeitig
ConsolidationSTM→LTM Transfer mit Importance-Scoring
Decay ManagementEbbinghaus + FSRS automatisch
Review QueueFSRS-basierte Wiedervorlage
import { MemoryCoordinator }
  from '@zensation/core';

const memory =
  new MemoryCoordinator();

// Store — auto-routes
await memory.store(
  'TypeScript has generics',
  { context: 'learning' }
);

// Recall — cross-layer
const results =
  await memory.recall(
    'What do I know about TypeScript?'
  );

// Sleep — consolidate
await memory.consolidate();
Working
Short-Term
Episodic
Semantic
Procedural
Core
Cross-Context
Quick Start

In 30 Sekunden zum ersten Memory.

Kein Setup. Keine Konfiguration. Kein Account.

Installieren
npm install @zensation/algorithms
npm install @zensation/core
Code schreiben
import { MemoryCoordinator } from '@zensation/core';
import { HebbianLearning, FSRS } from '@zensation/algorithms';

const memory = new MemoryCoordinator({
  algorithms: [HebbianLearning, FSRS]
});

await memory.store('Project deadline is Friday',
  { context: 'work' });

const recall = await memory.recall(
  'When is the deadline?'
);
console.log(recall);
Ergebnis
{
  "content": "Project deadline is Friday",
  "confidence": 0.94,
  "layer": "short-term",
  "decay": 0.87,
  "nextReview": "2026-03-28T09:00:00Z"
}
Vergleich

Was andere Memory-Systeme nicht haben.

Vier Wettbewerber. Alle lösen Teile des Problems. Keiner hat Sleep Consolidation, 7 Layer oder Confidence Intervals.

Feature-Vergleich auf einen Blick

Memory LayersSleep Consoli…Spaced Repeti…Graph LearningSelf-HostedTypeScript
ZenBrain
Mem0
Letta
ZenBrainMem0LettaZepLangMem
Memory Layers72221
Sleep Consolidation
FSRS Spaced Rep.
Hebbian Learning
Confidence Intervals
Emotional Tagging
Cross-Context
Ebbinghaus Decay
Self-hosted
Zero Dependencies
TypeScript-nativePythonPythonPythonPython
Peer-reviewed Basis
Algorithmen (Open-Source-Paket)121321
Tests276????

Stand: April 2026. Basierend auf öffentlicher Dokumentation. ZenBrain umfasst insgesamt 15 Algorithmen — 9 fundamentale Mechanismen plus 6 Komponenten der Predictive Memory Architecture (PMA), die die Memory-Dynamik regieren. Vollständige Beschreibung im Forschungspaper.

Architektur

Zwei Pakete. Ein System.

@zensation/algorithms ist der pure Kern — zero dependencies. @zensation/core orchestriert alles mit dem MemoryCoordinator.

Ihre Applikation
uses
@zensation/core
MemoryCoordinatorstore() · recall() · consolidate() · decay()
Working
Short-Term
Episodic
Semantic
Procedural
Core
Cross-Context
npm i @zensation/core
uses
@zensation/algorithms
0 deps
Hebbian
FSRS
Sleep
Ebbinghaus
Bayesian
npm i @zensation/algorithms
optional
adapter-postgres+ pgvector · Preview# published with v0.3
adapter-sqlitezero-config · Preview# published with v0.3
Community

Open Source heißt: zusammen bauen.

Apache 2.0. Contributions willkommen. Kein CLA nötig.

Was als Nächstes kommt.

v0.2.0aktuell

MemoryCoordinator, Sleep Consolidation, 276 Tests

März 2026
v0.3.0

@zensation/mcp-server — IDE-Integration (Cursor, VS Code, Claude)

Mai 2026
v0.4.0

LOCOMO-Benchmark vs. Mem0/Zep/LangMem

Juni 2026
v1.0.0

API-Stabilität, ZenBrain Cloud MVP

Q3 2026
FAQ

Häufige Fragen.

Was ist der Unterschied zwischen ZenBrain und ZenAI?

ZenBrain ist der extrahierte, open-source Kern der Memory-Algorithmen. ZenAI ist das fertige KI-Betriebssystem, das auf ZenBrain aufbaut. Wer eigene Systeme bauen will → ZenBrain. Wer das fertige Produkt will → ZenAI.

Brauche ich eine Datenbank?

Nein. @zensation/algorithms ist zero-dependency und läuft komplett in-memory. Optionale Persistenz-Adapter — adapter-postgres (pgvector) und adapter-sqlite (zero-config) — sind in Preview und erscheinen mit v0.3 auf npm.

Welche LLMs werden unterstützt?

ZenBrain ist LLM-agnostisch. Die Algorithmen arbeiten auf Embeddings — egal ob von OpenAI, Anthropic, Mistral, Ollama oder einem eigenen Modell.

Ist ZenBrain production-ready?

Die Algorithmen stammen aus ZenAI (322K LOC, 11.589 Tests, seit Monaten in Produktion). Das extrahierte Paket hat 276 eigene Tests. API-Stabilität (Semver 1.0) ist für Q3 2026 geplant.

Wie unterscheidet sich ZenBrain von Mem0?

Mem0 hat 2 Memory-Layer und fokussiert auf Cloud-API. ZenBrain hat 7 Layer, Sleep Consolidation, FSRS, Hebbian Learning, Confidence Intervals — alles self-hosted, zero dependencies, TypeScript-native.

Kann ich nur @zensation/algorithms ohne core nutzen?

Ja. Das algorithms-Paket ist komplett standalone mit zero dependencies. Sie können einzelne Algorithmen importieren und in bestehende Systeme integrieren, ohne den MemoryCoordinator zu verwenden.

Bereit für KI,
die sich erinnert?

15 Algorithmen. 276 Tests. Zero Dependencies. Apache 2.0 — für immer.

v0.2.1TypeScriptApache 2.0