Im März 2026 hatten wir 9 fundamentale Algorithmen — vmPFC-FSRS, Two-Factor Synaptic, Sim-Selection Sleep, Bayesian Confidence, und fünf weitere. Sie strukturierten was gespeichert wird, wo, und mit welcher Importance.
Was sie nicht regelten: wann eine Erinnerung labil wird, welche Update-Strategie ein Retrieval auslöst, wie das System unter Bias-Druck reagiert, und welche Erinnerung gerade Schutz vor Überschreibung verdient.
Das ist die Aufgabe der Predictive Memory Architecture (PMA) — eine zweite Welle aus sechs Komponenten, die im v6 ZenBrain-Paper formal beschrieben sind. Sie sitzen auf den 9 fundamentalen Algorithmen drauf und regieren den Lebenszyklus des Speichers über die Zeit.
Hier ist eine kompakte Erklärung der sechs.
1. NeuromodulatorEngine — vier Kanäle, Tonus + Phasik
Das Gehirn hat keine globale Lernrate. Es hat eine ganze Werkzeugkiste an Neuromodulatoren, die je nach Situation an verschiedenen Stellen unterschiedlich wirken. Die NeuromodulatorEngine bildet vier davon nach:
- Dopamin (DA) — VTA, Exploration und Novelty-Bias
- Norepinephrin (NE) — Locus Coeruleus, Lernrate und Aufmerksamkeit auf Prediction-Error
- Serotonin (5-HT) — Raphe, Konsolidierungs-Geduld
- Acetylcholin (ACh) — Basal Forebrain, Attention-Ratio zwischen alter und neuer Information
Jeder Kanal hat einen tonischen Baseline (b = 0,5) mit homeostatischer Drift (τ_decay = 0,95) und phasische Bursts auf Events (5-Minuten-Halbwertszeit). DA und 5-HT sind durch eine Opposition Coupling (−0,3) verbunden — eine Realisierung der Serotonin-Dopamin-Balance, die im Reward-Processing gut belegt ist.
Die Engine outputs vier Modulations-Parameter, die andere PMA-Komponenten konsumieren: Lernrate (NE-getrieben), Exploration-Bias (DA-getrieben), Konsolidierungs-Geduld (5-HT-getrieben), Attention-Ratio (ACh-getrieben).
In den Paper-Experimenten produziert die Engine über 1 000 simulierte Events einen mittleren tonischen Drift von 0,469 (6,2 % vom Baseline) — die homeostatische Stabilität ist also gewährleistet — und eine DA/5-HT-Korrelation von −0,130 (p < 0,01), die das Opposition-Coupling validiert.
2. ReconsolidationEngine — vier Update-Modi statt eines
Die klassische Sicht auf Memory: einmal gespeichert, dann gelesen, dann eventuell neu geschrieben. Die Neuroscience-Realität ist subtiler. Wenn eine Erinnerung abgerufen wird, wird sie für etwa 10 Minuten labil — sie kann modifiziert oder gelöscht werden — und reorganisiert sich danach in einer eventuell veränderten Form. Das nennt man Reconsolidation (Nader 2000, Schiller 2010).
Die ReconsolidationEngine implementiert das mit vier Modi, gegated durch die effektive Prediction-Error PE_eff:
mode(PE_eff) =
confirmed if PE_eff < 0,1
selective_edit if 0,1 ≤ PE_eff < 0,3
integration if 0,3 ≤ PE_eff < 0,7
new_episode if PE_eff ≥ 0,7
Die effektive PE wird neuromodulatorisch gegated: PE_eff = PE_raw · (1 + 0,3·NE − 0,2·5HT). Hohe NE (Stress, Aufmerksamkeit) verstärkt PE; hohe 5-HT (Geduld, Stabilität) dämpft sie.
Jedes Reconsolidation-Event wird mit dem Original-Snapshot geloggt — Rollback ist möglich, wenn der Update sich später als Fehler erweist. Das ist eine Sicherheits-Eigenschaft, die in keinem konkurrierenden Memory-System existiert. In den Paper-Experimenten erreicht die PE-zu-Update-Mode-Klassifikation ≥ 95 % Genauigkeit, mit korrekter Widerspruchserkennung in 100 % der Testfälle (Precision = 1,0).
3. TripleCopyMemory — drei Spuren, drei Zeitkonstanten
Die wahrscheinlich überraschendste Komponente. Statt ein Memory einmal zu speichern, speichert TripleCopyMemory es dreimal — mit unterschiedlichen Decay-Dynamiken:
S_fast(t) = S₀ · e^(−t/τ_f), τ_f = 4 h
S_med(t) = 0,8 · S₀ · e^(−t/τ_m), τ_m = 14 d
S_deep(t) = S₀ · log(1 + t/τ_d), τ_d = 7 d
- Die Fast-Copy liefert lebendigen Direktzugriff, der innerhalb von Stunden verblasst.
- Die Medium-Copy überlebt zwischen Sessions mit standardexponentiellem Decay.
- Die Deep-Copy wächst logarithmisch — sie kodiert die komprimierte Essenz und wird mit der Zeit stärker.
Die effektive Stärke ist S(t) = max(S_fast, S_med, S_deep). Das produziert eine charakteristische Dominance-Transition: Fast-Copy gewinnt in den ersten Stunden, Medium-Copy übernimmt bei 1–3 Tagen, Deep-Copy ab 7+ Tagen. Bei 30 Tagen retainiert die zusammengesetzte Stärke 91,2 %, während pure Ebbinghaus-Baselines praktisch null erreichen.
Das matched die Systems-Consolidation-Theorie aus der Neuroscience: Detail-reiche Episoden verblassen, komprimierte Gist-Repräsentationen überleben.
4. PriorityMap — vierdimensional, mit Amygdala-Fastpath
Memory ohne Priorisierung wird in Rauschen begraben. Die PriorityMap berechnet einen vier-dimensionalen Score:
P = w_s · s + w_e · |v| + w_r · r + w_g · g
mit Saliency s, emotionaler Valenz v, Reward-Relevanz r, Goal-Alignment g und Default-Gewichten (w_s, w_e, w_r, w_g) = (0,2; 0,25; 0,25; 0,3).
Der entscheidende Mechanismus ist der Amygdala-Fastpath: Bei emotionaler Intensität |v| > 0,6 garantiert das System P ≥ 0,5, unabhängig von den anderen Dimensionen. Das spiegelt die McGaugh-2004-Erkenntnis wider, dass emotional aufgeladene Erinnerungen eine bevorzugte Konsolidierung erhalten — auch wenn sie nicht task-relevant sind.
Die Gewichte werden dynamisch durch den Neuromodulator-Status angepasst: DA verstärkt Saliency, NE verstärkt Emotion, ACh verstärkt Reward, 5-HT verstärkt Goal-Alignment. So können dieselben PriorityMap-Scores in unterschiedlichen Zuständen verschiedene Werte produzieren, was biologisches Verhalten reproduziert.
Auf einem synthetischen Benchmark mit 50 Items und Ground-Truth-Importance erreicht die PriorityMap NDCG@10 = 0,997 (vs. 0,680 chronologisch, +46,6 %).
5. StabilityProtector — Schutz für reife Erinnerungen
Reconsolidation ist mächtig — aber sie öffnet auch ein Angriffsfenster. Was, wenn jemand mit einer einzigen falschen Aussage eine seit Jahren etablierte Erinnerung überschreiben könnte?
Der StabilityProtector verhindert das durch einen Lock-Score L und einen Rigidity-Faktor ρ:
L = 0,3 · log₂(1+a) / log₂(11)
+ 0,3 · c
+ 0,2 · min(d/365, 1)
+ 0,2 · is_core
ρ = 1 + 0,1 · log₂(1+d)
update ⇔ PE ≥ 0,5 + 0,3 · L · ρ
mit Access-Count a, Konfidenz c, Alter in Tagen d, Indikator is_core für Core Memory. Reife Erinnerungen (a groß, c groß, d groß, oder Core-Status) bekommen hohe Lock-Scores und Rigidity-Faktoren — eine Update-Forderung mit niedriger PE wird abgewiesen. Genuine neue Information mit hoher PE durchdringt den Schutz.
Das ist analog zu NogoA-Rezeptor-Signaling und HDAC3-epigenetischer Regulation: das biologische Gehirn schützt sich aktiv gegen casual rewriting reifer Schaltkreise.
6. MetacognitiveMonitor — wenn das System merkt, dass es schief liegt
Die letzte Komponente überwacht das System selbst. Sie tracked drei Bias-Typen:
- Confirmation Bias — asymmetrische Akzeptanz von positiver vs. negativer Evidenz
- Recency Bias — Übergewichtung kürzlicher Erinnerungen
- Retrieval-Asymmetrie — bestimmte Domänen werden systematisch unter-retrieved
Sie öffnet Novelty-Windows (10 Minuten) nach Hoch-PE-Events (> 0,7), in denen Encoding temporär verstärkt wird — und sie generiert Calibration-Alerts, wenn systematische Biases einen 30-Tage-Schwellwert überschreiten. Effizienz-Tracking über das gleitende 30-Tage-Fenster produziert Badges, die in der UI sichtbar werden — der Feedback-Loop schließt.
In den Paper-Experimenten erreicht die Confirmation-Bias-Detektion Precision = 0,832 und Recall = 0,975 über 50 synthetische Szenarien pro Seed. Urgency-Keyword-Detection produziert 0 False Negatives auf deutschen und englischen Test-Phrasen.
Wie die sechs zusammenarbeiten
Die PMA ist kein Stack von sechs unabhängigen Modulen. Es ist ein gekoppeltes System:
- Die NeuromodulatorEngine liefert die globalen Tonus-Werte, die alle anderen lesen.
- Die ReconsolidationEngine verlässt sich auf die NE-/5-HT-Werte, um
PE_effzu modulieren. - Die PriorityMap liest dieselben Tonus-Werte, um Gewichte dynamisch zu adjustieren.
- Der StabilityProtector wird strenger, wenn 5-HT hoch ist (mehr Geduld) und großzügiger, wenn NE hoch ist (mehr Lernbereitschaft).
- Der MetacognitiveMonitor beobachtet alle vier und löst Novelty-Windows aus, die Lernrate und Encoding-Stärke kurzzeitig boosten.
- TripleCopyMemory ist die einzige Komponente, die unabhängig läuft — sie ist die Substrat-Schicht, auf der die anderen fünf operieren.
Im Paper-Ablation-Test zeigt sich diese Kopplung empirisch: Unter moderaten Bedingungen (decay = 0,15/Tag, 45 Tage) sind alle 6 PMA-Komponenten kooperativ-redundant (ΔQ ≤ 0,1 % wenn einzeln entfernt). Aber wenn man alle sechs gleichzeitig entfernt — also "NeurIPS-only" gegen "Full" testet — bricht das System um −67,5 % ein. Die PMA ist eine Resilience-Backbone, kein optionales Add-on.
Unter Stress (60 Tage, decay = 0,25/Tag) wird die Kopplung sichtbar: NeuromodulatorEngine und TripleCopyMemory werden individuell kritisch (−83,0 % und −93,7 % wenn entfernt), während iMAD, MetacogMonitor und PriorityMap ihren Beitrag in Ranking-Präzision statt Retention-Rate liefern.
Was das praktisch heißt
Die 9 fundamentalen Algorithmen waren Architektur: was speichern, wo, wie strukturieren. Die 6 PMA-Komponenten sind Dynamik: wann labil werden, welcher Update-Modus, wann schützen, wann boost geben.
Beides ist nötig. Eines ohne das andere kollabiert.
Mehr lesen
- Vorgänger-Post: Wie wir Memory in ein AI OS gebaut haben — die 9 Neurowissenschafts-Algorithmen
- Pareto-Position: 91 % der Genauigkeit bei 1 % der Tokens
- Paper: ZenBrain v6 auf Zenodo
- Code: github.com/zensation-ai/zenbrain