Engineering

Predictive Memory Architecture (PMA): die 6 Komponenten der zweiten Welle

Alexander Bering
Alexander Bering
27. April 2026 · 7 min Lesezeit

Im März 2026 hatten wir 9 fundamentale Algorithmen — vmPFC-FSRS, Two-Factor Synaptic, Sim-Selection Sleep, Bayesian Confidence, und fünf weitere. Sie strukturierten was gespeichert wird, wo, und mit welcher Importance.

Was sie nicht regelten: wann eine Erinnerung labil wird, welche Update-Strategie ein Retrieval auslöst, wie das System unter Bias-Druck reagiert, und welche Erinnerung gerade Schutz vor Überschreibung verdient.

Das ist die Aufgabe der Predictive Memory Architecture (PMA) — eine zweite Welle aus sechs Komponenten, die im v6 ZenBrain-Paper formal beschrieben sind. Sie sitzen auf den 9 fundamentalen Algorithmen drauf und regieren den Lebenszyklus des Speichers über die Zeit.

Hier ist eine kompakte Erklärung der sechs.

1. NeuromodulatorEngine — vier Kanäle, Tonus + Phasik

Das Gehirn hat keine globale Lernrate. Es hat eine ganze Werkzeugkiste an Neuromodulatoren, die je nach Situation an verschiedenen Stellen unterschiedlich wirken. Die NeuromodulatorEngine bildet vier davon nach:

  • Dopamin (DA) — VTA, Exploration und Novelty-Bias
  • Norepinephrin (NE) — Locus Coeruleus, Lernrate und Aufmerksamkeit auf Prediction-Error
  • Serotonin (5-HT) — Raphe, Konsolidierungs-Geduld
  • Acetylcholin (ACh) — Basal Forebrain, Attention-Ratio zwischen alter und neuer Information

Jeder Kanal hat einen tonischen Baseline (b = 0,5) mit homeostatischer Drift (τ_decay = 0,95) und phasische Bursts auf Events (5-Minuten-Halbwertszeit). DA und 5-HT sind durch eine Opposition Coupling (−0,3) verbunden — eine Realisierung der Serotonin-Dopamin-Balance, die im Reward-Processing gut belegt ist.

Die Engine outputs vier Modulations-Parameter, die andere PMA-Komponenten konsumieren: Lernrate (NE-getrieben), Exploration-Bias (DA-getrieben), Konsolidierungs-Geduld (5-HT-getrieben), Attention-Ratio (ACh-getrieben).

In den Paper-Experimenten produziert die Engine über 1 000 simulierte Events einen mittleren tonischen Drift von 0,469 (6,2 % vom Baseline) — die homeostatische Stabilität ist also gewährleistet — und eine DA/5-HT-Korrelation von −0,130 (p < 0,01), die das Opposition-Coupling validiert.

2. ReconsolidationEngine — vier Update-Modi statt eines

Die klassische Sicht auf Memory: einmal gespeichert, dann gelesen, dann eventuell neu geschrieben. Die Neuroscience-Realität ist subtiler. Wenn eine Erinnerung abgerufen wird, wird sie für etwa 10 Minuten labil — sie kann modifiziert oder gelöscht werden — und reorganisiert sich danach in einer eventuell veränderten Form. Das nennt man Reconsolidation (Nader 2000, Schiller 2010).

Die ReconsolidationEngine implementiert das mit vier Modi, gegated durch die effektive Prediction-Error PE_eff:

mode(PE_eff) =
    confirmed         if PE_eff < 0,1
    selective_edit    if 0,1  PE_eff < 0,3
    integration       if 0,3  PE_eff < 0,7
    new_episode       if PE_eff  0,7

Die effektive PE wird neuromodulatorisch gegated: PE_eff = PE_raw · (1 + 0,3·NE − 0,2·5HT). Hohe NE (Stress, Aufmerksamkeit) verstärkt PE; hohe 5-HT (Geduld, Stabilität) dämpft sie.

Jedes Reconsolidation-Event wird mit dem Original-Snapshot geloggt — Rollback ist möglich, wenn der Update sich später als Fehler erweist. Das ist eine Sicherheits-Eigenschaft, die in keinem konkurrierenden Memory-System existiert. In den Paper-Experimenten erreicht die PE-zu-Update-Mode-Klassifikation ≥ 95 % Genauigkeit, mit korrekter Widerspruchs­erkennung in 100 % der Testfälle (Precision = 1,0).

3. TripleCopyMemory — drei Spuren, drei Zeitkonstanten

Die wahrscheinlich überraschendste Komponente. Statt ein Memory einmal zu speichern, speichert TripleCopyMemory es dreimal — mit unterschiedlichen Decay-Dynamiken:

S_fast(t) = S · e^(t/τ_f),       τ_f = 4 h
S_med(t)  = 0,8 · S · e^(t/τ_m), τ_m = 14 d
S_deep(t) = S · log(1 + t/τ_d),   τ_d = 7 d
  • Die Fast-Copy liefert lebendigen Direktzugriff, der innerhalb von Stunden verblasst.
  • Die Medium-Copy überlebt zwischen Sessions mit standard­exponentiellem Decay.
  • Die Deep-Copy wächst logarithmisch — sie kodiert die komprimierte Essenz und wird mit der Zeit stärker.

Die effektive Stärke ist S(t) = max(S_fast, S_med, S_deep). Das produziert eine charakteristische Dominance-Transition: Fast-Copy gewinnt in den ersten Stunden, Medium-Copy übernimmt bei 1–3 Tagen, Deep-Copy ab 7+ Tagen. Bei 30 Tagen retainiert die zusammengesetzte Stärke 91,2 %, während pure Ebbinghaus-Baselines praktisch null erreichen.

Das matched die Systems-Consolidation-Theorie aus der Neuroscience: Detail-reiche Episoden verblassen, kompri­mierte Gist-Repräsentationen überleben.

4. PriorityMap — vierdimensional, mit Amygdala-Fastpath

Memory ohne Priorisierung wird in Rauschen begraben. Die PriorityMap berechnet einen vier-dimensionalen Score:

P = w_s · s + w_e · |v| + w_r · r + w_g · g

mit Saliency s, emotionaler Valenz v, Reward-Relevanz r, Goal-Alignment g und Default-Gewichten (w_s, w_e, w_r, w_g) = (0,2; 0,25; 0,25; 0,3).

Der entscheidende Mechanismus ist der Amygdala-Fastpath: Bei emotionaler Intensität |v| > 0,6 garantiert das System P ≥ 0,5, unabhängig von den anderen Dimensionen. Das spiegelt die McGaugh-2004-Erkenntnis wider, dass emotional aufgeladene Erinnerungen eine bevorzugte Konsolidierung erhalten — auch wenn sie nicht task-relevant sind.

Die Gewichte werden dynamisch durch den Neuromodulator-Status angepasst: DA verstärkt Saliency, NE verstärkt Emotion, ACh verstärkt Reward, 5-HT verstärkt Goal-Alignment. So können dieselben PriorityMap-Scores in unter­schied­lichen Zuständen verschiedene Werte produzieren, was biologisches Verhalten reproduziert.

Auf einem synthetischen Benchmark mit 50 Items und Ground-Truth-Importance erreicht die PriorityMap NDCG@10 = 0,997 (vs. 0,680 chronologisch, +46,6 %).

5. StabilityProtector — Schutz für reife Erinnerungen

Reconsolidation ist mächtig — aber sie öffnet auch ein Angriffsfenster. Was, wenn jemand mit einer einzigen falschen Aussage eine seit Jahren etablierte Erinnerung überschreiben könnte?

Der StabilityProtector verhindert das durch einen Lock-Score L und einen Rigidity-Faktor ρ:

L      = 0,3 · log(1+a) / log(11)
       + 0,3 · c
       + 0,2 · min(d/365, 1)
       + 0,2 · is_core
ρ      = 1 + 0,1 · log(1+d)
update  PE  0,5 + 0,3 · L · ρ

mit Access-Count a, Konfidenz c, Alter in Tagen d, Indikator is_core für Core Memory. Reife Erinnerungen (a groß, c groß, d groß, oder Core-Status) bekommen hohe Lock-Scores und Rigidity-Faktoren — eine Update-Forderung mit niedriger PE wird abgewiesen. Genuine neue Information mit hoher PE durchdringt den Schutz.

Das ist analog zu NogoA-Rezeptor-Signaling und HDAC3-epigenetischer Regulation: das biologische Gehirn schützt sich aktiv gegen casual rewriting reifer Schaltkreise.

6. MetacognitiveMonitor — wenn das System merkt, dass es schief liegt

Die letzte Komponente überwacht das System selbst. Sie tracked drei Bias-Typen:

  • Confirmation Bias — asymmetrische Akzeptanz von positiver vs. negativer Evidenz
  • Recency Bias — Übergewichtung kürzlicher Erinnerungen
  • Retrieval-Asymmetrie — bestimmte Domänen werden systematisch unter-retrieved

Sie öffnet Novelty-Windows (10 Minuten) nach Hoch-PE-Events (> 0,7), in denen Encoding temporär verstärkt wird — und sie generiert Calibration-Alerts, wenn systematische Biases einen 30-Tage-Schwellwert überschreiten. Effizienz-Tracking über das gleitende 30-Tage-Fenster produziert Badges, die in der UI sichtbar werden — der Feedback-Loop schließt.

In den Paper-Experimenten erreicht die Confirmation-Bias-Detektion Precision = 0,832 und Recall = 0,975 über 50 synthetische Szenarien pro Seed. Urgency-Keyword-Detection produziert 0 False Negatives auf deutschen und englischen Test-Phrasen.

Wie die sechs zusammenarbeiten

Die PMA ist kein Stack von sechs unabhängigen Modulen. Es ist ein gekoppeltes System:

  • Die NeuromodulatorEngine liefert die globalen Tonus-Werte, die alle anderen lesen.
  • Die ReconsolidationEngine verlässt sich auf die NE-/5-HT-Werte, um PE_eff zu modulieren.
  • Die PriorityMap liest dieselben Tonus-Werte, um Gewichte dynamisch zu adjustieren.
  • Der StabilityProtector wird strenger, wenn 5-HT hoch ist (mehr Geduld) und großzügiger, wenn NE hoch ist (mehr Lernbereitschaft).
  • Der MetacognitiveMonitor beobachtet alle vier und löst Novelty-Windows aus, die Lernrate und Encoding-Stärke kurzzeitig boosten.
  • TripleCopyMemory ist die einzige Komponente, die unabhängig läuft — sie ist die Substrat-Schicht, auf der die anderen fünf operieren.

Im Paper-Ablation-Test zeigt sich diese Kopplung empirisch: Unter moderaten Bedingungen (decay = 0,15/Tag, 45 Tage) sind alle 6 PMA-Komponenten kooperativ-redundant (ΔQ ≤ 0,1 % wenn einzeln entfernt). Aber wenn man alle sechs gleichzeitig entfernt — also "NeurIPS-only" gegen "Full" testet — bricht das System um −67,5 % ein. Die PMA ist eine Resilience-Backbone, kein optionales Add-on.

Unter Stress (60 Tage, decay = 0,25/Tag) wird die Kopplung sichtbar: NeuromodulatorEngine und TripleCopyMemory werden individuell kritisch (−83,0 % und −93,7 % wenn entfernt), während iMAD, MetacogMonitor und PriorityMap ihren Beitrag in Ranking-Präzision statt Retention-Rate liefern.

Was das praktisch heißt

Die 9 fundamentalen Algorithmen waren Architektur: was speichern, wo, wie strukturieren. Die 6 PMA-Komponenten sind Dynamik: wann labil werden, welcher Update-Modus, wann schützen, wann boost geben.

Beides ist nötig. Eines ohne das andere kollabiert.

Mehr lesen