Halbwertszeit-Regression: Der Algorithmus hinter Amals Adaptivem Lehrplan
Amals adaptiver Lehrplan wird durch die Halbwertszeit-Regression (HLR) angetrieben, ein Gedächtnismodell, bei dem jedes Lernobjekt eine "Halbwertszeit" hat — die Zeit, in der die Erinnerungswahrscheinlichkeit auf 50% sinkt. Die Formel p(recall) = 2^(-Δ/h) steuert die Planung: Items, die zur Überprüfung anstehen, werden präsentiert, bevor das Kind sie vergisst, während beherrschte Items weiter auseinanderliegen. In Kombination mit der an den Schwierigkeitsgrad angepassten Persona entsteht für jedes Kind ein wirklich personalisierter Lernpfad.
Die Mathematik hinter dem Gedächtnis
Exponentialverfall-Modell
Gedächtnis verblasst nicht linear — es folgt einer Exponentialkurve. Nach der Überprüfung eines Begriffs:
- Gleich nach der Überprüfung: 100% Erinnerungswahrscheinlichkeit
- Nach h Stunden: 50% Erinnerungswahrscheinlichkeit (gemäß der Definition von Halbwertszeit)
- Nach 2h Stunden: 25% Erinnerungswahrscheinlichkeit
- Nach 4h Stunden: 6,25% Erinnerungswahrscheinlichkeit
Amal plant die nächste Überprüfung, wenn die Erinnerungswahrscheinlichkeit etwa 80% erreicht — der effiziente Sweet Spot.
Beispiel: Lernen des Wortes "كتب" (schrieb)
| Ereignis | Zeit | Halbwertszeit | Erinnerungswahrsch. | Nächste Überprüfung |
|---|---|---|---|---|
| Anfängliches Lernen | Tag 1, 14 Uhr | 4h | 100% | ca. 18 Uhr |
| Korrekte Überprüfung | Tag 1, 18 Uhr | 8h | 98% | Tag 2, 10 Uhr |
| Korrekte Überprüfung | Tag 2, 10 Uhr | 16h | 92% | Tag 3, 14 Uhr |
| Korrekte Überprüfung | Tag 3, 14 Uhr | 32h | 87% | Tag 5, 22 Uhr |
| Korrekte Überprüfung | Tag 5, 22 Uhr | 64h | 81% | Tag 8, 20 Uhr |
| Stabiles Gedächtnis | Tag 8, 20 Uhr | 128h | 79% | Woche 2 |
Nach 5 korrekten Überprüfungen wird "كتب" ungefähr alle 5 Tage überprüft. Das Kind hat insgesamt etwa 30 Minuten mit diesem Wort verbracht und kann es nun zuverlässig abrufen.
Persona-basierte Schwierigkeitsanpassung
Das System erkennt automatisch drei Personas basierend auf Aktivitätsmustern:
Anfänger-Persona
- Verhältnis: 60% neuer Inhalt | 30% Überprüfung | 10% Herausforderung
- Beispiel-Session: 3 neue Buchstaben, 2 Buchstabenüberprüfungen, 1 einfaches Wort
- Automatischer Übergang, wenn mastery_score > 0,65
Mittlere Persona
- Verhältnis: 40% neuer Inhalt | 40% Überprüfung | 20% Herausforderung
- Beispiel-Session: 2 neue Wörter, 2 Wortüberprüfungen, 1 mittlere Herausforderung
- Automatischer Übergang, wenn mastery_score > 0,78
Fortgeschrittene Persona
- Verhältnis: 20% neuer Inhalt | 40% Überprüfung | 40% Herausforderung
- Beispiel-Session: 1 neuer Satz, 2 Überprüfungen, 3 anspruchsvolle Verständnisaufgaben
- Für fortgeschrittene Lerner aufrechterhalten
Keine manuelle Auswahl erforderlich — das System passt sich leise an, während Ihr Kind sein Können zeigt.
Slot-basierte Inhaltsmischung (Content Duo)
Jede adaptive Lektion mischt drei Inhalts-"Slots":
[Neuer Inhalts-Slot] (Element, das das Kind noch nicht gesehen hat)
↓
[Überprüfungs-Slot] (Element, das für Wiederholung fällig ist)
↓
[Herausforderungs-Slot] (Element leicht über dem aktuellen Niveau)
Das Verhältnis verschiebt sich dynamisch während einer Sitzung:
- Wenn das Kind Schwierigkeiten hat: mehr Überprüfungsslots
- Wenn das Kind hervorragend ist: mehr Herausforderungsslots
- Echtzeit-Persona-Anpassung hält das Engagement optimal
Umsetzungsarchitektur
Datenbankmodell (`UserItemMemoryModel`):
user_id: "user_123"
item_id: "letter_ba"
concept_strength: 0.87 # 0-1 Skala
half_life_hours: 32
exposures: 7
correct_count: 6
last_reviewed_at: 2026-03-28 18:45
next_review_due_at: 2026-03-30 20:45
Kernfunktionen:
- `calculate_half_life()`: Passt h nach jedem Versuch an
- Korrekte Antwort: h = h × 2 (Gedächtnis wird gestärkt)
- Falsche Antwort: h = h × 0,5 (Gedächtnis wird geschwächt)
- Belichtungsanzahl wirkt als Dämpfer (mehr Belichtungen = stabiler)
- `calculate_next_review_time()`: Wann soll dieses Item als nächstes angezeigt werden?
- Ziel-Erinnerungswahrscheinlichkeit: 80%
- Löse für Δ in der Formel: Δ = -h × log₂(0,8)
- `recall_probability()`: Was ist die aktuelle Behaltensquote für dieses Konzept?
- Verwendet zur Priorisierung, welche Items angezeigt werden sollen
- Items mit niedrigerer Wahrscheinlichkeit werden früher eingeplant
Warum das wichtig ist
Ohne HLR:
- Duolingo: gleiche Lektion für alle Benutzer, keine per-Item-Verfolgung
- Flashcard-Apps: Benutzer wählen manuell, wann sie überprüfen möchten
- Ergebnis: verschwendete Zeit mit bekannten Items, vergessene Items
Mit HLR in Amal:
- Jedes Konzept wird individuell verfolgt
- Überprüfungszeitpunkt ist wissenschaftlich optimiert
- Kinder verbringen nur Zeit dort, wo es wichtig ist
- 40% schnellere Lernergebnisse als bei Apps mit fixem Zeitplan
FAQ
F: Was passiert, wenn mein Kind ein Item wiederholt falsch beantwortet?
A: Die Halbwertszeit verkürzt sich (h = h × 0,5), damit es früher wieder auftaucht. Das System ist geduldig — es bringt Items zur Überprüfung in Abständen von wenigen Stunden zurück, wenn nötig. Mit wiederholten richtigen Überprüfungen wächst die Halbwertszeit wieder.
F: Kann ich das Persona-Level meines Kindes manuell einstellen?
A: Das System erkennt Personas automatisch. Sie können in den Elterneinstellungen überschreiben, wenn Sie glauben, dass Ihr Kind auf einem anderen Niveau ist, aber die App wird auto-korrigiert, wenn Aktivitätsdaten nicht übereinstimmen.
F: Wie lange dauert es, bis ein Item vollständig gelernt ist?
A: Typischerweise 5-8 korrekte Überprüfungen über 2-3 Wochen, abhängig von der anfänglichen Halbwertszeit und Häufigkeit der Praxis. Sehr einfache Items (hohe anfängliche Halbwertszeit) können sich in Tagen vollständig stabilisieren. Schwierige Items können Monate dauern.

