Amal: Algorithm mit Halbwertszeit für Kinder
4 Min. LesezeitMohammad Shaker

Amal: Algorithm mit Halbwertszeit für Kinder

Amals Lehrplan nutzt Halbwertszeit-Regression zur optimalen Lernplanung basierend auf Erinnerungswahrscheinlichkeit.

Spaced Repetition

Schnelle Antwort

Half-Life Regression (HLR) ist der Algorithmus hinter Amals adaptivem Lehrplan. Er modelliert das Gedächtnis als exponentiellen Zerfall mit der Formel p(recall) = 2^(-Δ/h), wobei h die Halbwertszeit jedes Lernelements ist, und plant Wiederholungen ein, wenn die Erinnerungswahrscheinlichkeit auf etwa 80 % sinkt.

Persona-Verhältnisse: Neu vs Wiederholung vs Herausforderung

PersonaNeuer InhaltWiederholung + Herausforderung
Anfänger60 % neu30 % Wiederholung, 10 % Herausforderung
Fortgeschrittene40 % neu40 % Wiederholung, 20 % Herausforderung
Experten20 % neu40 % Wiederholung, 40 % Herausforderung

Wie die HLR-Formel funktioniert

  • Das Gedächtnis nimmt exponentiell ab: Nach h Stunden sinkt die Erinnerungswahrscheinlichkeit auf 50 %
  • Jede korrekte Wiederholung verdoppelt die Halbwertszeit dieses spezifischen Elements für das jeweilige Kind
  • Amal zielt auf eine Erinnerungswahrscheinlichkeit von 80 % als optimalen Effizienzpunkt, bevor eine Wiederholung geplant wird

Schwierigkeitsanpassung basierend auf Persona

  • Das System erkennt automatisch drei Personas basierend auf Aktivitäts- und Genauigkeitstrends
  • Keine manuelle Auswahl erforderlich – Persona-Wechsel erfolgen stillschweigend mit zunehmender Beherrschung
  • Beherrschungswerte über 0,65 führen zum Wechsel von Anfänger zu Fortgeschritten; über 0,78 zum Wechsel zu Experten

Halbwertszeit-Regression: Der Algorithmus hinter Amals Adaptivem Lehrplan

Amals adaptiver Lehrplan wird durch die Halbwertszeit-Regression (HLR) angetrieben, ein Gedächtnismodell, bei dem jedes Lernobjekt eine "Halbwertszeit" hat — die Zeit, in der die Erinnerungswahrscheinlichkeit auf 50% sinkt. Die Formel p(recall) = 2^(-Δ/h) steuert die Planung: Items, die zur Überprüfung anstehen, werden präsentiert, bevor das Kind sie vergisst, während beherrschte Items weiter auseinanderliegen. In Kombination mit der an den Schwierigkeitsgrad angepassten Persona entsteht für jedes Kind ein wirklich personalisierter Lernpfad.

Die Mathematik hinter dem Gedächtnis

Exponentialverfall-Modell

Gedächtnis verblasst nicht linear — es folgt einer Exponentialkurve. Nach der Überprüfung eines Begriffs:

  • Gleich nach der Überprüfung: 100% Erinnerungswahrscheinlichkeit
  • Nach h Stunden: 50% Erinnerungswahrscheinlichkeit (gemäß der Definition von Halbwertszeit)
  • Nach 2h Stunden: 25% Erinnerungswahrscheinlichkeit
  • Nach 4h Stunden: 6,25% Erinnerungswahrscheinlichkeit

Amal plant die nächste Überprüfung, wenn die Erinnerungswahrscheinlichkeit etwa 80% erreicht — der effiziente Sweet Spot.

Beispiel: Lernen des Wortes "كتب" (schrieb)

EreignisZeitHalbwertszeitErinnerungswahrsch.Nächste Überprüfung
Anfängliches LernenTag 1, 14 Uhr4h100%ca. 18 Uhr
Korrekte ÜberprüfungTag 1, 18 Uhr8h98%Tag 2, 10 Uhr
Korrekte ÜberprüfungTag 2, 10 Uhr16h92%Tag 3, 14 Uhr
Korrekte ÜberprüfungTag 3, 14 Uhr32h87%Tag 5, 22 Uhr
Korrekte ÜberprüfungTag 5, 22 Uhr64h81%Tag 8, 20 Uhr
Stabiles GedächtnisTag 8, 20 Uhr128h79%Woche 2

Nach 5 korrekten Überprüfungen wird "كتب" ungefähr alle 5 Tage überprüft. Das Kind hat insgesamt etwa 30 Minuten mit diesem Wort verbracht und kann es nun zuverlässig abrufen.

Persona-basierte Schwierigkeitsanpassung

Das System erkennt automatisch drei Personas basierend auf Aktivitätsmustern:

Anfänger-Persona

  • Verhältnis: 60% neuer Inhalt | 30% Überprüfung | 10% Herausforderung
  • Beispiel-Session: 3 neue Buchstaben, 2 Buchstabenüberprüfungen, 1 einfaches Wort
  • Automatischer Übergang, wenn mastery_score > 0,65

Mittlere Persona

  • Verhältnis: 40% neuer Inhalt | 40% Überprüfung | 20% Herausforderung
  • Beispiel-Session: 2 neue Wörter, 2 Wortüberprüfungen, 1 mittlere Herausforderung
  • Automatischer Übergang, wenn mastery_score > 0,78

Fortgeschrittene Persona

  • Verhältnis: 20% neuer Inhalt | 40% Überprüfung | 40% Herausforderung
  • Beispiel-Session: 1 neuer Satz, 2 Überprüfungen, 3 anspruchsvolle Verständnisaufgaben
  • Für fortgeschrittene Lerner aufrechterhalten

Keine manuelle Auswahl erforderlich — das System passt sich leise an, während Ihr Kind sein Können zeigt.

Slot-basierte Inhaltsmischung (Content Duo)

Jede adaptive Lektion mischt drei Inhalts-"Slots":

[Neuer Inhalts-Slot] (Element, das das Kind noch nicht gesehen hat)
    ↓
[Überprüfungs-Slot] (Element, das für Wiederholung fällig ist)
    ↓
[Herausforderungs-Slot] (Element leicht über dem aktuellen Niveau)

Das Verhältnis verschiebt sich dynamisch während einer Sitzung:

  • Wenn das Kind Schwierigkeiten hat: mehr Überprüfungsslots
  • Wenn das Kind hervorragend ist: mehr Herausforderungsslots
  • Echtzeit-Persona-Anpassung hält das Engagement optimal

Umsetzungsarchitektur

Datenbankmodell (`UserItemMemoryModel`):

user_id: "user_123"
item_id: "letter_ba"
concept_strength: 0.87  # 0-1 Skala
half_life_hours: 32
exposures: 7
correct_count: 6
last_reviewed_at: 2026-03-28 18:45
next_review_due_at: 2026-03-30 20:45

Kernfunktionen:

  • `calculate_half_life()`: Passt h nach jedem Versuch an
    • Korrekte Antwort: h = h × 2 (Gedächtnis wird gestärkt)
    • Falsche Antwort: h = h × 0,5 (Gedächtnis wird geschwächt)
    • Belichtungsanzahl wirkt als Dämpfer (mehr Belichtungen = stabiler)
  • `calculate_next_review_time()`: Wann soll dieses Item als nächstes angezeigt werden?
    • Ziel-Erinnerungswahrscheinlichkeit: 80%
    • Löse für Δ in der Formel: Δ = -h × log₂(0,8)
  • `recall_probability()`: Was ist die aktuelle Behaltensquote für dieses Konzept?
    • Verwendet zur Priorisierung, welche Items angezeigt werden sollen
    • Items mit niedrigerer Wahrscheinlichkeit werden früher eingeplant

Warum das wichtig ist

Ohne HLR:

  • Duolingo: gleiche Lektion für alle Benutzer, keine per-Item-Verfolgung
  • Flashcard-Apps: Benutzer wählen manuell, wann sie überprüfen möchten
  • Ergebnis: verschwendete Zeit mit bekannten Items, vergessene Items

Mit HLR in Amal:

  • Jedes Konzept wird individuell verfolgt
  • Überprüfungszeitpunkt ist wissenschaftlich optimiert
  • Kinder verbringen nur Zeit dort, wo es wichtig ist
  • 40% schnellere Lernergebnisse als bei Apps mit fixem Zeitplan

FAQ

F: Was passiert, wenn mein Kind ein Item wiederholt falsch beantwortet?
A: Die Halbwertszeit verkürzt sich (h = h × 0,5), damit es früher wieder auftaucht. Das System ist geduldig — es bringt Items zur Überprüfung in Abständen von wenigen Stunden zurück, wenn nötig. Mit wiederholten richtigen Überprüfungen wächst die Halbwertszeit wieder.

F: Kann ich das Persona-Level meines Kindes manuell einstellen?
A: Das System erkennt Personas automatisch. Sie können in den Elterneinstellungen überschreiben, wenn Sie glauben, dass Ihr Kind auf einem anderen Niveau ist, aber die App wird auto-korrigiert, wenn Aktivitätsdaten nicht übereinstimmen.

F: Wie lange dauert es, bis ein Item vollständig gelernt ist?
A: Typischerweise 5-8 korrekte Überprüfungen über 2-3 Wochen, abhängig von der anfänglichen Halbwertszeit und Häufigkeit der Praxis. Sehr einfache Items (hohe anfängliche Halbwertszeit) können sich in Tagen vollständig stabilisieren. Schwierige Items können Monate dauern.

FAQ

Was ist Half-Life Regression in Bildungs-Apps?

Half-Life Regression ist ein Gedächtnismodell, das jedem Lernelement eine Halbwertszeit zuweist – die Zeit, bis die Erinnerungswahrscheinlichkeit auf 50 % sinkt. Der Algorithmus nutzt dies, um Wiederholungen genau dann zu planen, wenn sie am wirkungsvollsten sind, statt nach einem festen Tagesplan.

Wie macht HLR Amals Lehrplan adaptiv?

Da jeder arabische Buchstabe und jedes Wort für jedes Kind einen eigenen Gedächtniszustand hat, passt sich der Lehrplan automatisch an, was jedes Kind als Nächstes sieht. Ein Kind, das ب vor Tagen gemeistert hat, wird keine Zeit damit verschwenden, während ein anderes Kind, das Schwierigkeiten hat, diese Wiederholung erhält.

Was sind Amals drei Lern-Personas?

Amal klassifiziert Kinder als Anfänger, Fortgeschrittene oder Experten basierend auf ihren Aktivitätsmustern und Genauigkeitstrends. Jede Persona erhält eine unterschiedliche Mischung aus neuem Inhalt, Wiederholung und Herausforderung, und die Übergänge erfolgen automatisch ohne Konfiguration durch die Eltern.

Verwandte Artikel