Half-Life Regression: L'algoritmo dietro il curriculum adattivo di Amal
4 min di letturaMohammad Shaker

Half-Life Regression: L'algoritmo dietro il curriculum adattivo di Amal

Scopri come Amal utilizza la Half-Life Regression per personalizzare e ottimizzare l'apprendimento dell'arabo nei bambini.

Ripetizione Spaziata

Risposta rapida

La Half-Life Regression (HLR) è l'algoritmo alla base del curriculum adattivo di Amal. Modella la memoria come un decadimento esponenziale usando la formula p(richiamo) = 2^(-Δ/h), dove h è la durata di dimezzamento di ogni elemento di apprendimento, e programma le revisioni quando la probabilità di richiamo scende a circa l'80%.

Rapporti Persona: Nuovo vs Revisione vs Sfida

PersonaContenuto nuovoRevisione + Sfida
Principiante60% nuovo30% revisione, 10% sfida
Intermedio40% nuovo40% revisione, 20% sfida
Avanzato20% nuovo40% revisione, 40% sfida

Come Funziona la Formula HLR

  • La memoria decade esponenzialmente: dopo h ore la probabilità di richiamo scende al 50%
  • Ogni revisione corretta raddoppia la durata di dimezzamento di quell'elemento specifico per quel bambino
  • Amal mira a una probabilità di richiamo dell'80% come punto di efficienza ideale prima di programmare una revisione

Adattamento della Difficoltà Basato sulla Persona

  • Il sistema rileva automaticamente tre persone basate sulle tendenze di attività e accuratezza
  • Non è necessaria alcuna selezione manuale — le transizioni tra persone avvengono silenziosamente con il miglioramento della padronanza
  • Punteggi di padronanza sopra 0,65 attivano il passaggio da Principiante a Intermedio; sopra 0,78 si passa ad Avanzato

Il curriculum adattivo di Amal è basato sulla Half-Life Regression (HLR), un modello di memoria in cui ogni elemento di apprendimento ha una "emivita" — il tempo necessario affinché la probabilità di richiamo scenda al 50%. La formula p(richiamo) = 2^(-Δ/h) guida la programmazione: gli elementi da rivedere vengono proposti prima che il bambino dimentichi, mentre quelli già acquisiti sono distanziati nel tempo. Combinato con l'adattamento della difficoltà basato sulla persona, questo crea un percorso di apprendimento veramente personalizzato per ogni bambino.

La matematica dietro la memoria

Modello di decadimento esponenziale

La memoria non svanisce in modo lineare, ma segue una curva esponenziale. Dopo la revisione di un concetto:

  • Immediatamente dopo la revisione: probabilità di richiamo 100%
  • Dopo h ore: probabilità di richiamo 50% (per definizione di emivita)
  • Dopo 2h ore: probabilità di richiamo 25%
  • Dopo 4h ore: probabilità di richiamo 6,25%
Amal programma la prossima revisione quando la probabilità di richiamo scende intorno all’80% — il punto di massima efficienza.

Esempio pratico: apprendimento della parola "كتب" (scritto)

EventoOraEmivitaProb. RichiamoProssima Revisione
Apprendimento inizialeGiorno 1, 14:004h100%~18:00
Revisione correttaGiorno 1, 18:008h98%Giorno 2, 10:00
Revisione correttaGiorno 2, 10:0016h92%Giorno 3, 14:00
Revisione correttaGiorno 3, 14:0032h87%Giorno 5, 22:00
Revisione correttaGiorno 5, 22:0064h81%Giorno 8, 20:00
Memoria stabileGiorno 8, 20:00128h79%Settimana 2

Dopo 5 revisioni corrette, "كتب" viene ripassata circa ogni 5 giorni. Il bambino ha dedicato circa 30 minuti totali a questa parola e ora è in grado di richiamarla in modo affidabile.

Adattamento della difficoltà basato sulla persona

Il sistema identifica automaticamente tre profili basati sulle abitudini di attività:

Persona Principiante

  • Rapporto: 60% contenuti nuovi | 30% revisione | 10% sfida
  • Esempio sessione: 3 lettere nuove, 2 revisioni lettere, 1 parola facile
  • Transizione automatica con mastery_score > 0.65

Persona Intermedia

  • Rapporto: 40% contenuti nuovi | 40% revisione | 20% sfida
  • Esempio sessione: 2 parole nuove, 2 revisioni parole, 1 sfida media
  • Transizione automatica con mastery_score > 0.78

Persona Avanzata

  • Rapporto: 20% contenuti nuovi | 40% revisione | 40% sfida
  • Esempio sessione: 1 frase nuova, 2 revisioni, 3 esercizi di comprensione impegnativi
  • Per studenti esperti prolungati

Nessuna selezione manuale richiesta — il sistema si adatta automaticamente in base alle capacità del bambino.

Mix di contenuti a slot (Content Duo)

Ogni lezione adattiva miscela tre "slot" di contenuti:

[Slot Contenuto Nuovo]  (Elementi non ancora visti dal bambino)
    ↓
[Slot Revisione]       (Elementi da rivedere con ripetizione dilazionata)
    ↓
[Slot Sfida]          (Elementi leggermente sopra il livello attuale)

La proporzione si modifica dinamicamente durante la sessione:

  • Se il bambino fatica: più slot di revisione
  • Se il bambino eccelle: più slot di sfida
  • L’adattamento in tempo reale della persona mantiene l’engagement ottimale

Architettura di implementazione

Modello dati del database (UserItemMemoryModel):

user_id: "user_123"
item_id: "letter_ba"
concept_strength: 0.87  # scala 0-1
half_life_hours: 32
exposures: 7
correct_count: 6
last_reviewed_at: 2026-03-28 18:45
next_review_due_at: 2026-03-30 20:45

Funzioni principali:

  • calculate_half_life(): regola h dopo ogni tentativo
    • Risposta corretta: h = h × 2 (memoria si rafforza)
    • Risposta sbagliata: h = h × 0.5 (memoria si indebolisce)
    • Il numero di esposizioni agisce da smorzatore (più esposizioni = memoria più stabile)
  • calculate_next_review_time(): quando deve comparire di nuovo l’elemento?
    • Probabilità target di richiamo: 80%
    • Calcolo di Δ dalla formula: Δ = -h × log₂(0.8)
  • recall_probability(): qual è la ritenzione attuale del concetto?
    • Usato per dare priorità agli elementi da proporre
    • Elementi con probabilità più bassa vengono programmati prima

Perché è importante

Senxza HLR:

  • Duolingo: stessa lezione per tutti, nessun tracciamento per singolo elemento
  • App di flashcard: revisione manuale da parte dell’utente
  • Risultato: tempo perso su elementi conosciuti o dimenticati
Con HLR in Amal:
  • Ogni concetto è tracciato singolarmente
  • Il timing delle revisioni è ottimizzato scientificamente
  • I bambini dedicano tempo solo dove serve
  • Apprendimento il 40% più veloce rispetto ad app a programma fisso

FAQ

D: Cosa succede se mio figlio sbaglia ripetutamente un elemento?
A: L’emivita si riduce (h = h × 0.5), così l’elemento ricompare prima. Il sistema è paziente e ripropone l’elemento diverse volte se necessario. Con revisioni corrette ripetute, l’emivita aumenta di nuovo.

D: Posso regolare manualmente il livello di persona di mio figlio?
A: Il sistema rileva automaticamente le persone. Puoi forzare una scelta nelle impostazioni genitore, ma l’app correggerà automaticamente se i dati di attività non corrispondono.

D: Quanto tempo serve per apprendere completamente un elemento?
A: Di solito 5-8 revisioni corrette in 2-3 settimane, dipendendo dall’emivita iniziale e frequenza di pratica. Elementi molto facili (emivita iniziale alta) si stabilizzano in pochi giorni, mentre quelli difficili possono richiedere mesi.

FAQ

Cos'è la Half-Life Regression nelle app educative?

La Half-Life Regression è un modello di memoria che assegna a ogni elemento di apprendimento una durata di dimezzamento — il tempo necessario affinché la probabilità di richiamo scenda al 50%. L'algoritmo usa questo per programmare le revisioni nel momento in cui avranno il massimo impatto, invece che su un calendario fisso giornaliero.

Come rende HLR adattivo il curriculum di Amal?

Poiché ogni lettera e parola araba ha il proprio stato di memoria per ogni bambino, il curriculum sposta automaticamente ciò che ogni bambino vede dopo. Un bambino che ha già padroneggiato ب giorni fa non perderà tempo su di esso, mentre un bambino in difficoltà lo vedrà riproposto per la revisione.

Quali sono le tre persone di apprendimento di Amal?

Amal classifica i bambini come Principiante, Intermedio o Avanzato basandosi sui loro modelli di attività e tendenze di accuratezza. Ogni persona riceve una diversa combinazione di contenuti nuovi, revisione e sfida, e le transizioni avvengono automaticamente senza alcuna configurazione da parte dei genitori.

Articoli correlati