Regressão de Meia-Vida: Algoritmo da Aula Adaptativa do Amal
5 min de leituraMohammad Shaker

Regressão de Meia-Vida: Algoritmo da Aula Adaptativa do Amal

Conheça a Regresão de Meia-Vida, algoritmo que otimiza o currículo adaptativo do Amal para aprendizado eficiente de árabe.

Repetição Espaçada

Resposta rápida

Half-Life Regression (HLR) é o algoritmo por trás do currículo adaptativo do Amal. Ele modela a memória como um decaimento exponencial usando a fórmula p(recordação) = 2^(-Δ/h), onde h é a meia-vida de cada item de aprendizado, e agenda revisões quando a probabilidade de recordação cai para aproximadamente 80%.

Proporção de Personas: Novo vs Revisão vs Desafio

PersonaConteúdo novoRevisão + Desafio
Iniciante60% novo30% revisão, 10% desafio
Intermediário40% novo40% revisão, 20% desafio
Avançado20% novo40% revisão, 40% desafio

Como a Fórmula HLR Funciona

  • A memória decai exponencialmente: após h horas a probabilidade de recordação cai para 50%
  • Cada revisão correta dobra a meia-vida daquele item específico para aquela criança
  • O Amal mira 80% de probabilidade de recordação como ponto ideal de eficiência antes de agendar uma revisão

Correspondência de Dificuldade Baseada em Persona

  • O sistema detecta automaticamente três personas com base em tendências de atividade e precisão
  • Não é necessária seleção manual — as transições de persona acontecem silenciosamente conforme a proficiência melhora
  • Pontuações de proficiência acima de 0,65 acionam a mudança de Iniciante para Intermediário; acima de 0,78 para Avançado

Regressão de Meia-Vida: O Algoritmo por Trás do Currículo Adaptativo do Amal

O currículo adaptativo do Amal é alimentado pela Regressão de Meia-Vida (HLR), um modelo de memória em que cada item de aprendizado tem uma "meia-vida" — o tempo para a probabilidade de recordação cair para 50%. A fórmula p(recordação) = 2(-Δ/h) orienta o agendamento: itens que precisam ser revisados são apresentados antes que a criança esqueça, enquanto itens dominados são espaçados por períodos maiores. Combinado ao ajuste de dificuldade baseado em persona, isso cria um caminho de aprendizado verdadeiramente personalizado para cada criança.

A Matemática Por Trás da Memória

Modelo de Decaimento Exponencial

A memória não decai linearmente — ela segue uma curva exponencial. Após revisar um conceito:

  • Logo depois da revisão: 100% de probabilidade de recordação
  • Após h horas: 50% de probabilidade (definição da meia-vida)
  • Após 2h horas: 25% de probabilidade
  • Após 4h horas: 6,25% de probabilidade

O Amal agenda a próxima revisão quando a probabilidade de recordação atinge aproximadamente 80% — o ponto ideal de eficiência.

Exemplo Prático: Aprendendo a palavra "كتب" (escreveu)

EventoHoraMeia-VidaProb. RecordaçãoPróxima Revisão
Aprendizado inicialDia 1, 14h4h100%~18h
Revisão corretaDia 1, 18h8h98%Dia 2, 10h
Revisão corretaDia 2, 10h16h92%Dia 3, 14h
Revisão corretaDia 3, 14h32h87%Dia 5, 22h
Revisão corretaDia 5, 22h64h81%Dia 8, 20h
Memória estabilizadaDia 8, 20h128h79%Semana 2

Após 5 revisões corretas, a palavra "كتب" é revisada em intervalos de cerca de 5 dias. A criança gastou aproximadamente 30 minutos no total nesta palavra e agora consegue recordá-la com confiança.

Combinação de Dificuldade Baseada em Persona

O sistema detecta automaticamente três personas com base nos padrões de atividades:

Persona Iniciante
- Proporção: 60% conteúdo novo | 30% revisão | 10% desafio
- Exemplo de sessão: 3 letras novas, 2 revisões de letra, 1 palavra fácil
- Transição automática com mastery_score > 0,65

Persona Intermediária
- Proporção: 40% conteúdo novo | 40% revisão | 20% desafio
- Exemplo de sessão: 2 palavras novas, 2 revisões de palavra, 1 desafio médio
- Transição automática com mastery_score > 0,78

Persona Avançada
- Proporção: 20% conteúdo novo | 40% revisão | 40% desafio
- Exemplo de sessão: 1 frase nova, 2 revisões, 3 tarefas de compreensão desafiadoras
- Mantida para aprendizes avançados

Não é necessário selecionar manualmente — o sistema se adapta silenciosamente conforme seu filho demonstra habilidades.

Mistura de Conteúdo por Slots (Duo de Conteúdo)

Cada lição adaptativa combina três tipos de conteúdo em "slots":

[Slot de Conteúdo Novo]  (item que a criança ainda não viu)
    ↓
[Slot de Revisão]       (item devido para repetição espaçada)
    ↓
[Slot de Desafio]       (item um pouco acima do nível atual)

A proporção muda dinamicamente durante a sessão:
- Se a criança está com dificuldades: aumenta os slots de revisão
- Se a criança está progredindo bem: aumenta os slots de desafio
- A adaptação em tempo real da persona mantém o engajamento ótimo

Arquitetura de Implementação

Modelo de Banco de Dados (UserItemMemoryModel):

user_id: "user_123"
item_id: "letter_ba"
concept_strength: 0.87  # escala de 0 a 1
half_life_hours: 32
exposures: 7
correct_count: 6
last_reviewed_at: 2026-03-28 18:45
next_review_due_at: 2026-03-30 20:45

Funções Principais:

  • calculate_half_life(): Ajusta h após cada tentativa
    - Resposta correta: h = h × 2 (memória fortalece)
    - Resposta incorreta: h = h × 0,5 (memória enfraquece)
    - O número de exposições atua como amortecedor (mais exposições = mais estabilidade)
  • calculate_next_review_time(): Calcula quando o item deve ser revisado novamente
    - Probabilidade alvo para recordação: 80%
    - Resolve Δ na fórmula: Δ = -h × log₂(0,8)
  • recall_probability(): Indica a retenção atual para o conceito
    - Usada para priorizar quais itens devem ser apresentados
    - Itens com menor probabilidade são programados para revisão mais cedo

Por Que Isso Importa

Sem o HLR:
- Duolingo: mesma lição para todos usuários, sem rastreamento por item
- Apps de flashcards: usuário escolhe manualmente quando revisar
- Resultado: tempo desperdiçado em itens já dominados e esquecimento de outros

Com HLR no Amal:
- Cada conceito é rastreado individualmente
- O momento da revisão é cientificamente otimizado
- As crianças gastam tempo somente onde é necessário
- Aprendizagem 40% mais rápida que apps com cronogramas fixos

Perguntas Frequentes

P: E se meu filho errar um item repetidamente?
R: A meia-vida diminui (h = h × 0,5), então o item reaparece mais cedo. O sistema é paciente — traz os itens para revisão a cada poucas horas se necessário. Com revisões corretas repetidas, a meia-vida volta a crescer.

P: Posso ajustar manualmente o nível de persona do meu filho?
R: O sistema detecta automaticamente as personas. Você pode alterar nas configurações dos pais se acreditar que seu filho está em um nível diferente, mas o app corrigirá automaticamente caso os dados de atividade discordem.

P: Quanto tempo leva para um item ser "totalmente aprendido"?
R: Normalmente 5-8 revisões corretas em 2-3 semanas, dependendo da meia-vida inicial e da frequência das práticas. Itens muito fáceis podem estabilizar em dias. Itens difíceis podem levar meses.

Perguntas frequentes

O que é Half-Life Regression em aplicativos educacionais?

Half-Life Regression é um modelo de memória que atribui a cada item de aprendizado uma meia-vida — o tempo para a probabilidade de recordação cair para 50%. O algoritmo usa isso para agendar revisões no momento em que terão maior impacto, em vez de um cronograma fixo diário.

Como o HLR torna o currículo do Amal adaptativo?

Porque cada letra e palavra árabe tem seu próprio estado de memória para cada criança, o currículo muda automaticamente o que cada criança vê a seguir. Uma criança que dominou ب dias atrás não perderá tempo com ele, enquanto uma criança com dificuldade terá esse item apresentado para revisão.

Quais são as três personas de aprendizado do Amal?

O Amal classifica as crianças como Iniciante, Intermediário ou Avançado com base em seus padrões de atividade e tendências de precisão. Cada persona recebe uma mistura diferente de conteúdo novo, revisão e desafio, e as transições acontecem automaticamente sem configuração pelos pais.

Artigos Relacionados