Yarım Ömür Regresyonu: Amal'ın Uyarlanabilir Müfredatının Arkasındaki Algoritma
Amal'ın uyarlanabilir müfredatı, her öğrenme öğesinin "yarı ömrü" olan Half-Life Regression (HLR) adlı bir bellek modeli tarafından desteklenmektedir — bu, geri çağırma olasılığının %50'ye düşmesi için geçen süredir. p(recall) = 2-Δ/h formülü programlamayı yönlendirir: İncelenecek öğeler çocuk unutmadan önce gösterilirken, öğrenilmiş öğelerin tekrarları daha uzak aralıklarla yapılır. Kişilik temelli zorluk eşleştirme ile birleştiğinde her çocuğa gerçek anlamda kişiselleştirilmiş bir öğrenme yolu yaratılır.
Belleğin Ardındaki Matematik
Üssel Azalma Modeli
Bellek doğrusal olarak azalmaz — üssel bir eğri izler. Bir kavramın tekrarından sonra:
- Tekrar hemen sonrası: %100 geri çağırma olasılığı
- h saat sonra: %50 geri çağırma olasılığı (yarı ömrün tanımı gereği)
- 2h saat sonra: %25 geri çağırma olasılığı
- 4h saat sonra: %6,25 geri çağırma olasılığı
Amal, geri çağırma olasılığı yaklaşık %80'e düştüğünde bir sonraki tekrar zamanını planlar — verimlilik için optimal nokta.
Örnek Uygulama: "كتب" (yazdı) kelimesini öğrenmek
| Olay | Zaman | Yarı Ömür | Geri Çağırma Olasılığı | Sonraki Tekrar |
|---|---|---|---|---|
| İlk öğrenme | 1. gün, 14:00 | 4 saat | %100 | ~18:00 |
| Doğru tekrar | 1. gün, 18:00 | 8 saat | %98 | 2. gün, 10:00 |
| Doğru tekrar | 2. gün, 10:00 | 16 saat | %92 | 3. gün, 14:00 |
| Doğru tekrar | 3. gün, 14:00 | 32 saat | %87 | 5. gün, 22:00 |
| Doğru tekrar | 5. gün, 22:00 | 64 saat | %81 | 8. gün, 20:00 |
| Kararlı hafıza | 8. gün, 20:00 | 128 saat | %79 | 2. hafta |
Beş doğru tekrarın ardından "كتب" kelimesi yaklaşık her 5 günde bir gözden geçirilir. Çocuk bu kelimeye toplamda yaklaşık 30 dakika harcamış ve kelimeyi güvenilir şekilde hatırlayabilir duruma gelmiştir.
Kişilik Temelli Zorluk Eşleştirme
Sistem aktivite örüntülerine göre üç farklı kişilik profilini otomatik algılar:
Başlangıç Seviyesi Persona
- Oran: %60 yeni içerik | %30 tekrar | %10 zorluk
- Örnek oturum: 3 yeni harf, 2 harf tekrarı, 1 kolay kelime
- Otomatik geçiş: mastery_score > 0.65 olduğunda
Orta Seviye Persona
- Oran: %40 yeni içerik | %40 tekrar | %20 zorluk
- Örnek oturum: 2 yeni kelime, 2 kelime tekrarı, 1 orta zorluk
- Otomatik geçiş: mastery_score > 0.78 olduğunda
İleri Seviye Persona
- Oran: %20 yeni içerik | %40 tekrar | %40 zorluk
- Örnek oturum: 1 yeni cümle, 2 tekrar, 3 zorlayıcı anlama görevi
- Usta öğrenciler için sürekli bu düzeyde kalır
Manuel seçim gerekmez — sistem çocuk yeteneğini gösterdikçe sessizce adapte olur.
Slot Tabanlı İçerik Karışımı (İçerik Düosu)
Her uyarlanabilir derste üç içerik "slotu" karıştırılır:
[Yeni İçerik Slotu] (Çocuğun görmediği öğe)
↓
[Tekrar Slotu] (Aralıklı tekrar için gerekli öğe)
↓
[Zorluk Slotu] (Mevcut seviyenin biraz üzerindeki öğe)
Oranlar oturum sırasında dinamik olarak değişir:
- Çocuk zorlanıyorsa: daha fazla tekrar slotuna kayar
- Çocuk başarılıysa: daha fazla zorluk slotuna kayar
- Gerçek zamanlı persona adaptasyonu ilgiyi optimal düzeyde tutar
Uygulama Mimarisi
Veritabanı Modeli (UserItemMemoryModel):
user_id: "user_123"
item_id: "letter_ba"
concept_strength: 0.87 # 0-1 arası ölçek
half_life_hours: 32
exposures: 7
correct_count: 6
last_reviewed_at: 2026-03-28 18:45
next_review_due_at: 2026-03-30 20:45
Temel Fonksiyonlar:
calculate_half_life(): Her denemeden sonra h'yi ayarlar- Doğru cevap: h = h × 2 (hafıza güçlenir)
- Yanlış cevap: h = h × 0.5 (hafıza zayıflar)
- Maruz kalma sayısı dengeleyici etkide bulunur (daha fazla maruz kalma = daha stabil)
calculate_next_review_time(): Sonraki tekrar ne zaman olmalı?- Hedef geri çağırma olasılığı: %80
- Formülden Δ hesaplanır: Δ = -h × log₂(0.8)
recall_probability(): Bu kavramın güncel hatırlanma oranı nedir?- Öğelerin önceliklendirilmesinde kullanılır
- Düşük olasılıklı öğeler daha erken programlanır
Önemi Nedir?
HLR olmadan:
- Duolingo: Tüm kullanıcılar için aynı ders, öğe bazında takip yok
- Flashcard uygulamaları: kullanıcılar tekrar zamanını kendileri seçer
- Sonuç: Bilinen öğelere gereksiz zaman, unutulanlara yetersiz zaman ayrılır
Amal'da HLR ile:
- Her kavram ayrı ayrı takip edilir
- Tekrar zamanlaması bilimsel olarak optimize edilir
- Çocuklar sadece gereken yerlerde zaman harcar
- Sabit programlı uygulamalardan %40 daha hızlı öğrenme
SSS
S: Çocuğum bir öğeyi defalarca yanlış yaparsa ne olur?
C: Yarı ömrü kısalır (h = h × 0.5), böylece öğe daha erken tekrar gösterilir. Sistem sabırlıdır — gerekirse birkaç saat arayla geri getirir. Doğru tekrarlar arttıkça yarı ömür tekrar uzar.
S: Çocuğumun kişilik seviyesini manuel ayarlayabilir miyim?
C: Sistem otomatik olarak kişilikleri algılar. Ebeveyn ayarlarından geçersiz kılabilirsiniz ancak aktivite verileri çelişirse uygulama otomatik düzeltme yapar.
S: Bir öğe ne kadar sürede "tam olarak öğrenilmiş" sayılır?
C: Genellikle 5-8 doğru tekrar ve 2-3 hafta civarı, başlangıç yarı ömrüne ve uygulama sıklığına bağlıdır. Çok kolay öğeler günler içinde stabil hale gelirken, zor öğeler aylara yayılabilir.

