আমালের অ্যাডাপটিভ কারিকুলামের পিছনে হাফ-লাইফ রিগ্রেশন এলগরিদম
4 মিনিটের পাঠMohammad Shaker

আমালের অ্যাডাপটিভ কারিকুলামের পিছনে হাফ-লাইফ রিগ্রেশন এলগরিদম

আমালের স্মৃতিভিত্তিক হাফ-লাইফ রিগ্রেশন ড্রাইভ করে শেখার সঠিক সময় নির্ধারণ, যাতে প্রতিটি শিশুর জন্য ব্যক্তিগতকৃত অ্যাডাপটিভ কারিকুলাম তৈরি হয়।

স্পেসড রিপিটিশন

দ্রুত উত্তর

Half-Life Regression (HLR) হল Amal-এর অভিযোজিত পাঠক্রমের পেছনের অ্যালগরিদম। এটি স্মৃতিকে ঘাতাঙ্কীয় ক্ষয় হিসাবে মডেল করে, যেখানে সূত্রটি হল p(recall) = 2^(-Δ/h), যেখানে h প্রতিটি শেখার আইটেমের হাফ-লাইফ, এবং যখন স্মৃতিশক্তির সম্ভাবনা প্রায় ৮০% এ নেমে আসে তখন পুনরাবৃত্তির সময় নির্ধারণ করে।

ব্যক্তিত্বের অনুপাত: নতুন বনাম পুনরাবৃত্তি বনাম চ্যালেঞ্জ

ব্যক্তিত্বনতুন বিষয়বস্তুপুনরাবৃত্তি + চ্যালেঞ্জ
শুরুকারী৬০% নতুন৩০% পুনরাবৃত্তি, ১০% চ্যালেঞ্জ
মধ্যবর্তী৪০% নতুন৪০% পুনরাবৃত্তি, ২০% চ্যালেঞ্জ
উন্নত২০% নতুন৪০% পুনরাবৃত্তি, ৪০% চ্যালেঞ্জ

HLR সূত্র কীভাবে কাজ করে

  • স্মৃতি ঘাতাঙ্কীয়ভাবে ক্ষয় হয়: h ঘণ্টার পর স্মৃতিশক্তির সম্ভাবনা ৫০% এ নেমে আসে
  • প্রতিটি সঠিক পুনরাবৃত্তি ঐ নির্দিষ্ট আইটেমের হাফ-লাইফ দ্বিগুণ করে দেয় সেই শিশুর জন্য
  • Amal ৮০% স্মৃতিশক্তির সম্ভাবনাকে দক্ষতার সেরা সীমা হিসেবে লক্ষ্য করে এবং তখন পুনরাবৃত্তির সময় নির্ধারণ করে

ব্যক্তিত্বভিত্তিক কঠিনতা মিলানো

  • সিস্টেম স্বয়ংক্রিয়ভাবে কার্যকলাপ এবং সঠিকতার প্রবণতার উপর ভিত্তি করে তিনটি ব্যক্তিত্ব শনাক্ত করে
  • কোনো ম্যানুয়াল নির্বাচন প্রয়োজন হয় না — দক্ষতা উন্নতির সাথে ব্যক্তিত্ব পরিবর্তন স্বতঃস্ফূর্তভাবে ঘটে
  • দক্ষতার স্কোর ০.৬৫ এর উপরে হলে Beginner থেকে Intermediate-এ স্থানান্তর হয়; ০.৭৮ এর উপরে হলে Advanced-এ চলে যায়

আমালের অ্যাডাপটিভ কারিকুলাম হাফ-লাইফ রিগ্রেশন (HLR) দ্বারা চালিত, এটি একটি স্মৃতি মডেল যেখানে প্রতিটি শেখার আইটেমের একটি "হাফ-লাইফ" থাকে — অর্থাৎ, যে সময়ে পুনঃস্মরণের সম্ভাবনা ৫০% এ পৌঁছে যায়। সূত্রটি হল p(recall) = 2(-Δ/h), যা সময়সূচী নির্ধারণ করে: শিশুর ভুলে যাওয়ার আগেই পর্যালোচনার জন্য আইটেমগুলো সামনে আসে, আর যার ওপর দক্ষতা অর্জিত হয় সেগুলো কিছুটা সময় পর পর দেওয়া হয়। পারসোনা-ভিত্তিক কঠিনতা মিলানোর (Persona-based difficulty matching) সঙ্গে মিলিয়ে প্রতিটি শিশুর জন্য প্রকৃতপক্ষে ব্যক্তিগতকৃত শিখন পথ তৈরী হয়।

স্মৃতির পেছনের গণিত

ঘাতীয় অবক্ষয় মডেল

স্মৃতি সরলরেখায় ক্ষয়প্রাপ্ত হয় না — এটি একটি ঘাতীয় রেখা অনুসরণ করে। একটি ধারণা পর্যালোচনা করার পর:

  • পর্যালোচনার ঠিক পরে: ১০০% পুনঃস্মরণের সম্ভাবনা
  • h ঘন্টা পরে: ৫০% পুনঃস্মরণের সম্ভাবনা (হাফ-লাইফের সংজ্ঞা অনুযায়ী)
  • 2h ঘন্টা পরে: ২৫% পুনঃস্মরণের সম্ভাবনা
  • 4h ঘন্টা পরে: ৬.২৫% পুনঃস্মরণের সম্ভাবনা

আমাল যখন পুনর্বিবেচনার জন্য সময় নির্ধারণ করে, তখন পুনঃস্মরণের সম্ভাবনা প্রায় ৮০% এর কাছাকাছি থাকে—এটি দক্ষতার সেরা স্তর।

কাজের উদাহরণ: "كتب" (লিখেছিল) শব্দ শেখা
ইভেন্টসময়হাফ-লাইফপুনঃস্মরণের সম্ভাবনাপরবর্তী পর্যালোচনা
প্রাথমিক শেখাদিন ১, ২পিএম৪ ঘন্টা১০০%প্রায় ৬পিএম
সঠিক পর্যালোচনাদিন ১, ৬পিএম৮ ঘন্টা৯৮%দিন ২, ১০এম
সঠিক পর্যালোচনাদিন ২, ১০এম১৬ ঘন্টা৯২%দিন ৩, ২পিএম
সঠিক পর্যালোচনাদিন ৩, ২পিএম৩২ ঘন্টা৮৭%দিন ৫, ১০পিএম
সঠিক পর্যালোচনাদিন ৫, ১০পিএম৬৪ ঘন্টা৮১%দিন ৮, ৮পিএম
স্থিতিশীল স্মৃতিদিন ৮, ৮পিএম১২৮ ঘন্টা৭৯%সপ্তাহ ২

৫ বার সঠিক পর্যালোচনার পর "كتب" শব্দটি প্রায় প্রতিদিন ৫ দিনে পুনরাবৃত্তি হয়। শিশু মোটামুটি ৩০ মিনিট এই শব্দের ওপর সময় ব্যয় করেছে এবং এখন এটি স্মরণে রাখতে সক্ষম।

পারসোনা-ভিত্তিক কঠিনতা মিলানো

পরিসংখ্যানগত ব্যবহারের ভিত্তিতে সিস্টেম স্বয়ংক্রিয়ভাবে তিনটি পারসোনা শনাক্ত করে:

শুরুਆতি পারসোনা
  • অংশ: ৬০% নতুন কনটেন্ট | ৩০% পর্যালোচনা | ১০% চ্যালেঞ্জ
  • উদাহরণ সেশন: ৩ টি নতুন অক্ষর, ২ টি অক্ষর পর্যালোচনা, ১ টি সহজ শব্দ
  • অটো পরিবর্তন: যখন mastery_score > 0.65
মধ্যবর্তী পারসোনা
  • অংশ: ৪০% নতুন কনটেন্ট | ৪০% পর্যালোচনা | ২০% চ্যালেঞ্জ
  • উদাহরণ সেশন: ২ টি নতুন শব্দ, ২ টি শব্দ পর্যালোচনা, ১ টি মাঝারি চ্যালেঞ্জ
  • অটো পরিবর্তন: যখন mastery_score > 0.78
উন্নত পারসোনা
  • অংশ: ২০% নতুন কনটেন্ট | ৪০% পর্যালোচনা | ৪০% চ্যালেঞ্জ
  • উদাহরণ সেশন: ১ টি নতুন বাক্য, ২ টি পর্যালোচনা, ৩ টি চ্যালেঞ্জিং বোঝাপড়ার কাজ
  • মাস্টার শিক্ষার্থীদের জন্য টিকে থাকে

কোনো ম্যানুয়াল নির্বাচনের প্রয়োজন নেই — সিস্টেম আপনার সন্তানের দক্ষতার ভিত্তিতে শান্তভাবে খাপ খায়।

স্লট-ভিত্তিক কনটেন্ট মিশ্রণ (Content Duo)

প্রতি অ্যাডাপটিভ পাঠে তিনটি কনটেন্ট “স্লট” মিশ্রিত হয়:

[নিউ কনটেন্ট স্লট]  (যে আইটেম শিশুটি আগে দেখেনি)
    ↓
[পর্যালোচনা স্লট]  (স্পেসড রিপিটিশনের জন্য নির্ধারিত আইটেম)
    ↓
[চ্যালেঞ্জ স্লট]   (বর্তমান স্তরের সামান্য উপরে আইটেম)

একটি সেশনের মধ্যে অনুপাত গতিশীলভাবে পরিবর্তিত হয়:

  • যদি শিশু অসুস্থ থাকে: পর্যালোচনা স্লটের দিকে বেশি ঝুঁকে
  • যদি শিশু দক্ষ হয়: চ্যালেঞ্জ স্লটের দিকে বেশি ঝুঁকে
  • রিয়েল-টাইম পারসোনা মানিয়ে চলা এনগেজমেন্টকে সর্বোচ্চ রাখে

বাস্তবায়ন স্থাপত্য

ডাটাবেস মডেল (UserItemMemoryModel):
user_id: "user_123"
item_id: "letter_ba"
concept_strength: 0.87  # 0-1 স্কেল
half_life_hours: 32
exposures: 7
correct_count: 6
last_reviewed_at: 2026-03-28 18:45
next_review_due_at: 2026-03-30 20:45
মূল ফাংশন:
  • calculate_half_life(): প্রতিটি প্রচেষ্টার পর h সামঞ্জস্য করে
    • সঠিক উত্তর: h = h × 2 (স্মৃতি শক্তিশালী হয়)
    • ভুল উত্তর: h = h × 0.5 (স্মৃতি দুর্বল হয়)
    • এক্সপোজার সংখ্যা ধীরগতি হিসেবে কাজ করে (এক্সপোজার বেশি হলে স্মৃতি বেশি স্থিতিশীল)
  • calculate_next_review_time(): কখন এই আইটেমটি পরবর্তী বার মনে করানো হবে?
    • টার্গেট পুনঃস্মরণের সম্ভাবনা: ৮০%
    • সূত্র থেকে Δ হিসাব: Δ = -h × log2(০.৮)
  • recall_probability(): বর্তমান ধারণাটির পুনঃস্মরণ কতটুকু?
    • আইটেমগুলোর অগ্রাধিকার নির্ধারণে ব্যবহৃত
    • কম সম্ভাবনার আইটেমগুলো দ্রুত শিডিউলে আসে

কেন এটি গুরুত্বপূর্ণ

HLR ছাড়া:

  • Duolingo: সকল ব্যবহারকারীর জন্য একই পাঠ, কোন আইটেম-ভিত্তিক ট্র্যাকিং নেই
  • ফ্ল্যাশকার্ড অ্যাপ: ব্যবহারকারী নিজেই পর্যালোচনার সময় বেছে নেন
  • ফলাফল: জানা আইটেমে অপ্রয়োজনীয় সময় অপচয়, ভুলে যাওয়া আইটেম মাথায় থাকে না

আমালের HLR নিয়ে:

  • প্রতিটি ধারণার আলাদাভাবে ট্র্যাকিং
  • পর্যালোচনা সময় বৈজ্ঞানিকভাবে অনুকূলিত
  • শিশুরা শুধু দরকারে সময় ব্যয় করে
  • স্থির-সময়সূচী অ্যাপের তুলনায় ৪০% দ্রুত শেখা

প্রায়শই জিজ্ঞাসিত প্রশ্নাবলী

প্রশ্ন: আমার শিশু যদি কোনো একটি আইটেম বারবার ভুল করে?
উত্তর: হাফ-লাইফ ছোট হয়ে যায় (h = h × 0.5), ফলে আগেই সেটি পুনরায় সামনে আসে। সিস্টেম ধৈর্যশীল — প্রয়োজনে কয়েক ঘন্টা অন্তর আইটেমগুলো আবার পর্যালোচনার জন্য আনে। শেষ পর্যন্ত সঠিক পর্যালোচনার ফলে হাফ-লাইফ আবার বাড়ে।

প্রশ্ন: আমি কি সন্তানের পারসোনা লেভেল ম্যানুয়ালি ঠিক করতে পারি?
উত্তর: সিস্টেম স্বয়ংক্রিয়ভাবে পারসোনা শনাক্ত করে। আপনি পেরেন্ট সেটিংসে ওভাররাইড করতে পারেন যদি মনে করেন আপনার শিশু অন্য লেভেলে, তবে অ্যাপ আবার নিজে থেকে তথ্যের ভিত্তিতে সঠিক অবস্থানে নিয়ে আসবে।

প্রশ্ন: একটি আইটেম "পুরোপুরি শিখে ফেলা" বলতে কত সময় লাগে?
উত্তর: সাধারণত ৫-৮ বার সঠিক পর্যালোচনা লাগবে ২-৩ সপ্তাহে, প্রাথমিক হাফ-লাইফ এবং অনুশীলনের ফ্রিকোয়েন্সির ওপর নির্ভর করে। খুব সহজ আইটেম (প্রাথমিক হাফ-লাইফ বেশি) কয়েক দিনে স্থিতিশীল হয়। কঠিন আইটেম মাল্টিমাস সময় নিতে পারে।

শেয়ারTwitterLinkedInWhatsApp

প্রায়শই জিজ্ঞাসিত প্রশ্ন

শিক্ষামূলক অ্যাপে Half-Life Regression কী?

Half-Life Regression হল একটি স্মৃতি মডেল যা প্রতিটি শেখার আইটেমকে একটি হাফ-লাইফ দেয়—স্মৃতিশক্তির সম্ভাবনা ৫০% এ নেমে আসার সময়। অ্যালগরিদমটি এটি ব্যবহার করে এমন সময়ে পুনরাবৃত্তি নির্ধারণ করে যা সবচেয়ে বেশি প্রভাব ফেলে, নির্দিষ্ট দৈনিক সময়সূচী অনুসরণ না করে।

HLR কীভাবে Amal-এর পাঠক্রমকে অভিযোজিত করে?

কারণ প্রতিটি আরবি অক্ষর এবং শব্দের স্মৃতির অবস্থা প্রতিটি শিশুর জন্য আলাদা, পাঠক্রম স্বয়ংক্রিয়ভাবে প্রতিটি শিশুর পরবর্তী শেখার বিষয় পরিবর্তন করে। যে শিশু কয়েকদিন আগে ب আয়ত্ত করেছে, সে তার উপর সময় নষ্ট করবে না, আর যিনি সংগ্রাম করছেন, তার জন্য তা পুনরাবৃত্তির জন্য সামনে আনা হবে।

Amal-এর তিনটি শেখার ব্যক্তিত্ব কী কী?

Amal শিশুদের কার্যকলাপের ধরণ এবং সঠিকতার প্রবণতার ভিত্তিতে Beginner, Intermediate, বা Advanced হিসেবে শ্রেণীবদ্ধ করে। প্রতিটি ব্যক্তিত্ব নতুন বিষয়বস্তু, পুনরাবৃত্তি এবং চ্যালেঞ্জের ভিন্ন মিশ্রণ পায়, এবং পরিবর্তনগুলো স্বয়ংক্রিয়ভাবে ঘটে, কোনো অভিভাবকের সেটিংস ছাড়াই।

সম্পর্কিত নিবন্ধ