সূচিপত্র
1. Introduction & Overview
এই গবেষণাপত্রটি দ্বিতীয় ভাষা অর্জন মডেলিং (SLAM) বিষয়ে ২০১৮ সালের ডুয়োলিঙ্গো শেয়ার্ড টাস্ক-এর জন্য লেখকের প্রস্তাবিত সমাধান উপস্থাপন করে। মূল চ্যালেঞ্জ ছিল শব্দ স্তরে জ্ঞান ট্রেসিং: একজন শিক্ষার্থীর হাজার হাজার বাক্যের উপর ঐতিহাসিক প্রচেষ্টার তথ্য দেওয়া থাকায়, যেখানে শব্দভাণ্ডার, রূপতাত্ত্বিক এবং বাক্য গঠন সংক্রান্ত বৈশিষ্ট্য চিহ্নিত করা আছে, সেখানে একটি নতুন বাক্যের শব্দগুলি সে সঠিকভাবে লিখতে পারবে কিনা তা ভবিষ্যদ্বাণী করা।
প্রস্তাবিত সমাধানটি ব্যবহার করে Deep Factorization Machines (DeepFM), একটি হাইব্রিড মডেল যা একটি ওয়াইড কম্পোনেন্ট (একটি ফ্যাক্টরাইজেশন মেশিন) জোড়া বৈশিষ্ট্য মিথস্ক্রিয়া শেখার জন্য এবং একটি গভীর কম্পোনেন্ট (একটি গভীর নিউরাল নেটওয়ার্ক) উচ্চ-ক্রম বৈশিষ্ট্য মিথস্ক্রিয়া শেখার জন্য একত্রিত করে। মডেলটি অর্জন করেছে একটি AUC 0.815, একটি লজিস্টিক রিগ্রেশন বেসলাইনকে (AUC 0.774) ছাড়িয়ে গেলেও শীর্ষস্থানীয় মডেলের (AUC 0.861) সমতুল্য হতে পারেনি। এই কাজটি DeepFM কে একটি নমনীয় কাঠামো হিসেবে উপস্থাপন করে যা Item Response Theory (IRT) এর মতো ঐতিহ্যবাহী শিক্ষামূলক মডেলগুলিকে অন্তর্ভুক্ত করতে পারে।
2. Related Work & Theoretical Background
গবেষণাপত্রটি তার অবদানকে শিক্ষার্থী মডেলিং এবং জ্ঞান ট্রেসিং-এর বিস্তৃত প্রেক্ষাপটে স্থাপন করে।
2.1. Item Response Theory (IRT)
IRT হল একটি ক্লাসিক সাইকোমেট্রিক কাঠামো যা একটি শিক্ষার্থীর অন্তর্নিহিত দক্ষতা ($\theta$) এবং একটি আইটেমের প্যারামিটার (যেমন, কঠিনতা $b$) এর ফাংশন হিসাবে একটি সঠিক প্রতিক্রিয়ার সম্ভাব্যতা মডেল করে। একটি সাধারণ মডেল হল 2-প্যারামিটার লজিস্টিক (2PL) মডেল: $P(\text{correct} | \theta) = \sigma(a(\theta - b))$, যেখানে $a$ হল বৈষম্য এবং $\sigma$ হল লজিস্টিক ফাংশন। গবেষণাপত্রটি উল্লেখ করে যে IRT একটি শক্তিশালী, ব্যাখ্যাযোগ্য বেসলাইন গঠন করে কিন্তু সাধারণত সমৃদ্ধ পার্শ্ব তথ্য অন্তর্ভুক্ত করে না।
2.2. Knowledge Tracing Evolution
Knowledge tracing focuses on modeling the evolution of a student's knowledge over time.
- Bayesian Knowledge Tracing (BKT): Models the learner as a Hidden Markov Model with latent knowledge states.
- Deep Knowledge Tracing (DKT): শিক্ষার্থীর মিথস্ক্রিয়ার সময়গত ক্রম মডেল করতে RNNs, যেমন LSTMs ব্যবহার করে। Wilson et al. (2016) এর কাজ উল্লেখ করে গবেষণাপত্রটি দেখায় যে IRT বৈকল্পিকগুলি প্রাথমিক DKT মডেলগুলিকে ছাড়িয়ে যেতে পারে, যা শক্তিশালী, বৈশিষ্ট্য-সচেতন আর্কিটেকচারের প্রয়োজনীয়তার উপর আলোকপাত করে।
2.3. Wide & Deep Learning
কাগজটি নির্মাণ করে Wide & Deep Learning প্যারাডাইম যা চেং এট আল. (২০১৬) গুগলে প্রবর্তন করেন। "ওয়াইড" লিনিয়ার মডেল ঘন ঘন বৈশিষ্ট্যের সহ-ঘটনা মুখস্থ করে, অন্যদিকে "ডিপ" নিউরাল নেটওয়ার্ক অদেখা বৈশিষ্ট্য সমন্বয়ের জন্য সাধারণীকরণ করে। গুও এট আল. (২০১৭) ওয়াইড লিনিয়ার মডেলটিকে একটি Factorization Machine (FM), যা ফ্যাক্টরাইজড প্যারামিটারগুলির মাধ্যমে বৈশিষ্ট্যগুলির মধ্যে সমস্ত জোড়া মিথস্ক্রিয়া দক্ষতার সাথে মডেল করে, যার ফলে DeepFM আর্কিটেকচার তৈরি হয়।
3. DeepFM for Knowledge Tracing
এই গবেষণাপত্রটি জ্ঞান ট্রেসিং ডোমেনের জন্য DeepFM মডেলটি অভিযোজিত করে।
3.1. Model Architecture & Formulation
DeepFM দুটি সমান্তরাল উপাদান নিয়ে গঠিত যাদের আউটপুট একত্রিত হয়:
- FM Component: রৈখিক এবং জোড়া বৈশিষ্ট্য মিথস্ক্রিয়া মডেল করে। একটি ইনপুট বৈশিষ্ট্য ভেক্টর $\mathbf{x}$ এর জন্য, FM আউটপুট হল: $y_{FM} = w_0 + \sum_{i=1}^n w_i x_i + \sum_{i=1}^n \sum_{j=i+1}^n \langle \mathbf{v}_i, \mathbf{v}_j \rangle x_i x_j$, যেখানে $\mathbf{v}_i$ হল লুকানো ফ্যাক্টর ভেক্টর।
- ডিপ কম্পোনেন্ট: একটি স্ট্যান্ডার্ড ফিড-ফরওয়ার্ড নিউরাল নেটওয়ার্ক যা ঘন বৈশিষ্ট্য এম্বেডিংগুলিকে ইনপুট হিসেবে নেয় এবং জটিল, উচ্চ-ক্রমের প্যাটার্ন শেখে।
3.2. Feature Encoding & Embeddings
একটি মূল অবদান হল বৈশিষ্ট্যগুলির প্রক্রিয়াকরণ। মডেলটি বিবেচনা করে C ক্যাটাগরি বৈশিষ্ট্যের (যেমন, user_id, item_id, skill, country, time)। একটি শ্রেণীর মধ্যে প্রতিটি বিচ্ছিন্ন মান (যেমন, user=123, country='FR') বা একটি অবিচ্ছিন্ন মান নিজেই একটি সত্তানামে পরিচিত। N সম্ভাব্য প্রতিটি সত্তাকে একটি শেখার যোগ্য এমবেডিং ভেক্টর বরাদ্দ করা হয়। একটি উদাহরণ (যেমন, একজন শিক্ষার্থী একটি শব্দের উত্তর দেওয়া) আকার N-এর একটি স্পার্স ভেক্টর $\mathbf{x}$ হিসাবে এনকোড করা হয়, যেখানে উপাদানগুলি 1 (উপস্থিত বিচ্ছিন্ন সত্তার জন্য), প্রকৃত মান (অবিচ্ছিন্ন বৈশিষ্ট্যের জন্য), বা 0 এ সেট করা হয়।
4. Application to the SLAM Task
4.1. Data Preparation
Duolingo SLAM কার্যের জন্য, বৈশিষ্ট্যগুলির মধ্যে ব্যবহারকারীর আইডি, শব্দভাণ্ডার আইটেম (শব্দ), এর সংশ্লিষ্ট ভাষাগত বৈশিষ্ট্য (শব্দের শ্রেণী, রূপতত্ত্ব), বাক্যের প্রসঙ্গ এবং সময়গত তথ্য অন্তর্ভুক্ত ছিল। এগুলো DeepFM-এর প্রয়োজনীয় সত্তা-ভিত্তিক স্পার্স ফরম্যাটে রূপান্তরিত করা হয়েছিল। এই এনকোডিং মডেলটিকে যেকোনো জোড়া সত্তার মধ্যে মিথস্ক্রিয়া শিখতে দেয়, যেমন (user=Alice, word="ser") এবং (word="ser", tense=past)।
4.2. পরীক্ষামূলক সেটআপ
মডেলটিকে একটি নির্দিষ্ট শব্দ লেখার ক্ষেত্রে একজন শিক্ষার্থীর বাইনারি ফলাফল (সঠিক/ভুল) ভবিষ্যদ্বাণী করতে প্রশিক্ষণ দেওয়া হয়েছিল। AUC (ROC কার্ভের অধীনস্থ এলাকা) প্রাথমিক মূল্যায়ন মেট্রিক হিসেবে ব্যবহৃত হয়েছিল, যা শিক্ষামূলক পরিবেশে সাধারণ অসম তথ্য সহ বাইনারি শ্রেণীবিভাগ কাজের জন্য মানদণ্ড।
5. Results & Performance Analysis
DeepFM মডেলটি একটি পরীক্ষায় পৌঁছেছে AUC 0.815এটি পূর্বের তুলনায় একটি উল্লেখযোগ্য উন্নতি নির্দেশ করে লজিস্টিক রিগ্রেশন বেসলাইন (AUC 0.774), যা বৈশিষ্ট্য মিথস্ক্রিয়া মডেলিংয়ের মূল্য প্রদর্শন করে। তবে, এটি শীর্ষ স্কোর 0.861-এ পৌঁছায়নি. গবেষণাপত্রটি পরামর্শ দেয় যে এটি "আইটেম রেসপন্স থিওরি মডেলগুলির উপর নির্মাণের জন্য আকর্ষণীয় কৌশল প্রকাশ করে," বোঝায় যে যদিও DeepFM একটি শক্তিশালী, বৈশিষ্ট্যসমৃদ্ধ কাঠামো প্রদান করে, তবে শীর্ষ মডেলটি যে সূক্ষ্ম শিক্ষামূলক তত্ত্ব বা অনুক্রমিক মডেলিং দিকগুলি ক্যাপচার করতে পারে তা অন্তর্ভুক্ত করার সুযোগ রয়েছে।
পারফরম্যান্স সারাংশ (AUC)
- লজিস্টিক রিগ্রেশন বেসলাইন: 0.774
- DeepFM (This Work): 0.815
- শীর্ষ পারফর্মিং মডেল: 0.861
উচ্চতর AUC আরও ভাল ভবিষ্যদ্বাণীমূলক কর্মক্ষমতা নির্দেশ করে।
6. Critical Analysis & Expert Insights
মূল অন্তর্দৃষ্টি: এই গবেষণাপত্রটি কোনো যুগান্তকারী নতুন অ্যালগরিদম নিয়ে নয়, বরং একটি বিদ্যমান শিল্প-শক্তিসম্পন্ন সুপারিশ ব্যবস্থা মডেল (DeepFM) এর একটি বুদ্ধিমান, ব্যবহারিক প্রয়োগ একটি নতুন সমস্যার ক্ষেত্রে: সূক্ষ্ম, বৈশিষ্ট্য-সমৃদ্ধ জ্ঞান ট্রেসিং. লেখকের পদক্ষেপটি তাৎপর্যপূর্ণ—তারা শিক্ষার জন্য খাঁটি গভীর শিক্ষণ (যেমন প্রাথমিক DKT) সম্পর্কিত একাডেমিক হাইপ চক্র এড়িয়ে গিয়ে, জটিল ব্যবহারকারী-আইটেম-বৈশিষ্ট্য মিথস্ক্রিয়া ধারণের জন্য ই-কমার্সে প্রমাণিত একটি মডেলকে পুনরায় উদ্দেশ্যে ব্যবহার করেছেন। প্রকৃত অন্তর্দৃষ্টি হলো জ্ঞান ট্রেসিংকে কেবল একটি ক্রম ভবিষ্যদ্বাণীর সমস্যা হিসাবে নয়, বরং একটি উচ্চ-মাত্রিক, স্পার্স বৈশিষ্ট্য মিথস্ক্রিয়া সমস্যা হিসাবে উপস্থাপন করা, বিজ্ঞাপনে ক্লিক ভবিষ্যদ্বাণী করার মতোই।
Logical Flow & Strategic Positioning: যুক্তিটি আকর্ষণীয়। ১) ঐতিহ্যগত মডেলগুলি (IRT, BKT) ব্যাখ্যাযোগ্য কিন্তু পূর্ব-সংজ্ঞায়িত, নিম্ন-মাত্রিক ইন্টারঅ্যাকশনে সীমাবদ্ধ। ২) প্রাথমিক গভীর শিক্ষণ মডেলগুলি (DKT) ক্রম ধরে কিন্তু ডেটা-ক্ষুধার্ত এবং অস্বচ্ছ হতে পারে, উইলসন et al. দ্বারা উল্লিখিত হিসাবে কখনও কখনও সরল মডেলগুলির চেয়ে কম কার্যকর হয়। ৩) SLAM টাস্ক পার্শ্ব তথ্যের (ভাষাগত বৈশিষ্ট্য) একটি ভাণ্ডার সরবরাহ করে। ৪) অতএব, এর জন্য স্পষ্টভাবে ডিজাইন করা একটি মডেল ব্যবহার করুন: DeepFM, যা ফ্যাক্টরাইজড পেয়ারওয়াইজ ইন্টারঅ্যাকশনের স্মৃতি (FM অংশ, IRT-এর ছাত্র-আইটেম ইন্টারঅ্যাকশনের অনুরূপ) একটি DNN-এর সাধারণীকরণ শক্তির সাথে সংকরিত করে। কাগজটি চতুরতার সাথে দেখায় কীভাবে IRT এই কাঠামোর একটি বিশেষ, সরলীকৃত ক্ষেত্রে দেখা যেতে পারে, যার ফলে সাধারণতার উচ্চভূমি দাবি করা হয়।
Strengths & Flaws: প্রাথমিক শক্তি হল ব্যবহারিকতা ও বৈশিষ্ট্যের সদ্ব্যবহারDeepFM হল SLAM টাস্কের সমৃদ্ধ বৈশিষ্ট্য সেট ব্যবহারের জন্য একটি শক্তিশ্বাসী, রেডিমেড আর্কিটেকচার। ফলাফল থেকে প্রকাশিত তার ত্রুটি হল, সম্ভবত এটি সময়গত গতিবিদ্যা আরও ভালভাবে ধারণ করে এমন মডেলগুলির দ্বারা অতিক্রান্ত হয়েছিল শেখার অন্তর্নিহিত। একটি LSTM-ভিত্তিক মডেল বা একটি ট্রান্সফরমার আর্কিটেকচার (যেমন KT-তে পরে ব্যবহৃত SAKT বা AKT) সম্ভবত অনুক্রমিক ইতিহাসকে আরও কার্যকরভাবে একীভূত করতে পারত। পেপারের 0.815 AUC, যদিও বেসলাইনের উপর একটি দৃঢ় উন্নতি, বিজয়ীর সাথে 0.046 ব্যবধান রেখেছে—একটি ব্যবধান যা সম্ভবত সময়গত মাত্রায় বিশেষীকরণ না করার জন্য প্রদত্ত মূল্যকে প্রতিনিধিত্ব করে। Riiid! AI Challenge এবং পরবর্তী গবেষণাগুলি যেমন দেখায়, DeepFM-এর মতো বৈশিষ্ট্য-সচেতন আর্কিটেকচারগুলিকে পরিশীলিত অনুক্রমিক মডেলগুলির সাথে সমন্বয় করা হল বিজয়ী পথ।
কার্যকরী অন্তর্দৃষ্টি: অনুশীলনকারী এবং গবেষকদের জন্য: 1) বৈশিষ্ট্য প্রকৌশল উপেক্ষা করবেন না। DeepFM প্রয়োগের সাফল্য শিক্ষামূলক তথ্যে "সাইড ইনফরমেশন" (স্কিল ট্যাগ, কঠিনতা, প্রতিক্রিয়া সময়, ভাষাগত বৈশিষ্ট্য) প্রায়শই প্রধান তথ্য হয় তা তুলে ধরে। 2) সংলগ্ন ক্ষেত্রগুলির দিকে তাকান। Recommendation systems have spent a decade solving analogous problems of cold start, sparsity, and feature interaction; their toolkit (FM, DeepFM, DCN) is directly transferable. 3) ভবিষ্যৎ হাইব্রিড। পরবর্তী পদক্ষেপটি স্পষ্ট: DeepFM-এর বৈশিষ্ট্য-ইন্টারঅ্যাকশন ক্ষমতাকে একটি অত্যাধুনিক সিকোয়েন্সিয়াল মডিউলের সাথে সংহত করুন। একটি "টেম্পোরাল DeepFM"-এর কথা কল্পনা করুন যেখানে গভীর উপাদানটি একটি LSTM বা ট্রান্সফরমার যা এই ফ্যাক্টরাইজড ইন্টারঅ্যাকশন উপস্থাপনাগুলির একটি ক্রম প্রক্রিয়া করে। এটি বিজ্ঞাপনে "Deep Interest Evolution Network" (DIEN)-এর মতো কাজে দেখা গতিপথের সাথে সামঞ্জস্যপূর্ণ, যা ব্যবহারকারীর আগ্রহের বিবর্তনের ক্রমিক মডেলিংয়ের সাথে বৈশিষ্ট্য ইন্টারঅ্যাকশনকে একত্রিত করে—জ্ঞান বিবর্তনের জন্য একটি নিখুঁত সাদৃশ্য।
7. Technical Details & Mathematical Formulation
DeepFM-এর মূল বিষয়টি এর দ্বৈত-উপাদান স্থাপত্যে নিহিত। ইনপুটটিকে একটি স্পার্স ফিচার ভেক্টর $\mathbf{x} \in \mathbb{R}^n$ ধরা যাক।
Factorization Machine (FM) Component:
$y_{FM} = w_0 + \sum_{i=1}^{n} w_i x_i + \sum_{i=1}^{n} \sum_{j=i+1}^{n} \langle \mathbf{v}_i, \mathbf{v}_j \rangle x_i x_j$
এখানে, $w_0$ হল গ্লোবাল বায়াস, $w_i$ হল রৈখিক পদগুলোর ওজন, এবং $\mathbf{v}_i \in \mathbb{R}^k$ হল i-তম ফিচারের লেটেন্ট ফ্যাক্টর ভেক্টর। অভ্যন্তরীণ গুণফল $\langle \mathbf{v}_i, \mathbf{v}_j \rangle$ ফিচার $i$ এবং $j$ এর মধ্যকার মিথস্ক্রিয়া মডেল করে। এটি $O(kn)$ সময়ে দক্ষতার সাথে গণনা করা হয়।
Deep Component:
ধরা যাক $\mathbf{a}^{(0)} = [\mathbf{e}_1, \mathbf{e}_2, ..., \mathbf{e}_m]$ হল $\mathbf{x}$-এ উপস্থিত বৈশিষ্ট্যগুলোর এম্বেডিং ভেক্টরের সংযোজন, যেখানে $\mathbf{e}_i$ একটি এম্বেডিং ম্যাট্রিক্স থেকে অনুসন্ধান করা হয়। এটি সম্পূর্ণ সংযুক্ত স্তরগুলির একটি ধারাবাহিকতার মধ্য দিয়ে প্রেরণ করা হয়:
$\mathbf{a}^{(l+1)} = \sigma(\mathbf{W}^{(l)} \mathbf{a}^{(l)} + \mathbf{b}^{(l)})$
চূড়ান্ত স্তরের আউটপুট হল $y_{DNN}$।
চূড়ান্ত পূর্বাভাস:
$\hat{y} = \sigma(y_{FM} + y_{DNN})$
মডেলটিকে বাইনারি ক্রস-এনট্রপি লস কমানোর মাধ্যমে এন্ড-টু-এন্ড প্রশিক্ষণ দেওয়া হয়।
8. Analysis Framework & Conceptual Example
Scenario: Predicting if Student_42 will correctly translate the word "was" (lemma: "be", tense: past) in a Spanish exercise.
Feature Entities & Encoding:
user_id=42(Discrete)word_lemma="be"(Discrete)ব্যাকরণ_কাল="অতীত"(Discrete)
পূর্ববর্তী_সঠিকতা=0.85 (Continuous, normalized)
মডেল ব্যাখ্যা:
- The FM part এটি শিখতে পারে যে মিথস্ক্রিয়া ওজন $\langle \mathbf{v}_{user42}, \mathbf{v}_{tense:past} \rangle$ নেতিবাচক, যা ইঙ্গিত করে যে Student_42 সাধারণভাবে অতীত কাল নিয়ে সংগ্রাম করে।
- একই সাথে, এটি শিখতে পারে যে $\langle \mathbf{v}_{lemma:be}, \mathbf{v}_{tense:past} \rangle$ অত্যন্ত নেতিবাচক, যা নির্দেশ করে যে অতীত কালে "be" ক্রিয়াটি সকল শিক্ষার্থীর জন্য বিশেষভাবে কঠিন।
- The Deep অংশ একটি আরও জটিল, অ-রৈখিক প্যাটার্ন শিখতে পারে: যেমন, একটি উচ্চ
পূর্ববর্তী_সঠিকতাঅনিয়মিত ক্রিয়াপদের উপর অতীতের ভুলের একটি নির্দিষ্ট প্যাটার্নের সাথে মিলিত হয়ে চূড়ান্ত পূর্বাভাসকে নিয়ন্ত্রণ করে, যা জোড়া-ভিত্তিক মিথস্ক্রিয়ার বাইরে একটি উচ্চতর ক্রমের মিথস্ক্রিয়া ধারণ করে।
9. Future Applications & Research Directions
জ্ঞান ট্রেসিং-এ DeepFM-এর প্রয়োগ বেশ কয়েকটি সম্ভাবনাময় পথ উন্মুক্ত করে:
- ক্রমিক মডেলের সাথে সংহতকরণ: সবচেয়ে সরাসরি সম্প্রসারণ হলো সময়গত গতিবিদ্যা অন্তর্ভুক্ত করা। একটি DeepFM প্রতিটি সময় ধাপে বৈশিষ্ট্য মিথস্ক্রিয়া ইঞ্জিন হিসেবে কাজ করতে পারে, যার আউটপুট একটি RNN বা Transformer-এ সরবরাহ করা হয় সময়ের সাথে জ্ঞান অবস্থার বিবর্তন মডেল করার জন্য, বৈশিষ্ট্য-সচেতন এবং ক্রম-সচেতন মডেলের শক্তিগুলো মিশ্রিত করে।
- ব্যক্তিগতকৃত বিষয়বস্তু সুপারিশ: পূর্বাভাসের বাইরে, ব্যবহারকারী, দক্ষতা এবং বিষয়বস্তুর আইটেমগুলির জন্য শেখা এম্বেডিংগুলি অভিযোজিত শিক্ষার প্ল্যাটফর্মের মধ্যে পরিশীলিত সুপারিশ সিস্টেমকে শক্তি দিতে পারে, পরবর্তী সেরা অনুশীলন বা শিক্ষার সম্পদ প্রস্তাব করে।
- ক্রস-ডোমেন ট্রান্সফার লার্নিং: ভাষা শিক্ষার ডেটা থেকে শেখা সত্তা এম্বেডিং (যেমন, ব্যাকরণগত ধারণার জন্য এম্বেডিং) সম্ভাব্যভাবে গণিত বা বিজ্ঞান টিউটরিংয়ের মতো অন্যান্য ডোমেনে স্থানান্তর বা ফাইন-টিউন করা যেতে পারে, যেখানে ডেটা কম সেখানে মডেল উন্নয়ন ত্বরান্বিত করে।
- Explainability & Intervention: একটি খাঁটি ডিএনএন-এর তুলনায় আরও ব্যাখ্যাযোগ্য হলেও, DeepFM-এর ব্যাখ্যাগুলি এখনও গুপ্ত ফ্যাক্টরের উপর ভিত্তি করে। ভবিষ্যতের কাজ শিক্ষকদের জন্য কার্যকরী অন্তর্দৃষ্টিতে ফ্যাক্টর ইন্টারঅ্যাকশন অনুবাদ করার জন্য পোস্ট-হক ব্যাখ্যা পদ্ধতি বিকাশের উপর দৃষ্টি নিবদ্ধ করতে পারে (যেমন, "ছাত্রটি বিশেষভাবে প্যাসিভ ভয়েস এবং পাস্ট পারফেক্ট টেন্সের মধ্যে ইন্টারঅ্যাকশন নিয়ে সংগ্রাম করে")।
- রিয়েল-টাইম অ্যাডাপটিভ টেস্টিং: FM কম্পোনেন্টের দক্ষতা এটিকে রিয়েল-টাইম সিস্টেমের জন্য উপযুক্ত করে তোলে। এটি কম্পিউটারাইজড অ্যাডাপটিভ টেস্টিং (CAT) পরিবেশে মোতায়েন করা যেতে পারে যাতে শিক্ষার্থীর ক্ষমতা এবং আইটেম-ফিচার ইন্টারঅ্যাকশনের ক্রমাগত হালনাগাদকৃত অনুমানের ভিত্তিতে পরবর্তী প্রশ্নটি গতিশীলভাবে নির্বাচন করা যায়।
১০. তথ্যসূত্র
- Corbett, A. T., & Anderson, J. R. (1994). Knowledge tracing: Modeling the acquisition of procedural knowledge. User modeling and user-adapted interaction, 4(4), 253-278.
- Piech, C., Bassen, J., Huang, J., Ganguli, S., Sahami, M., Guibas, L. J., & Sohl-Dickstein, J. (2015). Deep knowledge tracing. Advances in neural information processing systems, 28.
- Wilson, K. H., Karklin, Y., Han, B., & Ekanadham, C. (2016). Back to the basics: Bayesian extensions of IRT outperform neural networks for proficiency estimation. শিক্ষাগত ডেটা মাইনিং-এ.
- Cheng, H. T., Koc, L., Harmsen, J., Shaked, T., Chandra, T., Aradhye, H., ... & Shah, H. (2016, September). Wide & deep learning for recommender systems. In Proceedings of the 1st workshop on deep learning for recommender systems (pp. 7-10).
- Guo, H., Tang, R., Ye, Y., Li, Z., & He, X. (2017). DeepFM: a factorization-machine based neural network for CTR prediction. arXiv preprint arXiv:1703.04247.
- Vie, J. J., & Kashima, H. (2018). Knowledge tracing machines: Factorization machines for knowledge tracing. arXiv preprint arXiv:1811.03388.
- Hambleton, R. K., Swaminathan, H., & Rogers, H. J. (1991). Fundamentals of item response theory. সেজ।
- Settles, B., Brust, C., Gustafson, E., Hagiwara, M., & Madnani, N. (2018). Second language acquisition modeling. In Proceedings of the NAACL-HLT Workshop on Innovative Use of NLP for Building Educational Applications.