天才一秒记住【热天中文网】地址:https://www.rtzw.net
经过以上化简,融合模型完成了对统一模型的再参数化,使得新模型不但是可识别的,而且还保留了统一模型的可解释性。
融合模型已经有了一些实际应用研究,如Hartz(2002)首先将其应用于PSAT测验的评估,Jang(2009)将其用于阅读理解测验的研究。
在国内,车芳芳(2010)最先将融合模型用于初中代数的认知诊断研究。
五、RRUM模型
Hartz(2002)在用融合模型分析PSAT测验的数据时发现,对于多数题目,融合模型的表达式里的最后一项Pci(θj)存在的意义并不大,于是可以将其去掉,以进一步简化模型。
由此,他提出了“缩减的再参数化统一模型”
(ReducedReparameterizedUnifiedModel,RRUM)。
RRUM模型将答对一道题的概率建模为被试的KS和题目参数的函数,那就是:题目的难度参数和区分度参数,其中后者描述了一个特定属性的掌握情况将在多大程度上影响答对这道题的概率。
通过对每个题目的每个属性都分配一个区分度参数,融合模型和RRUM模型允许各种KS的被试答对题目的概率各不相同,因此它们比下文即将提到的DINA模型要有更大的灵活性,但它们也比DINA模型更复杂。
RRUM模型的表达式是
这里的难度参数π*i是掌握了第i题所考查的全部属性的被试答对这个题目的概率。
π*i较大的题目,说明它所考查的属性能有效解释被试对该题的反应。
区分度参数r*ik指,被试未掌握αk却答对了第i题的概率与掌握了αk并答对该题的概率之比。
在一道题中,某个属性的区分度参数越小,就说明该属性在该题目中越重要。
下面用一个例子说明RRUM模型中被试正确作答概率的计算。
设第i个题目考了两个属性,π*i=0.8,r*i1=0.2,r*i2=0.3,那么根据公式(6.2.3)可以计算出:
若被试j对这2个属性都没有掌握,则答对该题的概率是
Pji=π*i·r*i1·r*i2=0.8×0.2×0.3=0.048。
若被试j只掌握了属性1,则答对该题的概率是
Pji=π*i·r*i2=0.8×0.3=0.24。
若被试j只掌握了属性2,则答对该题的概率是
Pji=π*i·r*i1=0.8×0.2=0.16。
若被试j对这2个属性都掌握了,则答对该题的概率是:Pji=π*i=0.8。
为了研究方便,令αl(l=1,2,…,L且L=2K)为被试j可能拥有的KS。
于是,在RRUM模型下,KS为αl的被试,答对第i题的概率是
这样,全体j个被试在第i题上的正确作答概率就被归为L种情况,在实际计算中可以大大减少运算量。
&emplin(2007)用MCMC算法实现了对RRUM模型的参数估计。
Feng,Habing和Huebner(2014)则提出了相对简便一些的EM算法,并对ECPE测验的数据进行了分析。
六、DINA模型
根据心理计量学手册(DiBello,Roussos,&Stout,2007),决定性输入噪音“与”
门模型(Deterministioisy‘And’Gate,DINA)的历史可以追溯到Macready和Dayton(1977)的思想。
Haertel(1984,1989)正式提出了这个模型,将其命名为限制性潜在类别模型(Restrit),而此后的Jusma(2001)将它的名字改为DINA模型。
该模型因为仅涉及“失误”
和“猜测”
两参数,真正实现了对认知诊断模型的简化。
其中,ηji是一个二分变量,表示被试j是否掌握了第i题所考查的全部属性。
gi表示第i题的猜测参数(GuessParameter),指的是“未掌握该题所测全部属性”
本章未完,请点击下一章继续阅读!若浏览器显示没有新章节了,请尝试点击右上角↗️或右下角↘️的菜单,退出阅读模式即可,谢谢!