您当前的位置: > 详细浏览

引入眼动注视点的联合-交叉负载多模态认知诊断建模

请选择邀稿期刊:

Joint-Cross-Loading Multimodal Cognitive Diagnostic Modeling Incorporating Visual Fixation Counts

摘要: 多模态数据为实现对认知结构的精准诊断及其他认知特征(如, 认知风格)的全面反馈提供了可能性。为实现对题目作答精度、作答时间(RT)和视觉注视点数(FC)的联合分析,本文基于联合-交叉负载建模法提出三个多模态认知诊断模型。实证研究及模拟研究结果表明:(1)联合分析比分离分析更适用于多模态数据;(2)新模型可直接利用RT和FC中信息提高潜在能力或潜在属性的估计准确性;(3)新模型的参数估计返真性较好;(4)忽略交叉负载所导致的负面结果比冗余考虑交叉负载所导致的更严重。

版本历史

[V3] 2021-11-30 09:31:51 ChinaXiv:202106.00029V3 下载全文
[V1] 2021-06-08 23:07:59 ChinaXiv:202106.00029v1 查看此版本 下载全文
点击下载全文
预览
同行评议状态
待评议
许可声明
metrics指标
  •  点击量7461
  •  下载量1142
评论
分享
申请专家评阅