检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:董庆兴[1,2] 李华阳 曹高辉 夏立新[1] Dong Qingxing;Li Huayang;Cao Gaohui;Xia Lixin(School of Information Management,Central China Normal University,Wuhan 430079;Centre for Studies of Information Resources,Wuhan University,Wuhan 430079;Tencent AI Lab,Shenzhen 518057)
机构地区:[1]华中师范大学信息管理学院,武汉430079 [2]武汉大学信息资源研究中心,武汉430079 [3]腾讯AI Lab,深圳518057
出 处:《图书情报工作》2019年第5期92-99,共8页Library and Information Service
基 金:国家自然科学基金项目“面向群智感知大数据的群体评价模型与方法研究”(项目编号:71871102);华中师范大学中央高校基本科研业务费项目“在线医疗服务环境下用户信息感知及其线下行为变化机制研究”(项目编号:CCNU17TS0009)研究成果之一
摘 要:[目的/意义]大规模在线开放课程论坛具有丰富的用户评论数据。从大量未区分的评论数据中,自动识别出知识密度较高的探索型对话并挖掘其潜在价值,对于改善教师教学质量以及提高学生知识水平具有重要影响。[方法/过程]首先利用GloVe方法训练词向量,加强对文本语义的理解,然后利用卷积神经网络自动学习文本特征,提出一种基于深度学习的探索型对话自动识别模型,并在学堂在线平台《心理学概论》课程论坛标注数据集上进行实证与对比研究。[结果/结论]实验结果显示,利用GloVe方法预训练词向量以及在训练过程中不断对词向量进行学习修正能够提高模型效果。该模型识别探索型对话的F1值为0.94,相较于传统的朴素贝叶斯方法(0.88)、逻辑斯谛回归方法(0.89)、决策树方法(0.88)以及随机森林方法(0.88)取得较大提升,具有较高的实用性和较低的学习成本。[Purpose/significance] Massive Open Online Course (MOOC) forum is an important source to acquire user review data.Automatically detecting exploratory dialogues with high knowledge density from large amounts of unlabeled data and mining its potential value has a significant impact on the improvement of teaching quality and students' mastery of knowledge.[Method/process] We proposed a new auto-detecting model based on deep learning,which firstly uses GloVe algorithm to train word embedding to reinforce semantic understanding for texts and then adopts Convolutional Neural Network (CNN) to automatically learn text features and make classifications on exploratory dialogues.An empirical and comparative study was done on the annotated dataset from the online course Introduction to Psychology on the platform of Xuetang.[Result/conclusion] Experiment result shows that using the word embedding pretrained by GloVe and fine tune it while training can improve the performance of our model.Our model gets the F1 score of 0.94,which is greatly improved compared with Naive Bayes model (0.88),Logistic Regression model (0.89),Decision Tree model (0.88) and Random Forest model (0.88) and exhibits great practicality with low learning costs.
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:3.21.28.69