基于长短期记忆模型的入室盗窃犯罪预测研究  被引量:17

Prediction of Burglary Crime Based on LSTM

在线阅读下载全文

作  者:沈寒蕾 张虎[1] 张耀峰[2] 张志刚[2] 朱艳敏 蔡黎 SHEN Han-lei;ZHANG Hu;ZHANG Yao-feng;ZHANG Zhi-gang;ZHU Yan-min;CAI Li(School of Statistics and Mathematics,Zhongnan University of Economics and Law,Wuhan,430073,China;Hubei University of Economics,Hubei Data and Analysis Center,Wuhan 430205,China;School of Mathematics and Statistics,Hubei University,Wuhan 430062,China)

机构地区:[1]中南财经政法大学统计与数学学院,湖北武汉430073 [2]湖北经济学院湖北数据与分析中心,湖北武汉430205 [3]湖北大学数学与统计学学院,湖北武汉430062

出  处:《统计与信息论坛》2019年第11期107-115,共9页Journal of Statistics and Information

基  金:国家社会科学基金面上项目《政府网络舆情危机形成与社会风险防控的大数据统计研究》(18BTJ030);湖北省教育厅科研计划重点项目《警务大数据下的犯罪事件智能预测研究与应用》(D20192202);中南财经政法大学研究生创新项目《面向智慧警务建设的时空大数据统计研究与应用》(201811308);湖北经济学院青年基金项目《警务大数据下的智能犯罪预测与城市安全管理对策研究》(XJ201909)

摘  要:随着智慧警务建设的兴起,利用时空大数据对犯罪事件进行预测成为具有前瞻性的研究。基于2015—2018年WH市110入室盗窃类接警数据,利用循环神经网络(RNN)改进得到的长短期记忆模型(LSTM),通过学习得到最佳性能对应的迭代次数、回看天数、空间依赖度、失活率等超参数,构建最优的二值化接警数据长短期记忆模型(BD-LSTM*)和频数统计数据长短期记忆模型(RD-LSTM*),并分别对WH市各区域的案件发生概率以及案件发生数量进行预测。结果表明,两种犯罪预测模型具有良好的预测精度和稳健性。With the rise of intelligent policing,it has become a forward-looking research to predict criminal incidents by using big data of spatio-temporal.Based on the 110 burglary called data in WH from 2015 to 2018,the long short-term memory model(LSTM)improved by recurrent neural networks(RNN)is used to obtain Super-parameters such as iteration times,look-back days,spatial dependence and dropout rates of the optimal performance.Then build the optimal binary data of long short-term memory model(BD-LSTM*)and regression data of long short-term memory model(RD-LSTM*).And by using the two models predict occurrence probability and number of cases in each region of WH,respectively.The results show that the two crime prediction models have great prediction accuracy and robustness.

关 键 词:犯罪预测 时空大数据 入室盗窃 RNN LSTM 

分 类 号:D917[政治法律—法学]

 

参考文献:

正在载入数据...

 

二级参考文献:

正在载入数据...

 

耦合文献:

正在载入数据...

 

引证文献:

正在载入数据...

 

二级引证文献:

正在载入数据...

 

同被引文献:

正在载入数据...

 

相关期刊文献:

正在载入数据...

相关的主题
相关的作者对象
相关的机构对象