检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:李正明[1] 章金龙 LI Zhengming;ZHANG Jinlong(School of Electrical and Information Engineering,Jiangsu University,Zhenjiang 212013,China)
机构地区:[1]江苏大学电气信息工程学院,江苏镇江212013
出 处:《信息与控制》2020年第2期147-153,共7页Information and Control
基 金:国家自然科学基金资助项目(1721140140);国家重点研发计划资助项目(2017YFB0103200)。
摘 要:机器人对抓取目标进行高准确的姿态检测与定位依然是一个开放性的难题.本文提出了一种基于卷积神经网络对抓取目标快速姿态检测与精确定位的方法.该方法采用Faster R-CNN Inception-V2网络模型,在网络中将抓取目标的姿态角度采用分类标签方式输出,位置坐标采用回归方法,对Cornell公开数据集重新标注并训练端到端模型.模型在实例检测和对象检测测试集上分别取得96.18%和96.32%的准确率,对于每一幅图像的处理时间小于0.06 s.实验结果表明模型能够实时地对图像中单个或多个抓取目标进行快速地姿态检测与定位,准确度高并具有很强的鲁棒性和稳定性.A robot’s high-accuracy attitude detection and location of the grab target is still an open problem.We propose a method based on the convolutional neural network,which uses the Faster R-CNN Inception-V2 network model,for high-accuracy and fast attitude detection and location of the grab target.In the network,the attitude angle of the grab target is determined using a classification label,and the position coordinates are obtained using a regression method.The Cornell public datasets are relabeled,and the end-to-end models are trained.The model achieves an accuracy of 96.18%and 96.32%on the instance and object detection test sets,respectively,and the processing time for each image is less than 0.06 s.The experimental results show that the model can achieve high-accuracy and fast attitude detection and location of single or multiple grab targets in animage in real time and has strong robustness and stability.
分 类 号:TP273[自动化与计算机技术—检测技术与自动化装置]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.249