检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]华南理工大学自动化科学与工程学院,广东广州510640 [2]广东工业大学信息工程学院,广东广州510006
出 处:《控制理论与应用》2009年第10期1162-1166,共5页Control Theory & Applications
基 金:国家自然科学基金资助项目(30570458)
摘 要:针对传统的视觉伺服方法中图像几何特征的标记、提取与匹配过程复杂且通用性差等问题,本文提出了一种基于图像矩的机器人四自由度(4DOF)视觉伺服方法.首先建立了眼在手系统中图像矩与机器人位姿之间的非线性增量变换关系,为利用图像矩进行机器人视觉伺服控制提供了理论基础,然后在未对摄像机与手眼关系进行标定的情况下,利用反向传播(BP)神经网络的非线性映射特性设计了基于图像矩的机器人视觉伺服控制方案,最后用训练好的神经网络进行了视觉伺服跟踪控制.实验结果表明基于本文算法可实现0.5mm的位置与0.5?的姿态跟踪精度,验证了算法的的有效性与较好的伺服性能.To avoid the complicated marking, extracting and matching of image features in the traditional visual servoing systems and to improve the universality of the algorithm, a novel visual servoing of 4-degrees of freedom(4DOF) is proposed for an eye-in-hand robot based on image moments and neural network. First, the nonlinear transform relationship between image moments and the robot pose is developed, which provides the theoretical basis for the visual servoing using image moments. Then, a back propagation(BP) neural network is designed to map the transformation from image moments variation to the robot pose displacement with 4DOF without the external and internal parameters calibration for the camera. After this, the proposed control scheme can be applied to the robotic visual servoing. The experiment results show that the tracking error is less than 0.5 mm and 0.5 °respectively in position and in orientation. This confirms the validity and satisfactory servoing performance of the proposed method.
分 类 号:TP242.6[自动化与计算机技术—检测技术与自动化装置]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.63