检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:李泳 刘宏杰 周永录 余映[1] Li Yong;Liu Hongjie;Zhou Yonglu;Yu Ying(School of Information,Yunnan University,Kunming 650000,China;Yunnan Provincial Key Laboratory of Digital Media Technology,Kunming 650223,China)
机构地区:[1]云南大学信息学院,昆明650000 [2]云南省高校数字媒体技术重点实验室,昆明650223
出 处:《计算机应用研究》2024年第8期2528-2532,共5页Application Research of Computers
基 金:国家自然科学基金资助项目(62166048,61962060)。
摘 要:针对视觉SLAM在动态场景下鲁棒性不足的问题,提出一种适用于动态场景下的视觉SLAM算法——SAD-SLAM。该算法首先使用GCNv2网络进行特征提取,以获取分布均匀的特征点集合,并加快提取速度。然后使用YOLOv8-seg语义分割网络完成场景内物体的检测,并对推理得到的物体按照是否具备自主运动能力进行划分。同时提出一种语义关联方法,通过对潜在动态物体进行2D和深度层面过滤,以确定潜在动态物体运动的可能性。最后,构建了含有语义信息的稠密3D点云地图,并避免了动态物体的干扰。算法使用TUM数据集及真实场景进行实验验证,结果表明,相较于ORB-SLAM3及其他相关的动态SLAM算法,SAD-SLAM在动态场景下具有更好的定位精度。In order to improve the robustness of visual SLAM in dynamic scenes,this proposed a new visual SLAM algorithm called SAD-SLAM.This algorithm actively extracted features using the GCNv2 network to obtain a set of evenly distributed feature points and accelerate the extraction speed.Additionally,it detected objects within the scene using the YOLOv8-seg semantic segmentation network and classified them based on their ability to move autonomously.Furthermore,it used a semantic association method to filter potential dynamic objects at both the 2D and depth levels,determining their likelihood of movement.Finally,it constructed a dense 3D point cloud map containing semantic information,avoiding interference from dynamic objects.The effectiveness of this algorithm is demonstrated through experiments using the TUM dataset and real-world scenes.The results show that compared to ORB-SLAM3 and other related dynamic SLAM algorithms,SAD-SLAM achieves better positioning accuracy in dynamic scene.
关 键 词:视觉SLAM 深度学习 位姿估计 地图构建 室内动态场景
分 类 号:TP242.6[自动化与计算机技术—检测技术与自动化装置]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.30