检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:简丽琼[1] 李春生 陈志莉[1] 车进[3] 白雪冰[4] 高翔 JIAN Liqiong;LI Chunsheng;CHEN Zhili;CHE Jin;BAI Xuebing;GAO Xiang(Ningxia Blood Center,Yinchuan 750001,P.R.China;Health Commission Information Center of Ningxia Hui Autonomous Region,Yinchuan 750001,P.R.China;School of Electronic and Electrical Engineering,Ningxia University,Yinchuan 750021,P.R.China;School of Advanced Interdisciplinary Studies,Ningxia University,Zhongwei 755000,P.R.China)
机构地区:[1]宁夏回族自治区血液中心,银川750001 [2]宁夏回族自治区卫生健康委信息中心,银川750001 [3]宁夏大学电子与电气工程学院,银川750021 [4]宁夏大学前沿交叉学院,宁夏中卫755000
出 处:《重庆邮电大学学报(自然科学版)》2024年第6期1205-1214,共10页Journal of Chongqing University of Posts and Telecommunications(Natural Science Edition)
基 金:国家自然科学基金项目(61861037);宁夏自然科学基金项目(2022AAC03704)。
摘 要:在结肠镜检查中,自动分割息肉是开发计算机辅助结肠镜检测和诊断系统的先决条件。息肉分割是一项非常具有挑战性的任务,因为息肉与周边组织具有很大的相似性以及息肉的大小形状变化很大。针对息肉与周围组织相似以及息肉多变的问题,提出基于全局线索定位和多视图特征融合的息肉分割方法。设计全局线索定位模块将全局定位信息传播到每个级别的特征图中,以显式的方式使每个级别的特征图都获得伪装特性息肉的位置信息;设计自我多视图特征融合模块,通过不同视图下的特征捕获不同视图之间的层次特征,更好地适应不同情况下的息肉分割场景。提出方法在5个数据集上的得分比对比算法提高的百分点分别为1.2、3.3、1.8、8.5和3.7,证明提出方法在学习能力和泛化能力上都达到了预期的效果。In colonoscopy,automatic polyp segmentation is a prerequisite for developing computer-aided colonoscopy detection and diagnosis systems.Polyp segmentation is a highly challenging task due to the high similarity between polyps and surrounding tissues,as well as the significant variability in polyp size and shape.To address these challenges,this paper proposes a polyp segmentation method based on global clue localization and multi-view feature fusion.A global clue localization module is designed to propagate global positional information to each level of feature maps,explicitly embedding positional knowledge of camouflaged polyps into the features.Additionally,a self multi-view feature fusion module is developed to capture hierarchical features across different views,enabling better adaptability to various polyp segmentation scenarios.The proposed method outperforms PraNet by margins of 1.2,3.3,1.8,8.5,and 3.7 percentage points on five datasets,demonstrating its effectiveness in terms of learning and generalization capabilities.
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.4