检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:庞号充 刘传立[1] PANG Hao-chong;LIU Chuan-li(School of Civil and Surveying&Mapping Engineering,Jiangxi University of Science and Technology,Ganzhou 341000,China)
机构地区:[1]江西理工大学土木与测绘工程学院,江西赣州341000
出 处:《桂林理工大学学报》2022年第4期926-931,共6页Journal of Guilin University of Technology
基 金:国家自然科学基金地区基金项目(41561091);江西省教育厅科学技术研究项目(GJJ150663,GJJ150629)。
摘 要:针对U-NET网络在提取遥感图像道路的过程中出现精度损失和训练速度缓慢的问题,提出了一种改进的U-NET语义分割网络模型。先在编码器和解码器中间加入以级联方式连接的扩张卷积层,在扩大中心部分特征点感受野的同时保留特征图的空间信息,解决了U-NET网络在进行道路提取时精度损失的问题;再针对采用数据增强进行数据集扩充而导致的训练收敛变慢的问题,使用了ELU激活函数,改善了网络训练效率低的问题。实验表明,本文U-NET网络对道路的提取精度得到了明显的提升,可以准确提取出遥感图像中的道路要素且效率较高,并且在与传统U-NET的对比中优势较为明显,其各项指标正确率、召回率和F1综合指标分别达到86.79%、83.12%和84.91%,较传统U-NET分别提升2.06%、1.83%、1.94%,具有较好的应用前景。To improve the accuracy and training speed in U-NET network road extraction from remote sensing images,a new U-NET semantic segmentation network model is proposed.First,a convolutional layer is connected in cascade between the encoder and the decoder to expand the receptive field of the central feature point while retaining the spatial information of the feature map.This increases the accuracy of the U-NET network in road extraction.In the slower training convergence caused by data augmentation for data set expansion,ELU activation function is used to improve the network training efficiency.Finally,experiments show that the U-NET network has a significant improvement in the road extraction accuracy,by accurate extracting road elements in remote sensing images.There are more advantages in comparison with traditional U-NET obviously.The accuracy rate,recall rate and F1 comprehensive index reached 86.79%,83.12%and 84.91%,respectively,2.06%,1.83%,1.94%higher than traditional U-NET,with a good application prospect.
关 键 词:U-NET 语义分割 道路提取 扩张卷积 ELU
分 类 号:P237[天文地球—摄影测量与遥感]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.145