检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:张邦源 沈韬[1] 曾凯[1] ZHANG Bangyuan;SHEN Tao;ZENG Kai(Kunming University of Science and Technology,Kunming Yunnan 650500,China)
机构地区:[1]昆明理工大学,云南昆明650500
出 处:《通信技术》2022年第7期850-858,共9页Communications Technology
基 金:国家自然科学基金(61971208);云南省中青年学术技术带头人后备人才(沈韬,2019HB005);云南省万人计划青年拔尖人才(沈韬,朱艳,云南省人社厅201873);云南省重大科技专项(02002AB080001-8),光合基金B类(20220202,ghfund202202022131)。
摘 要:近年来,随着卷积神经网络(Convolutional Neural Network,CNN)的发展,网络模型变得更加庞大,网络结构更加复杂,这限制了其在性能受限的嵌入式平台上的发展。针对这个问题,研究人员提出了一种模型二值化的方法,大幅度提升了网络存储和计算效率,但同时带来了信息损失,导致模型准确率下降。针对二值化卷积神经网络中信息损失问题,提出了两种解决方法。首先提出最大最小池化,使降采样层能够同时保留正值信息和负值信息;其次对特征图二值激活过程中信息丢失的原因进行了分析,并提出了基于特征图分块偏移的二值化方法,有效保留了特征图在二值量化后的局部信息;最后通过实验表明所提方法有效提升了二值化网络模型的性能。In recent years,with the development of CNN(Convolutional Neural Network),the network model becomes larger and the network structure is more complex,which limits its development on performance-constrained embedded platforms.To address this problem,researchers proposed a model binarization approach,which substantially improved network storage and computational efficiency,but at the same time brought information loss,leading to a decrease in model accuracy.This paper proposes two solutions to solve the information loss problem in binarized convolutional neural networks.First,it proposes max-min Pooling,which enables the downsampling layer to retain both positive and negative information.Then,it analyzes the reasons of information loss during binary activation of feature maps,and puts forward a binarization method based on feature map chunking offset,which effectively preserves the local information of feature maps after binarization.Finally,experiments indicate that the proposed method can effectively improve the performance of the binarized network model.
分 类 号:TP391[自动化与计算机技术—计算机应用技术]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:3.20.239.211