检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
作 者:胡晶晶 王冉 詹伶俐 王元庆[1] HU Jingjing;WANG Ran;ZHAN Lingli;WANG Yuanqing(School of Electronic Science and Engineering,Nanjing University,Nanjing 210046,China;Tandon School of Engineering,New York University,New York 11201,USA)
机构地区:[1]南京大学电子科学与工程学院,南京210046 [2]纽约大学坦登工程学院,纽约11201
出 处:《电子器件》2018年第1期72-78,共7页Chinese Journal of Electron Devices
基 金:国家科技重大专项项目(AHJ2011Z001)
摘 要:为解决图像分类任务中模型结构固化、产生巨大内存消耗、时间消耗的问题,提出一种增量式深度神经网络(IDNN)。输入样本通过聚类算法激活不同簇并被分别处理:如果新样本激活已有簇,则更新该簇参数;否则为新簇开辟分支,并训练独立特征集。在Caltech-101、ORL Face、ETH-80数据库的验证结果表明,该系统能自动调整网络结构,适用于轮廓、纹理、视角等不同环境的增量式学习,例如在Caltech-101库分类任务中准确率超出VGGNet 5.08%、Alex Net 3.44%。In order to solve the problem of model structure fossilization,generating huge memory consumption and time consumption in image classification task,an incremental depth neural network(IDNN)is proposed.IDNN divides input samples into branches and trains them separately.If the input sample activates one of the existing clusters,IDNN updates parameters of the corresponding cluster;otherwise,IDNN creates new branch and learns an independent feature set.Experiments reported on Caltech-101,ORL Face and ETH-80 dataset show that IDNN can automatically adjust the network structure and is suitable for incremental learning in different environments such as contour variation,texture variation and viewpoint diversity.Also,we prove experimentally that its classification performance outperforms the VGGNet by 5.08%and AlexNet by 3.44%on Caltech-101 dataset.
关 键 词:计算机视觉 增量学习 深度神经网络 聚类 Caltech-101
分 类 号:G06[文化科学] K966[历史地理—人文地理学] TN919.82[电子电信—通信与信息系统]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:3.21.113.219