检索规则说明:AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
检 索 范 例 :范例一: (K=图书馆学 OR K=情报学) AND A=范并思 范例二:J=计算机应用与软件 AND (U=C++ OR U=Basic) NOT M=Visual
机构地区:[1]上海理工大学光电信息与计算机工程学院,上海200093
出 处:《计算机工程》2010年第15期179-181,共3页Computer Engineering
基 金:国家自然科学基金资助项目(60573108);上海教委发展基金资助项目(09YZ428);上海教委科研创新基金资助重点项目(08ZZ76);上海市重点学科建设基金资助项目(S30501)
摘 要:针对具有高浮点运算能力的流处理器设备GPU对神经网络的适用性问题,提出卷积神经网络的并行化识别算法,采用计算统一设备架构(CUDA)技术,并定义其上的并行化数据结构,描述计算任务到CUDA的映射机制。实验结果证明,在GTX200硬件架构的GPU上实现的并行识别算法的平均浮点运算能力峰值较CPU上串行算法提高了近60倍,更适用于神经网络的相关应用。For the problem whether Graphic Processing Unit(GPU),the stream processor with high performance of floating-point computing is applicable to neural networks,this paper proposes the parallel recognition algorithm of Convolutional Neural Networks(CNNs).It adopts Compute Unified Device Architecture(CUDA) technology,definites the parallel data structures,and describes the mapping mechanism for computing tasks on CUDA.It compares the parallel recognition algorithm achieved on GPU of GTX200 hardware architecture with the serial algorithm on CPU.It improves speed by nearly 60 times.Result shows that GPU based the stream processor architecture are more applicable to some related applications about neural networks than CPU.
关 键 词:流处理器 单指令多线程 GTX200硬件架构 CUDA技术 卷积神经网络
分 类 号:TP193[自动化与计算机技术—控制理论与控制工程]
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在载入数据...
正在链接到云南高校图书馆文献保障联盟下载...
云南高校图书馆联盟文献共享服务平台 版权所有©
您的IP:216.73.216.147