-

检索结果分析

结果分析中...
检索条件:"关键词=深度学习编译器 "
条 记 录,以下是1-6
视图:
排序:
显示条数:
基于专用卷积神经网络加速编译器设计与实现被引量:1
《计算机应用》2022年第S01期208-214,共7页焦禹铭 吴凯 郭风祥 王昭 宋庆增 
不同框架深度学习模型部署是人工智能落地的核心,然而模型计算量和参数量过大、编程模型未统一导致了各种新型的专用卷积神经网络(CNN)加速层出不穷,增加了模型的部署难度。对模型压缩和编译工具链这两个方面进行了改进:在模型压缩方...
关键词:现场可编程门阵列 模型压缩 深度学习编译器 中间表示 目标检测 
一种基于TVM的算子生成加速策略
《计算机工程》2024年第8期353-362,共10页高伟 李帅龙 茆琳 王磊 李颖颖 韩林 
河南省重大科技专项(221100210600)。
随着人工智能(AI)的飞速发展,新算子和底层硬件层出不穷,这给算子库的开发和维护带来了巨大的工作量。单纯基于手工优化来解决AI模型的性能和效率很容易出现瓶颈。TVM深度学习编译器通过代码的自动化生成减轻了手工优化的负担,但同时也...
关键词:深度学习编译器 代价模型 梯度提升算法 剪枝策略 自动调优 
面向深度学习算子的循环不变式外提算法
《计算机科学与探索》2023年第1期127-139,共13页梁佳利 华保健 吕雅帅 苏振宇 
中国科学技术大学研究生教育创新计划项目(2020ycjc41)。
TVM是一个深度学习编译器,支持将TVM的领域专用语言即张量表达式定义的算子编译生成目标平台的代码,并在高级中间表示TVM IR上进行一系列优化。张量表达式对算子执行循环变换,产生与循环迭代变量相关的复杂表达式的计算,在多层嵌套循环...
关键词:深度学习编译器 领域专用语言 循环不变量外提 中间表示 
基于RISC-V的神经网络加速硬件实现被引量:1
《电子与封装》2023年第2期68-73,共6页鞠虎 高营 田青 周颖 
江苏省产业前瞻与关键核心技术研发项目(BE2021003)。
针对第五代开放精简指令集(RISC-V)的人工智能(AI)处理较少、先进的精简指令微处理(ARM)架构供应链不稳定、自主可控性弱的问题,设计了以RISC-V处理为核心的神经网络推理加速系统级芯片(SoC)架构。采用开源项目搭建So C架构;基...
关键词:RISC-V 神经网络 可变张量加速 通用矩阵乘 深度学习编译器 
AutoConfig:面向深度学习编译优化的自动配置机制
《软件学报》2024年第6期2668-2686,共19页张洪滨 周旭林 邢明杰 武延军 赵琛 
国家重点研发计划(2022YFB4401402)。
随着深度学习模型和硬件架构的快速发展,深度学习编译器已经被广泛应用.目前,深度学习模型的编译优化和调优的方法主要依赖基于高性能算子库的手动调优和基于搜索的自动调优策略.然而,面对多变的目标算子和多种硬件平台的适配需求,高性...
关键词:深度学习编译器 编译优化 代码生成 自动配置机制 
基于MLIR的FP8量化模拟与推理内存优化
《计算机科学》2024年第9期112-120,共9页徐金龙 桂中华 李嘉楠 李颖颖 韩林 
2022年河南省重大科技专项(221100210600)。
随着目标检测模型和语言大模型的迅速发展,网络模型正变得越来越庞大。为了更好地在端侧硬件上进行模型部署,通常采用模型量化技术对模型进行压缩。现有的模型量化策略主要基于FP16,BF16和INT8等类型实现。其中,8bit数据类型在降低推理...
关键词:模型压缩 深度学习编译器 FP8量化 MLIR Yolov5s模型 
检索报告 对象比较 聚类工具 使用帮助 返回顶部