ISSCC2021: Scalable In-Memory Computing for Deep Neural Network ...
需积分: 9 164 浏览量
更新于2024-07-10
收藏 8.21MB PDF 举报
"ISSCC2021_Session_15V_Compute-in-Memory Processors for Deep Neural Networks.pdf"
本文档是2021年国际固态电路会议(ISSCC)第15场会议的报告,重点讨论了计算内存处理器在深度神经网络(DNN)中的应用。会议的主要目标是展示在内存中执行计算的新技术,以优化DNN的推理加速器性能。
论文《基于可扩展内存计算的可编程神经网络推理加速器》由Hongyang Jia、Murat Ozatay、Yinqi Tang、Hossein Valavi、Rakshit Pathak、Jinseok Lee和Naveen Verma等人撰写,他们都来自普林斯顿大学。作者们在报告中介绍了他们的研究背景和成就,包括在新计算架构集成到完整可编程平台上的工作,特别是关于近似计算和混合信号计算的研究。
在深度学习领域,计算内存(Compute-in-Memory, CIM)是一种新兴技术,它通过将计算过程直接在存储单元中进行,而不是传统的从内存读取数据到处理器进行计算,然后将结果写回内存的模式。这种技术可以显著减少数据传输,提高能效,并且有可能大幅加速神经网络的运算速度。
该论文提出的可编程神经网络推理加速器基于可扩展的内存计算,这意味着它能够适应不同规模和类型的神经网络模型。这种加速器可能包含创新的内存单元设计,能够在内存中执行乘积累加(MAC)操作,这是神经网络计算的核心部分。通过这种方式,加速器可以更高效地执行前向传播,这是深度学习推理的关键步骤。
此外,作者可能还探讨了如何通过利用硬件近似性来进一步提升性能和能效。近似计算允许在一定程度上牺牲精度以换取更高的计算速度或更低的能耗,这对于许多对精度要求不那么敏感的应用场景(如图像分类或语音识别)来说是可行的。
论文的详细内容可能涵盖了架构设计、内存单元的特性、实现方法、性能评估以及与传统处理器的比较。通过这样的研究,研究人员旨在推动深度学习硬件的发展,为未来的AI应用提供更快、更节能的解决方案。
2021-05-04 上传
2021-04-10 上传
2021-05-04 上传
2021-05-04 上传
2021-05-04 上传
2021-04-10 上传
2021-05-04 上传
2021-05-04 上传
2021-04-10 上传
netshell
- 粉丝: 11
- 资源: 185
最新资源
- 俄罗斯RTSD数据集实现交通标志实时检测
- 易语言开发的文件批量改名工具使用Ex_Dui美化界面
- 爱心援助动态网页教程:前端开发实战指南
- 复旦微电子数字电路课件4章同步时序电路详解
- Dylan Manley的编程投资组合登录页面设计介绍
- Python实现H3K4me3与H3K27ac表观遗传标记域长度分析
- 易语言开源播放器项目:简易界面与强大的音频支持
- 介绍rxtx2.2全系统环境下的Java版本使用
- ZStack-CC2530 半开源协议栈使用与安装指南
- 易语言实现的八斗平台与淘宝评论采集软件开发
- Christiano响应式网站项目设计与技术特点
- QT图形框架中QGraphicRectItem的插入与缩放技术
- 组合逻辑电路深入解析与习题教程
- Vue+ECharts实现中国地图3D展示与交互功能
- MiSTer_MAME_SCRIPTS:自动下载MAME与HBMAME脚本指南
- 前端技术精髓:构建响应式盆栽展示网站