ISSCC2021: Scalable In-Memory Computing for Deep Neural Network ...

需积分: 9 7 下载量 164 浏览量 更新于2024-07-10 收藏 8.21MB PDF 举报
"ISSCC2021_Session_15V_Compute-in-Memory Processors for Deep Neural Networks.pdf" 本文档是2021年国际固态电路会议(ISSCC)第15场会议的报告,重点讨论了计算内存处理器在深度神经网络(DNN)中的应用。会议的主要目标是展示在内存中执行计算的新技术,以优化DNN的推理加速器性能。 论文《基于可扩展内存计算的可编程神经网络推理加速器》由Hongyang Jia、Murat Ozatay、Yinqi Tang、Hossein Valavi、Rakshit Pathak、Jinseok Lee和Naveen Verma等人撰写,他们都来自普林斯顿大学。作者们在报告中介绍了他们的研究背景和成就,包括在新计算架构集成到完整可编程平台上的工作,特别是关于近似计算和混合信号计算的研究。 在深度学习领域,计算内存(Compute-in-Memory, CIM)是一种新兴技术,它通过将计算过程直接在存储单元中进行,而不是传统的从内存读取数据到处理器进行计算,然后将结果写回内存的模式。这种技术可以显著减少数据传输,提高能效,并且有可能大幅加速神经网络的运算速度。 该论文提出的可编程神经网络推理加速器基于可扩展的内存计算,这意味着它能够适应不同规模和类型的神经网络模型。这种加速器可能包含创新的内存单元设计,能够在内存中执行乘积累加(MAC)操作,这是神经网络计算的核心部分。通过这种方式,加速器可以更高效地执行前向传播,这是深度学习推理的关键步骤。 此外,作者可能还探讨了如何通过利用硬件近似性来进一步提升性能和能效。近似计算允许在一定程度上牺牲精度以换取更高的计算速度或更低的能耗,这对于许多对精度要求不那么敏感的应用场景(如图像分类或语音识别)来说是可行的。 论文的详细内容可能涵盖了架构设计、内存单元的特性、实现方法、性能评估以及与传统处理器的比较。通过这样的研究,研究人员旨在推动深度学习硬件的发展,为未来的AI应用提供更快、更节能的解决方案。