内存计算技术:高能效AI应用的创新宏单元

需积分: 5 0 下载量 82 浏览量 更新于2024-06-14 收藏 43.44MB PDF 举报
"Session 34 Compute-In-Memory.pdf 涉及了内存计算技术在高精度人工智能应用、边缘计算设备以及神经网络处理中的最新进展。来自清华大学、TSMC公司和东南大学的研究团队展示了各自在内存计算领域的创新成果,包括基于POSIT的数字计算内存宏、16纳米工艺的双模式增益单元计算内存宏和22纳米的混合型闪电式内存计算宏。这些技术显著提高了能效比,实现了极高的浮点运算性能,为AI应用提供了强大支持。" Session 34是关于内存计算(Compute-In-Memory, CIM)的一个研讨会,重点关注如何通过内存硬件本身执行计算任务,以提高计算效率和能效。内存计算是一种新兴的技术,它将数据处理功能集成到内存单元中,减少了传统计算架构中数据在内存和处理器之间频繁移动带来的延迟和能量损耗。 首先,来自清华大学的报告介绍了第一款支持POSIT(Position Independent Number System)数值表示格式的数字CIM宏。POSIT是一种新兴的数值计算格式,旨在提供比浮点数更高的精度和更小的位宽。该28纳米工艺的CIM宏实现了每瓦特83.23万亿次浮点运算(TFLOPS/W),这对于高精度AI应用来说是一项重大突破。 其次,TSMC公司的研究展示了一种16纳米工艺的96千字节CIM宏,采用了双模式增益单元,可以执行整数和浮点数的乘加操作。这种设计实现了73.3到163.3万亿次操作每秒每瓦(TOPS/W)和33.2到91.2 TFLOPS/W的性能,特别适合于AI边缘设备,其中能源效率至关重要。 最后,东南大学的团队提出了一种22纳米的64千字节混合模拟-数字静态随机存取内存(SRAM)CIM宏,采用压缩加法树和模拟存储量化器,专门针对变压器和卷积神经网络(CNNs)优化。这种“闪电式”设计结合了模拟和数字电路的优势,提高了计算速度并降低了功耗。 这些研究展示了内存计算在提升AI计算性能、能效以及适应不同应用场景上的巨大潜力。通过不断创新,内存计算有望成为未来计算架构的重要组成部分,加速AI和大数据处理的发展。