FPGA上矩阵乘法优化:DNN前向传播的资源比较

需积分: 14 3 下载量 12 浏览量 更新于2024-09-06 收藏 633KB PDF 举报
本文深入探讨了基于现场可编程门阵列(FPGA)的矩阵乘法在深度神经网络(DNN)前向传播过程中的关键作用和资源优化。作者张天作、刘明和李圣辰针对全连接DNN的硬件实现,聚焦于矩阵乘法在神经网络计算流程中的简化作用。他们提出了两种不同的矩阵乘法计算架构,一种是利用乘累加器IP核设计,另一种是基于乘加器IP核的方案。 矩阵乘法在DNN中扮演着核心角色,特别是在处理大规模参数和多层神经元交互时,其效率直接影响到整个神经网络的运行速度和硬件资源消耗。通过将矩阵乘法引入DNN的前向传播,可以有效地减少计算步骤,提高并行性和计算效率。FPGA作为一种灵活且高度可编程的硬件平台,被选作实现这种优化的载体。 张天作等研究人员在设计过程中,对这两种不同架构的FPGA实现进行了详细的资源评估,比较了它们在支持不同规模和复杂度的DNN网络结构时的硬件资源占用情况,包括逻辑资源、存储资源以及功耗等方面。他们的研究表明,在保持相同的网络前向传播计算能力下,采用乘累加器方案相比于乘加器方案能更有效地节省硬件资源,这对于资源受限的嵌入式应用和实际部署中的硬件优化具有重要意义。 关键词“电路与系统”强调了这项工作的技术基础和系统级考虑,而“矩阵乘法”、“DNN前向传播”则明确了研究的核心技术内容。此外,“FPGA”和“硬件资源占用”揭示了研究的焦点在于硬件平台的选择和优化策略。这篇论文为深度学习硬件加速器的设计提供了有价值的经验和优化方法,对于FPGA在深度学习领域的实际应用具有指导意义。