AI硬件爆发:GPT时代的服务器需求分析

需积分: 0 4 下载量 83 浏览量 更新于2024-06-25 收藏 4.87MB PDF 举报
该报告由广发证券电子行业团队发布,标题为“AI的iPhone时刻”,日期为2023年5月30日,旨在探讨人工智能(AI)硬件市场的新趋势。分析师许兴军、王亮、耿正和张大伟合作完成了这一深度行业研究。报告的核心观点聚焦于人工智能计算能力的爆炸性增长,特别是随着像ChatGPT这样的大模型的出现,对AI硬件,尤其是AI服务器的需求急剧增加。 首先,报告指出,大模型的训练和推理过程对高性能计算资源的需求巨大。例如,训练一个GPT-3.5175B模型,NVIDIA A100 GPU需要1080个,AI服务器需135台;而万亿参数量的AI大模型对这些资源的需求更高,分别需要8521个A100 GPU和1065台AI服务器。在推理阶段,谷歌级应用使用这些模型时,对NVIDIA A100 GPU和AI服务器的需求同样显著,如GPT-3.5175B的推理场景下,AI服务器需求可达到9万台。 报告进一步强调了AI服务器市场的增长驱动力,因为它们专为高效处理AI任务设计,通常包括2颗CPU、4或8颗GPGPU(图形处理器)以及一系列辅助芯片,如NVLink和NVSwitch光芯片,以及高速接口芯片。这意味着,随着大模型训练和推理需求的增长,AI服务器的销售预计将进入快速增长的“黄金时代”。 报告通过实际的数据计算,预测了大规模部署大模型对AI服务器市场的影响。以2022年14万台AI服务器出货量为基础,训练100个GPT-3.5175B模型可能导致AI服务器出货量增长9.6%,而10个谷歌级应用使用这类模型进行推理,则可能拉动全球AI服务器出货量增长高达643%。这表明,AI硬件市场将迎来前所未有的发展机遇,同时也提醒投资者和行业参与者关注技术进步带来的市场变化和投资机会。 这份报告不仅提供了对当前AI硬件市场状况的深入洞察,还对未来发展趋势进行了前瞻性分析,对于理解AI硬件行业的战略定位、供应链管理以及市场潜力具有重要意义。