IDTechEx最新发布的《2025-2035年数据中心与云端AI芯片技术、市场及预测》研究报告指出,到2030年,人工智能数据中心的广泛部署、AI技术的商业化应用以及大型AI模型持续提升的性能需求,将推动AI芯片市场规模突破4000亿美元大关。但该研究同时强调,为满足高效计算、降本增效、性能升级、系统扩展、推理加速及领域专用等需求,底层技术必须持续革新。
全球范围内,尖端人工智能领域持续吸引着每年数千亿美元的投资浪潮,各国政府与超大规模服务商争相在药物研发、自动驾驶基础设施等领域抢占先机。
图形处理器(GPU)及其他AI专用芯片在提升顶级AI系统性能方面发挥了关键作用,为数据中心和云基础设施的深度学习提供了算力支撑。但随着全球数据中心容量预计在未来数年将突破数百吉瓦,相关投资规模达数千亿美元,当前硬件方案的能效与成本问题日益引发关注。
目前最庞大的AI系统采用超大规模高性能计算架构,这类系统高度依赖GPU集群,主要应用于超大规模AI数据中心和超级计算机。无论是本地部署还是分布式网络,这些系统均可提供百亿亿次浮点运算能力。
图:AI芯片及数据中心市场规模
尽管高性能GPU在AI模型训练领域不可或缺,但其存在诸多局限性:总体拥有成本居高不下、存在供应商绑定风险、针对AI运算的利用率偏低,且在处理特定推理任务时存在性能过剩问题。为此,超大规模服务商正逐步转向采用博通、美满电子等厂商设计的定制化AI专用集成电路(ASIC)。
这类定制AI芯片具备专为AI工作负载优化的核心架构,单次运算成本更低,能针对特定系统进行优化,并实现高能效推理。同时使云服务提供商能够在不牺牲性能的前提下,实现全栈自主可控与差异化竞争。
传统芯片巨头与新兴AI芯片初创企业纷纷推出创新方案,力图超越主流GPU技术。这些设计采用相似或创新的芯片架构,旨在打造更适配AI工作负载的解决方案,实现降本增效。英特尔、华为、高通等行业领导者开发的AI加速器,采用异构计算单元阵列(类似GPU架构),但专门针对AI运算优化,在性能、能效与特定应用场景灵活性之间取得平衡。
专注AI芯片的初创公司则另辟蹊径,采用数据流控制处理器、晶圆级封装、空间AI加速器、存内计算(PIM)及粗粒度可重构阵列(CGRA)等前沿架构与制造工艺。
半导体产业链各环节的技术创新空间广阔。在政府政策支持与巨额资金投入的双重驱动下,尖端AI技术发展将持续突破边界,这也将催生数据中心对AI芯片的海量需求。IDTechEx预测,2025至2030年间,AI芯片市场将以14%的年复合增长率持续扩张,到2030年市场规模有望达到4530亿美元。