首页 > 全部资讯 > 行业新闻 > Nvidia H200的劲敌出现?
芯达茂广告F 芯达茂广告F

Nvidia H200的劲敌出现?

AMD 正被广泛视为唯一能够挑战 Nvidia 在 AI GPU 市场主导地位的公司。最近,AMD 在旧金山举办了 Advancing AI 大会,首席执行官苏姿丰携手微软、OpenAI、Meta、Oracle 和 Google Cloud 等重要客户和合作伙伴,发布了一系列最新的 AI 和高性能计算解决方案。这些发布包括第五代 EPYC 服务器处理器和 Instinct MI325X 系列加速器。

在大会的主题演讲中,苏姿丰展示了一系列提升计算能力和能效的新产品,面向企业和消费者推出创新的 AI 解决方案。这些新产品包括 EPYC 9005 系列处理器、Instinct MI325X 加速器、Pensando Salina DPU 以及 Pensando Pollara 400 网络产品。

最引人关注的发布是即将面市的 MI325X、MI350 和 MI400 加速器系列。它们将分别于 2024 年第四季度、2025 年中期以及 2026 年发布。其中,MI350 将采用台积电的 3nm 工艺,而 MI325X 将直接与 Nvidia 备受关注的 H200 加速器展开竞争。

苏姿丰在演讲中提到:“数据中心和人工智能为 AMD 带来了巨大的增长机会。我们正在为日益增多的客户推出强大的 EPYC 处理器和 AMD Instinct 加速器。展望未来,我们预计,到 2028 年,数据中心 AI 加速器市场将增长至 5000 亿美元。我们致力于通过扩展的硅片、软件、网络和集群级解决方案来大规模推动开放式创新。”

MI325X 与 Nvidia H200 的对比

值得注意的是,AMD 数据中心部门在 2024 年第二季度实现了创纪录的 28 亿美元收入,同比增长 115%,主要归功于 Instinct GPU 出货量的大幅增长,这类产品占据了总收入的大约一半。AMD 将 2024 年数据中心 GPU 收入预测从 40 亿美元上调至 45 亿美元。

自 2023 年 12 月发布以来,AMD Instinct MI300X 加速器已被领先的云服务提供商、OEM 和 ODM 合作伙伴广泛采用,并且每天为数百万用户的流行 AI 模型提供支持,包括 OpenAI 的 ChatGPT、Meta 的 Llama 以及 Hugging Face 平台上数百万开源模型。

AMD 称,MI325X 采用台积电 5nm 工艺技术,能够为高密度 AI 任务提供卓越的内存效率和 AI 计算能力。MI325X 配备了 256GB HBM3E 内存,内存吞吐量为 6.0TB/s,其内存容量是 Nvidia H200 的 1.8 倍,带宽为 1.3 倍。FP16 和 FP8 理论峰值计算能力均为 H200 的 1.3 倍。通过这些改进,MI325X 在运行 Mistral 7B FP16、Llama 3.1 70B FP8 和 Mixtral 8x7B FP16 等任务时,推理性能分别提升至 1.3 倍、1.2 倍和 1.4 倍。

MI325X 预计将于 2025 年第一季度在戴尔、Eviden、技嘉、HPE、联想和 Supermicro 等平台供应商处广泛供应,计划于 2024 年第四季度开始大规模量产和出货。

图:AMD Instrinct 发展方向(图:AMD)

MI350 和 MI400 系列的进展

MI350 系列基于 AMD 的 CDNA 4 架构,采用台积电的 3nm 工艺,将于 2025 年中期首次亮相。与基于 CDNA 3 架构的 MI300 系列相比,MI350 系列的推理性能提升了 35 倍,并进一步确立了其在内存容量方面的主导地位,每个加速器最高配备 288GB HBM3E 内存。

软件创新和开放生态系统的推动

AMD 正通过整合新功能继续推进其 ROCm 开源软件堆栈,以支持生成式 AI 工作负载的训练和推理。ROCm 6.2 现在支持诸如 FP8 数据类型、Flash Attention 3 和 Kernel Fusion 等基本 AI 功能。与 ROCm 6.0 相比,ROCm 6.2 的推理性能提高了 2.4 倍,LLM 训练性能提高了 1.8 倍。

AI 网络解决方案的推出

目前,AMD 正在利用超大规模计算平台推出全面的可编程 DPU 产品,为下一代 AI 网络提供支持。AI 网络由前端(为 AI 集群提供数据和信息)和后端(管理加速器和集群之间的数据传输)组成,确保 AI 基础设施中的 CPU 和加速器能够高效协作。

为此,AMD 发布了 Pensando Salina DPU 用于前端网络管理,以及 Pensando Pollara 400 AI NIC 用于后端网络优化。Pensando Salina DPU 是第三代可编程 DPU,性能、带宽和规模提升至上一代产品的两倍,支持 400G 吞吐量,显著提高了数据传输速度。而 Pensando Pollara 400 搭载 AMD P4 可编程引擎,是业内首款支持 UEC 的 AI NIC,专为提升加速器集群之间的数据通信效率而设计。

这两款产品预计将在 2024 年第四季度进行采样,并计划于 2025 年上半年正式推出。

未来展望

在个人计算领域,AMD 的 Ryzen AI PRO 300 系列笔记本处理器也获得了显著提升。该系列采用台积电的 4nm 工艺制造,基于 Zen 5 和 XDNA 2 架构,显著增强了电池续航能力,并提高了安全性和性能。这款处理器已应用于企业设计的首款 Microsoft Copilot+ 笔记本上。

相关新闻推荐

登录

注册

登录
{{codeText}}
登录
{{codeText}}
提交
关 闭
订阅
对比栏
对比 清空对比栏