订阅

阅读量:

性能提升:英伟达最新AI芯片开始供货

2024年4月2日
  • 编辑:Betty
  • 中国半导体出海网

据日经中文网报道,近日英伟达正式宣布开始供货尖端图像处理半导体(GPU)“H200”。H200 是一款面向人工智能的半导体,这款芯片在制程技术、核心架构、显存技术等方面均实现了显著的提升,为AI领域的发展注入了新的活力。根据英伟达公司公布的性能测评结果表示,H200芯片在性能上实现了显著的提升:以Meta公司旗下大语言模型Llama2的处理速度为例,H200与H100相比,生成式AI导出答案的处理速度最高提高了45%。这使得H200在处理自然语言处理、图像识别等AI任务时更加高效,为用户提供更流畅、更准确的体验。其性能于前一代H100芯片相比,H200的性能提升了60%-90%。这一飞跃得益于其搭载的”世界上最快的内存“HBM3e技术,使得H200有了比A100和H100最高80GB内存的两倍内存容量。同时,H200的宽带达到了4.8T每秒,是A100的2.4倍,也显著高于H100的3.35TB每秒宽带。这一提升将使得H200在处理大规模数据和复杂计算任务时更加得心应手。

图一:英伟达H200

据了解,H200采用了先进的台积电4nm制程工艺,并沿用了英伟达为AI和高性能计算设计的专用架构——Hopper架构。这一技术组合使得H200在性能上实现了质的飞跃,为AI应用提供了更强大的计算能力。H200基于与H100相同的Hopper架构,继承了H100的所有功能,包括Transformer Engine功能,该功能专门用于加速基于Transformer架构搭建的深度学习模型。此外,H200与H100在软件和硬件上星湖兼容,确保了用户可以无缝过渡到新一代产品。据悉,H200芯片将被广泛应用于数据中心和超级计算机,处理包括天气和气候预测、药物发现、量子计算等重要任务。它将适用于各种类型的数据中心,包括本地、云、混合云和边缘数据中心,并由Amazon Web Services、Google Cloud、Microsoft Azure和Oracle Cloud Infrastructure等云服务商部署。英伟达方面表示,H200的推出将进一步加速AI领域的发展。无论是云服务提供商、企业还是研究机构,都可以借助H200提供的高性能计算和AI加速能力,实现更高效的数据处理和复杂的分析任务。同时,H200的广泛应用也将推动相关产业的发展和创新。英伟达的竞争对手AMD已经推出了其最新的AI芯片MI300X,拥有高达192GB的HBM3内存和5.2TB/秒的带宽。尽管面临竞争,英伟达表示正在与合作伙伴合作以满足市场需求。然而,市场供应是否会受到限制仍然是一个问题,英伟达尚未给出明确答案。

H200的发布对英伟达公司的股价产生了积极影响。自年初以来,英伟达的股价已经上涨超过230%,公司总市值达到1.2万亿美元。H200的成功发布可能会进一步推动股价上涨,尤其是在生成式AI的热潮中。目前,英伟达已开始接受分销商对华专供新款AI芯片H200的预订。每张H200的定价在1.2万~1.5万美元区间,略低于华为AI芯片昇腾910B的售价。一些分销商已经开始在广告中大幅加价销售,显示出市场对这款高性能AI芯片的热切需求。随着H200的推出,英伟达将继续巩固其在AI芯片市场的领先地位,为AI领域的发展注入新的动力。未来,我们期待英伟达能够推出更多创新性的产品和技术,推动AI领域的持续进步和繁荣。