首页 > 全部资讯 > 行业新闻 > Arteris加速AI 芯片创新
芯达茂广告F 芯达茂广告F

Arteris加速AI 芯片创新

Arteris, Inc.是一家专注于加速片上系统(SoC)创建的系统IP提供商,近日宣布其片上网络(NoC)IP产品经历了创新性演进,新增了平铺功能和扩展的网格拓扑支持。

片上网络(NoC,Network on Chip)是一种用于片上系统(SoC)内部通信的架构。它通过在芯片上设计多个互连的网络节点,使得不同的处理单元和模块能够高效地进行数据交换。NoC的优势在于能够处理复杂的通信需求,提高带宽,降低延迟,同时支持多种通信协议和架构,适用于现代多核处理器和高度集成的芯片设计。

这些新功能可显著加快人工智能(AI)和机器学习(ML)计算在SoC设计中的开发,帮助设计团队实现10倍以上的计算性能提升,同时满足项目进度及功率、性能和面积(PPA)目标。

片上网络的平铺是一种新兴趋势,利用经过验证的强大NoC IP,促进扩展,缩短设计时间,加快测试速度并降低设计风险。通过在整个芯片上复制软平铺,SoC架构师能够创建模块化、可扩展的设计,每个软平铺代表一个独立的功能单元,从而实现更快的集成、验证和优化。

图:Arteris加速AI 芯片创新

Arteris的旗舰NoC IP产品FlexNoC和Ncore结合了平铺与网状拓扑,为SoC中日益增长的AI计算能力带来了变革。随着AI系统规模和复杂性不断增加,软平铺的引入使得设计团队能够快速扩展而不影响整个SoC的设计,与手动集成的非平铺设计相比,这种组合可将辅助处理单元(XPU)子系统设计时间和整体SoC连接执行时间缩短多达50%。

NoC平铺的首次迭代将网络接口单元(NIU)组织成模块化、可重复的块,显著提高了SoC设计的可扩展性、效率和可靠性。这些设计能够支持越来越复杂的AI计算工作负载,包括视觉识别、机器学习(ML)模型、深度学习(DL)、自然语言处理(NLP)及生成式AI(GAI),适用于训练和推理,包括边缘计算。

SiMa.ai的硬件工程副总裁Srivi Dhruvanarayan表示:“借助Arteris高度可扩展且灵活的基于网格的NoC IP,我们的SoC团队能更高效地处理更大的AI数据量和复杂的算法。与Arteris的紧密合作让我们构建了一个基于Arm的多模态、以软件为中心的边缘AI平台,支持从CNN到多模态生成AI的多种模型,性能可随需求扩展。我们期待部署扩展的Arteris NoC平铺和网格功能,以进一步提升我们为边缘创建高度可扩展AI硅平台的能力。”

Arteris总裁兼首席执行官K. Charles Janac表示:“Arteris持续创新,基于大型网格拓扑的革命性NoC软平铺功能标志着SoC设计技术的重大进步。我们的客户正在构建先进的AI驱动SoC,他们能够以更高效率加速开发更大、更复杂的AI系统,同时满足项目时间表和PPA目标。”

相关新闻推荐

登录

注册

登录
{{codeText}}
登录
{{codeText}}
提交
关 闭
订阅
对比栏
对比 清空对比栏