订阅

阅读量:

苹果正在悄悄研究AI大模型产品

2024年3月5日
  • 编辑:Ana Hu
  • 中国出海半导体网

 

近日,苹果公司悄悄发布了一篇名为《闪存中的大型语言模型:在有限内存下高效的大型语言模型推理》的论文,揭示了其在大模型领域端侧推理的技术亮点。这一消息引起了业界的广泛关注,让人们纷纷猜测,在“人工智能与大模型元年”中,一直保持沉默的苹果是否终于准备出手。

 

后发先至的苹果

苹果一直以“后发先至”的特质著称,即便在行业首发之后,凭借卓越的技术能力、设计理念以及生态体系,重新定义了产品和产业生态。这一特质不仅体现在早期的iPhone和Macbook等产品上,也在去年6月发布的MR头显上得以体现。

尽管苹果一直对于大模型保持沉默,但业内专家表示,这或许是苹果一贯的“后发制人”风格的延续。多位专家表示,虽然苹果在大模型领域一直保持低调,但其一直在悄悄积累实力,准备迎接适当时机的到来。

 

苹果大模型的前兆

业界对苹果大模型的关注早在去年就已开始。去年7月,首次传出苹果暗中测试大模型工具“Ajax”的消息,同时还传出了代号为“Apple GPT”的内部聊天机器人的消息。虽然外界猜测“Apple GPT”将为苹果的人工智能助手Siri带来革命性的升级,但直到目前为止,这一猜测还未成为现实。

去年11月,苹果悄然推出了一款名为Ferret的开源多模态大语言模型,拥有70亿和130亿两个参数版本,其图像处理技术在行业中处于领先地位。然而,由于该大模型仅面向研究机构开放,最终并没有走入大众视野。

图:苹果传出代号为Apple-GPT的内部聊天机器人

图:苹果传出代号为Apple GPT的内部聊天机器人

突破端侧难题的关键技术

苹果此次发布的论文揭示了其在大模型端侧推理方面的突破性技术。苹果首次提出利用闪存技术创新来解决大模型端侧部署的难题,使模型的运行规模能够达到iPhone可用内存的两倍。

具体而言,论文提到了两种关键技术。一是“窗口化”技术,通过允许模型重复使用部分已处理的数据,减少频繁读取内存的需要,从而提高大模型运行效率。二是“行-列捆绑”技术,通过对数据进行更有效的分组,使大模型能够更快地从闪存中读取数据,从而加速AI理解和生成语言的能力。

这两项关键技术的出现,让大模型在端侧的部署难题似乎有了可行的解决方案。然而,也有业内专家指出,闪存技术仍存在一些问题,需要在实际应用中进行验证。

 

苹果AI战略的未来展望

苹果公司在技术、内容和硬件方面都在逐步为其AI战略做准备。去年12月的消息显示,苹果正在就一项“价值至少5000万美元的多年期合作协议”展开讨论,与多家媒体接洽以获取过往新闻文章的使用授权,以作为大模型训练的数据源。这一“版权投资”显示了苹果在内容生成领域的计划性。

此外,据香港海通国际证券分析师Jeff Pu的报告,苹果可能已经建造了几百台AI服务器,计划最早于2024年末在iPhone和iPad上采用生成式AI技术。这意味着,用户有望在未来的iPhone和iPad上亲身体验苹果大模型。

总的来说,苹果在大模型领域的技术突破引起了广泛关注。其“后发先至”的风格和独特的技术路线为业界提供了不同寻常的展望。随着苹果不断深化在人工智能领域的布局,未来或许将迎来一个AI技术全面融入苹果产品和生态系统的时代。