首页 > 全部资讯 > 行业新闻 > 苹果称其新人工智能优于Chat GPT4
芯达茂广告F 芯达茂广告F

苹果称其新人工智能优于Chat GPT4

苹果公司的一支人工智能研究团队最近表示,他们开发的AI系统“参考解析作为语言模型”(ReALM)在某些查询任务上的表现超过了GPT-4。为了详细介绍这一新系统及其独特的信息获取能力,该团队发布了一篇论文。这项成果展示了苹果在AI领域的最新进展,并可能对未来的人工智能技术和应用产生重要影响。

在过去几年里,像chat GPT-4这样的大型语言模型(LLMs)已经成为计算领域的主导力量,各家公司为了提升自家产品并吸引更多用户而展开了激烈的竞争。在这个过程中,苹果的步伐显得相对缓慢——其智能助手Siri在人工智能方面的功能增强并不显著。然而,在这次最新的尝试中,苹果的研究团队宣称他们的ReALM系统不仅仅是为了追赶竞争对手——在处理某些特定类型的查询任务时,该系统的性能甚至超过了目前向公众提供的其他所有大型语言模拟。

 

 

苹果称其新人工智能模型优于GPT-4

图一:苹果称其新人工智能模型优于GPT-4

苹果的研究团队在他们的论文中阐述了其大型语言模型(LLM)如何能够更准确地回答用户问题,原因在于该模型具备利用屏幕上的模糊参考信息以及获取对话和背景信息的能力。换言之,ReALM能够在搜索过程中分析用户的屏幕内容,寻找用户提问前的行动线索。

该模型还能够审视设备上其他正在运行的进程,以此为依据进一步理解用户提问前的思考轨迹。通过将这些信息融入传统的LLM处理技术,研究团队声称他们的系统能够更有效地为用户提供所需信息。

团队还表示,他们已经将ReALM系统与包括GPT-4在内的多个LLM进行了比较测试,并声称在某些特定类型的任务上,ReALM的表现超越了其他所有模型。此外,他们还提到苹果公司计划将ReALM集成到其设备和Siri之间,从而让Siri能够提供更为精准的答案。不过,这一功能可能仅限于升级至即将于今年夏天发布的iOS 18系统的用户使用。

这款AI模型主要有以下亮点:

  1. ReALM能够将屏幕上的视觉信息和上下文内容转换成人工智能能够理解的文本格式。这一过程涉及到对屏幕上的各种元素进行标记,以便为人工智能提供关于每个元素的功能和重要性的明确上下文信息。
  2. ReALM模型的体积显著小于其他视觉语言模型,最大的ReALM-3B模型也是如此。哪怕是参数量仅有8000万的最小型号,其在处理屏幕上的引用信息时也能带来超过5%的性能增长。这种适中的模型规模使得它们得以在智能手机等小型设备上得到应用。
  3. ReALM的最小模型明显优于5,其性能于GPT-4相匹配。大型模型在所有领域都优于GPT-4,搭建了更有效的解决方案。

苹果公司一直致力于在AI领域的研究和开发,旨在通过不断的技术创新来提升其产品和服务的智能化水平。ReALM模型的成功开发,无疑是苹果在这一领域取得的又一重要成果。

相关新闻推荐

登录

注册

登录
{{codeText}}
登录
{{codeText}}
提交
关 闭
订阅
对比栏
对比 清空对比栏