苹果研究人员称其设备端模型 ReALM 功能优于 GPT-4,可大幅晋升 Siri 智能程度

虽然目前 Siri 可以尝试形貌信息中的图象,但效果并不稳定。不过,苹果公司并没有放弃人工智能领域的探索。在最近的一篇研究论文中,苹果的人工智能团队形貌了一种可以明显晋升 Siri 智能的模型,而且他们认为这个名为 ReALM 的模型在尝试中优于 OpenAI 的知名语言模型 GPT-4.0。IT之家注意到,ReALM 的特别之处在于,它可以同时了解用户屏幕上的实质和正在进行的操作。论文将信息分为以下三种类型:屏幕实体:指的是当前显示在用户屏幕上的实质。对话实体:指的是与对话相关的实质。例如,用户说“打电话给母亲”

虽然目前 Siri 可以尝试形貌信息中的图象,但效果并不稳定。不过,苹果公司并没有放弃人工智能领域的探索。在最近的一篇研究论文中,苹果的人工智能团队形貌了一种可以明显晋升 Siri 智能的模型,而且他们认为这个名为 ReALM 的模型在尝试中优于 OpenAI 的知名语言模型 GPT-4.0。

苹果研究人员称其设备端模型 ReALM 功能优于 GPT-4,可大幅晋升 Siri 智能程度

IT之家注意到,ReALM 的特别之处在于,它可以同时了解用户屏幕上的实质和正在进行的操作。论文将信息分为以下三种类型:

屏幕实体:指的是当前显示在用户屏幕上的实质。

对话实体:指的是与对话相关的实质。例如,用户说“打电话给母亲”,那么母亲的联系人信息就是对话实体。

背景实体:指的是与用户当下操作或屏幕显示实质可能并不直接相关的实体,比如正在播放的音乐或即将响起的闹铃。

如果能够完美运行,ReALM 将使 Siri 变得更加智能和适用。他们将 ReALM 与 OpenAI 的 GPT-3.5 和 GPT-4.0 进行了功能比较:

“我们同时尝试了 OpenAI 供应的 GPT-3.5 和 GPT-4.0 模型,并为它们供应了上下文信息,让它们预测一系列可能的实体。GPT-3.5 只接受文本输入,因此我们只供应了文字提示。而 GPT-4 能够了解图象信息,因此我们为它供应了屏幕截图,这明显晋升了它的屏幕实体辨别功能。”

那么苹果的 ReALM 表现如何呢?

“我们的模型在辨别不同类型实体方面均取得了明显进步,即使是最小的模型,在屏幕实体辨别上的准确率也比原有系统晋升了 5% 以上。与 GPT-3.5 和 GPT-4.0 的比较中,我们最小的模型与 GPT-4.0 的功能相当,而更大的模型则明显优于它。”

论文的结论之一是,ReALM 即使拥有比 GPT-4 少得多的参数,也能在功能上与之匹敌,并且在处理特定领域的用户指令时表现更加出色,这使得 ReALM 成为一种可以在设备端运行的、适用高效的实体辨别系统。

对于苹果而言,如何在不影响功能的情况下将这项技术应用于设备似乎是关键所在,随着 WWDC 2024 开发者大会即将于 6 月 10 日召开,外界普遍期待苹果将在 iOS 18 等新系统中展示更多的人工智能技术成果。

给TA打赏
共{{data.count}}人
人已打赏
AI

AI 程序员 Devin 独角兽半年估值 20 亿美元?业内曝 AI 泡沫:买卡 500 亿,收入 30 亿

2024-4-1 22:56:49

AI

OpenAI 宣布用户无需注册账号便可应用 ChatGPT,但有部分限制

2024-4-2 6:55:30

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索