ReALM

苹果AI放大招?新设备端模型超过GPT-4,有望拯救Siri

或许不久之后,Siri就能看懂手机屏幕并帮你点外卖了。在最近的一篇论文中,苹果的研究人员宣称,他们提出了一个可以在设备端运行的模型,这个模型在某些方面可以超过 GPT-4。具体来说,他们研究的是 NLP 中的指代消解(Reference Resolution)问题,即让 AI 识别文本中提到的各种实体(如人名、地点、组织等)之间的指代关系的过程。简而言之,它涉及到确定一个词或短语所指的具体对象。这个过程对于理解句子的意思至关重要,因为人们在交流时经常使用代词或其他指示词(如「他」、「那里」)来指代之前提到的名词或名

苹果研究人员称其设备端模型 ReALM 性能优于 GPT-4,可大幅提升 Siri 智能程度

虽然目前 Siri 可以尝试描述信息中的图像,但效果并不稳定。不过,苹果公司并没有放弃人工智能领域的探索。在最近的一篇研究论文中,苹果的人工智能团队描述了一种可以显著提升 Siri 智能的模型,而且他们认为这个名为 ReALM 的模型在测试中优于 OpenAI 的知名语言模型 GPT-4.0。IT之家注意到,ReALM 的特别之处在于,它可以同时理解用户屏幕上的内容和正在进行的操作。论文将信息分为以下三种类型:屏幕实体:指的是当前显示在用户屏幕上的内容。对话实体:指的是与对话相关的内容。例如,用户说“打电话给妈妈”
  • 1