机器之能报道
编辑:Sia
就在 OpenAI 陷入混乱的这几天,竞争对手们——无论是始创公司还是巨头——也没袖手旁观。除了用销售电话「轰炸」对方企业客户,自家基石模型或具体应用都有了重要进展。
直接竞争对手之一、也曾牵涉这起混乱的 Anthropic 刚刚为市场提供了一个新的替代方案——最新发布的 Claude 2.1 对公司旗舰大型语言模型做了三项重要革新。其中,最引人瞩目的是 Claude 2.1 支持上下文窗口达 200K,Anthropic 表示这是一项复杂的壮举,也是行业首创。在此之前,OpenAI 在开发者日上公布的 GPT-4 上下文窗口为 128K。200K 相当于大约 150,000 个单词,约 500 页的材料,这对于「整个代码库、财务报表(如 S-1 ),甚至是《伊利亚特》、《奥德赛》等长篇文学作品来说已经足够了。」公司博客中写道。
用户现在可以上传大量文档,扫描材料后,Claude 就可以与大量实质或数据对话并进行归纳、执行问答、预测趋势、比较多个文档以及执行其他类型的分析。
Claude 谈天服务今年上线至今,已经有数百万用户使用它来翻译学术报告、起草商业文书或者分析复杂合约。许多用户在处理庞大文件时,希望能有更长的上下文窗口和更精确输出,因此,Anthropic 决定进一步扩大窗口规模。透过与大量实质或数据交谈,革新后的模型可以进行归纳、执行问答、预测趋势、比较多个文档等。过去通常需要数小时人工才能完成的任务, 现在仅需几分钟,随着技术进步,预计延迟也将大幅降低。理论上,技术可以提供用户想要的任何上下文长度,但拥有更多信息并不一定意味着模型也能很好地处理它。有网友 @Greg Kamradt 对 Claude 2.1 上下文影象进行了压力测试,有一些重要发现:
网友 Greg Kamradt 对 Claude 2.1 的 200k Token 上下文影象能力进行了压力测试,并获得了一些重要发现。
比如,异常靠近文档开始、结尾位置事例影象的精确率几乎 100%,但难以记住和推理中间部分信息。靠近开头部分事例的影象表现不如对尾部事例的影象(类似 GPT-4)。另外,上下文越少,精确性越高。输入超过 90K Token 的上下文长度,影象能力会逐渐变差。不过,就大多数日常应用来说,32K、64K 上下文窗口长度已经足够。
Claude 2.1 另一个令人印象深刻的革新就是改善对实质的理解和摘要水平。公司称,「幻觉率降低 2 倍」——与 Claude 2.0 模型相比,虚假陈述减少了 2 倍。他们利用一些已知的弱点问题来考验新模型,比如「大量复杂的、事例性的问题」。他们发现,该模型「明显更有可能提出异议,而不是提供错误信息。」
也就是说,更有可能做出表示不确定的回覆,比如「我不确定玻利维亚第五大人口城市是什么」,而不是直接给到错误答案,例如「玻利维亚人口第五多的城市是蒙特罗。」
另外,该模型在理解和归纳方面也做了重要改进,特别是法律文件、财报以及技术说明等需要高精确度实质的文档,错误答案比例减少了 30%,将支持性的特定声明文件进行错误推论的情况减少了 3-4 倍。
第三,Claude 2.1 通过整合特定的工具(类似 Agent)来弥补模型不足。用户可以自定义一组工具供 Claude 挪用,根据任务自动执行操作。比如,如果发现解决某个问题需要使用计算工具或者挪用某个 API,模型就会自动挪用。
另外,新模型还有提供了常见的系统提醒,在用户输入提醒之前,先设定模型的系统提醒,比如告诉其扮演特定角色,以更加一致的方式来回覆问题。Anthropic 的模型可能并不总是与 OpenAI 的模型旗鼓相当,但这个行业发展很快,竞争也异常激烈,另一个例子就是对话式谈天机器人 Pi 背后的始创公司 Inflection AI 刚刚完成新的 AI 模型 Inflection-2 的训练。
Inflection-2 比 Inflection-1 的能力要强得多,主要体现在事例知识的显著改进、更好的风格控制以及推理能力的提升。
和竞品相比,Inflection-2 的表现优于 LLaMA 2 的最大 700 亿参数版本、Elon Musk 的 xAI 始创公司 Grok-1、谷歌的 PaLM 2 Large 和 Anthropic 的 Claude 2。
公司 CEO Mustafa Suleyman ( 也是 Google DeepMind 联合创始人兼前任负责人)声称, Inflection-2 的规模可以被认为是同类产品中最好的——「异常异常接近」GPT-4。从今天开始,Inflection 正在将其培训重点转移到下一个模型上,他预测,该模型将在六个月内达到其前身的 10 倍,再过六个月将达到 10 倍。Inflection-1、Google PaLM 2-Large 和 Inflection-2 在一系列常用学术基准中的比较。Suleyman 表示,革新后的模型将很快集成到 Inflection 5 月发布的谈天机器人 Pi 中。在此之前,还需要更多的「对齐」,调教 Pi 的语气和回覆风格,还要降低模型幻觉。Suleyman 本人此前曾直言不讳地谈论人工智能安全,在 7 月作为拜登政府召集的七家 AI 公司之一签署了 AI 风险管理的自愿承诺书。他还发誓,要 Pi 远离回覆与选举有关的问题和为政治竞选活动制作材料。他最近出版了一本书,其中详细介绍了人工智能的风险,名为「即将到来的浪潮(The Coming Wave)」。事例上,Suleyman 与 IIya Sutskever 有过交集,后者曾作为 DeepMind 的承包商和顾问为其工作。「我异常尊重他,不仅仅是在技术上,而且他异常有原则,异常真诚。我认为他和团队其他成员的意图是真诚的。」Suleyman 在接受福布斯采访时谈到了对这次 OpenAI 地震的一些看法。
除了两大创业公司基石模型的重要革新,巨头在应用层面也有新的动作。谷歌 Bard 正在为用户提供视频解读功能。从昨天开始, 测试用户可以通过提问 Bard ,大致了解 YouTube 视频实质。举个例子。有烹饪经验的人都知道熟记食物配方、每种配方的量和比例有多么头疼和复杂。6 寸戚风蛋糕到底要多少个鸡蛋?多少克糖?一杯稀释咖啡马天尼要加多少本尼迪克特酒?现在有了Bard 的帮助,用户只用输入一些提醒,就会得到一份完整的稀释咖啡马天尼成分清单以及操作步骤,省去来回拖曳视频寻找关键信息的麻烦。
Bard可以归纳视频中的关键点,并精确回覆稀释咖啡马天尼的配方。在归纳这段视频时,Bard 涵盖了所有关键部分,比如配料和用量都是精确的,操作说明也是正确的,甚至精确提醒你第一步要用带有冰块的水冷却马提尼杯。唯一不太精确的是,它告诉你应该摇晃饮料 30 秒——但视频绝对没有演示或建议你摇晃这么长时间。另外,想要获得完整配方,单靠 Bard 生成是不行的,需要你在提醒中明确要求「步骤说明」时才会间接获得。Google Bard 虽然在很多方面可能不如 ChatGPT,但它正在变得越来越有用。同时,另一个热度不亚于 OpenAI GPT-4 的竞争对手 Grok ,马斯克称,也将于下周向 X Premium+ 订阅者推出。
虽然马斯克关于产品交付时间框架的声明并不总是有效,但 X 应用程序的代码开发表明 Grok 集成已经在进行中。
本周,应用程序研究员 Nima Owji 分享了屏幕截图,显示了如何将 Grok 添加到 X 的网络应用程序中,并指出其 URL 为 twitter.com/i/grok。
一张截图展示了一个「Ask Grok」文本输入框,用于与谈天机器人对话。
另一张屏幕截图中,尚未成为 Premium+ 订阅者的用户将被邀请升级以获得对 Grok 的访问权限。
参考链接https://www.anthropic.com/index/claude-2-1https://inflection.ai/inflection-2https://www.theverge.com/2023/11/22/23972636/bard-youtube-extension-update-search-video-content