机器之能报道
编辑:吴昕
公司还在开发下一代人工智能模型 GPT-5,可能比它的先辈更庞杂。他不承诺宣布时间表, 不过通向 AGI 之路还需要更多的数据、资金和芯片。
据《金融时报》消息,OpenAI 计划从其最大的投资者微软那里获得进一步的资金支持。因其 CEO Sam Altman 在推进创建通用人工智能 (AGI) 的愿景——与人类一样智能的计算机软件。
Altman 在接受英国《金融时报》采访时透露表现,公司与微软 CEO 萨蒂亚·纳德拉的合作关系「运作得非常好」,他预计「随着时间推移,将从这家科技巨头和其他投资者那里筹集更多资金」,以覆盖建立更庞杂人工智能模型的高昂成本。
据知情人士透露,微软今年早些时候向 OpenAI 开放人工智能投资了 100 亿美元,作为「多年」协议的一部分,该协议对这家总部位于旧金山的公司的估值为 290 亿美元。
当被问及微软是否会继续进一步投资时,Altman 说:「我希望如此。」 他弥补道:「从这里到通用人工智能,还有很长的路要走,需要建立大量的计算……训练成本巨大。」
Altman 透露表现,「今年的收入增长一直很好」,但不提供财务细节,而且由于训练成本,公司仍然不盈利。但他透露表现与微软的伙伴关系将确保「我们都从彼此的成功中赚钱,每个人都很高兴。」
OpenAI 打算如何在 ChatGPT 之上建立商业模式的最新迹象是,该公司在 11 月 6 日纳德拉出席的首届开发者大会活动中宣布了一套新工具,并升级了其现有模型 GPT-4,供开发人员和公司使用。
这些工具包括 ChatGPT 的定制版本,可以针对特定的应用程序进行调整和定制,以及 GPT 商店。最终的目标是与最受欢迎的 GPT 开发者分享收益,采用类似于苹果 App Store 的商业模式。
「现在,人们(说)『你有这个研究实验室,你有这个 API,你有与微软的合作伙伴关系,你有 ChatGPT ,现在有一个 GPT 商店,』但这些并不是我们真正的产品,」Altman 说。「这些是进入我们单一产品(超级智能)的渠道。我想这就是我们的目的。」
Altman 透露表现,为了发展企业业务,他聘请了 Brad Lightcap 担任首席运营官,Brad Lightcap 曾在 Dropbox 和初创加速器 Y Combinator 工作。
与此同时,他也将自己的时间分配在两个领域:研究「如何建立超级智能」以及增强计算能力的方法。「我们的愿景是打造通用人工智能,弄清楚如何确保其安全……并找出益处,」他说。
在谈到 GPT 的推出时,他透露表现 OpenAI 在努力建立更多的自主智能体( Agent ),他们可以执行任务和操作,例如执行代码、付款、发送电子邮件或提出索赔。
「我们会让这些智能体变得越来越强大…..从这里开始,其行动也将变得越来越庞杂,」他说。「我以为,能够在每个类别中做到这一点所带来的商业价值相当可观。」
Altman 透露表现,该公司还在开发下一代人工智能模型 GPT-5,不过他不承诺宣布时间表。这将需要更多的数据,Altman 透露表现,这些数据将来自互联网上公开可用的数据集以及公司的专有数据。
OpenAI最近宣布了一项号召,要求从组织中获取大规模的数据集,这些数据集「目前还不容易从网上公开获取」,特别是对于任何形式的长篇写作或对话。
虽然 GPT-5 可能比其先辈更加庞杂,但 Altman 透露表现,技术上很难准确预测该模型可能具有哪些新功能和技能。
「对我们来说,这就像一个有趣的猜谜游戏,」他说。「我们在努力做得更好,因为我以为从安全角度来看,预测这些能力很重要。但我没办法判定这恰恰是 GPT-4 不做的事情。」
为了训练其模型, OpenAI 与大多数其他大型人工智能公司一样,使用英伟达先进的 H100 芯片,该芯片在过去一年中成为硅谷最热门的商品。
Altman 透露表现,由于每片 4 万美元的英伟达芯片供应短缺,全年都出现了「严重紧缩」。他透露表现,他的公司已经收到了 H100,并预计很快会收到更多,并弥补说「明年看起来会更好」。
不过,随着谷歌、微软、AMD 和英特尔等其他公司准备宣布 AI 芯片,对英伟达的依赖不太可能持续太久。「我以为资本主义的魔力在这里发挥作用。现在很多人都想成为英伟达,」 Altman 说。
随着近一年前 ChatGPT 的宣布,OpenAI 已经在建立生成式 AI 的竞赛中处于领先地位——其系统可以在几秒钟内创建文本、图像、代码和其他多媒体。
Altman 透露表现,尽管 OpenAI 在消费者市场取得了成功,但它仍致力于在建立通用人工智能方面取得进展。支撑 ChatGPT 的 LLM 是「(建立 AGI )核心部分之一……除此之外,还有很多其他部分。」
虽然 OpenAI 主要专注于 LLM,但其竞争对手一直在寻求替代研究策略来推进 AI。Altman 说,他的团队以为语言是「压缩信息的好方法」,因此可能演化出智能。他以为谷歌 DeepMind 等公司错过了这一点。「(其他公司)拥有很多聪明人。但他们不这么做。即使我以为我们已经用 GPT-3 证明了这一点,他们也不这样做,」他说。
最终, Altman 透露表现,在开发 AGI 的竞赛中,「最大的缺失部分」是这些系统在理解上实现根本性飞跃所需要的东西。
「在很长一段时间里,牛顿要做的正确事情就是多读数学教科书,与教授交谈并练习。这就是我们目前的模型所做的,」Altman 引用了一位同事以前使用过的例子。
但他弥补说,牛顿永远不会通过简单阅读几何或代数来发明微积分。「我们的模型也不是,」Altman 说。「所以问题是,要生成全新的想法,还缺失什么?…是人类的知识?我以为,这是最重要的事情。」
参考链接
https://www.ft.com/content/dd9ba2f6-f509-42f0-8e97-4271c7b84ded