AI知道苹果是什么吗?DeepMind说话模型迷信家正把这些观念变得可量化、可测试

编辑 | 白菜叶与计算机迷信家 Ellie Pavlick 谈论她的工作——寻找大说话模型 (LLM) 中了解的证据——听起来可能像是在开玩笑。「hand-wavy」这个短语是她最喜欢的,如果她提到「意思」或「推理」,它通常会带有引号。作为一名在布朗大学和 Google DeepMind 钻研说话模型的计算机迷信家,她知道接受自然说话固有的模糊性是认真对待自然说话的唯一法子。「这是一门迷信学科——而且有点脆弱。」她说。从青春期开始,精确性和细微差别就一直存在于 Pavlick 的世界里,当时她喜欢数学和迷信。作为一

AI知道苹果是什么吗?DeepMind说话模型迷信家正把这些观念变得可量化、可测试

编辑 | 白菜叶

与计算机迷信家 Ellie Pavlick 谈论她的工作——寻找大说话模型 (LLM) 中了解的证据——听起来可能像是在开玩笑。「hand-wavy」这个短语是她最喜欢的,如果她提到「意思」或「推理」,它通常会带有引号。

作为一名在布朗大学和 Google DeepMind 钻研说话模型的计算机迷信家,她知道接受自然说话固有的模糊性是认真对待自然说话的唯一法子。「这是一门迷信学科——而且有点脆弱。」她说。

从青春期开始,精确性和细微差别就一直存在于 Pavlick 的世界里,当时她喜欢数学和迷信。作为一名本科生,她获得了经济学和萨克斯演奏学位,然后攻读计算机迷信博士学位,但她仍然觉得自己在这个领域是个局外人。

「很多人[以为]智能系统看起来很像计算机代码:整洁且方便,就像[我们]擅长了解的许多系统一样。」她说,「我只是相信答案很复杂。如果我有一个简单的解决方案,我很确定它是错误的。我不想犯错。」

一次偶然的机会,Pavlick 遇到了一位从事自然说话处理工作的计算机迷信家,于是她开始了她的博士钻研课题,钻研计算机如何编码语义或说话中的意思。「我以为这很有趣。」她说,「它涉及哲学,这与我目前在做的很多事情相符。」

现在,Pavlick 的主要钻研领域之一集中在「基本」——单词的含义是否取决于独立于说话本身而存在的事物的题目,例如感官知觉、社交互动,甚至思想。

说话模型完全基于文本进行训练,因此它们为探索基本对意思的重要性提供了一个富有成效的平台。但这个题目本身几十年来一直困扰着说话学家和思想家们。

「这些不仅仅是『技术』题目。」Pavlick说,「说话是如此之大,对我来说,感觉它涵盖了一切。」

在这里,媒体与 Pavlick 讨论了这些题目。

Q:从经验上来说,「了解」或「意思」意味着什么?具体来说,你在寻找什么?

A:当我在布朗大学开始我的钻研项目时,我们以为意思在某种程度上涉及观念。我意识到这是一个理论上的承诺,并不是每个人都会做出这样的承诺,但它看起来很直观。

如果你用「apple」这个词来表示苹果,你就需求一个苹果的观念。无论你是否使用这个词来指代它,它都必须是一件事。这就是「有意思」的含义:需求有一个观念,即你在用说话表达的物品。

我想在模型中找到观念。我想要一些我可以在神经网络中获取的物品,证明有一个物品在里面代表「苹果」,这使得它可以被同一个词一致地引用。因为似乎确实存在这类里面结构,它不是随机的、任意的。你可以找到这些定义明确的函数的小块,可以可靠地执行某些操作。

我一直专注于描述这类里面结构。它有什么形式?它可以是神经网络内权重的某个子集,或者是对这些权重的某种线性代数运算,某种几何抽象。但它必须在[模型的行为中]发挥因果作用:它与这些输入相关,但与那些输出无关,与这些输出相关,但与那些输出无关。

这感觉就像你可以开始称之为「意思」的物品。这是关于弄清楚如何找到这类结构并建立干系,以便一旦我们将其全部到位,我们就可以将其应用于诸如「它知道『苹果』意味着什么吗?」之类的题目。

Q:你找到过这类结构的例子吗?

A是的,有一个钻研结果涉及说话模型何时检索一条信息。

AI知道苹果是什么吗?DeepMind说话模型迷信家正把这些观念变得可量化、可测试

论文链接:https://arxiv.org/abs/2305.16130

如果你询问模型「法国的都城是什么」,它需求说「巴黎」,而「波兰的都城是什么」应该回复「华沙」。它很容易记住所有这些答案,并且它们可以分散在[模型内]各处 – 没有真正的理由让它在这些事物之间建立联系。

相反,我们在模型中发现了一个有趣的小地方,它基本上将连接简化为一个小向量。如果将其添加到「法国的都城是什么」,它将检索「巴黎」;如果你问「波兰的都城是什么」,同一个向量将检索「华沙」。就像这个系统的「检索都城城市」向量。

这是一个无比令人兴奋的发现,因为[该模型]似乎是在总结这些小观念,然后对它们应用通用算法。尽管我们在钻研这些无比 [简单] 的题目,但它是为了寻找模型在使用的这些原始成分的证据。

在这类情况下,摆脱记忆会更容易——在很多方面,这就是这些网络的设计目的。相反,它将[信息]分解为碎片和相关的「原因」。我们希望,当我们提出更好的实验设计时,我们可能会为更复杂的观念找到类似的物品。

Q:「基本」与这些表述有何干系?

A:人类学习说话的方式基于大量的非说话输入:你的身体感觉、你的情绪、你是否饿了等等。这被以为对于意思来说无比重要。

但还有其他一些与里面表征更多相关的基本观念。有些词与物质世界没有明显的联系,但它们仍然有意思。像「民主」这样的词就是一个最喜欢的例子。这是你脑子里的一件事:我可以在不谈论民主的情况下思考它。所以基本可能是从说话到那个物品,那个里面表征。

Q:但你以为,即使是更外在的事物,比如色彩,也可能仍然锚定于里面「观念」表征,而不依赖于感知。那会如何运作呢?

A:嗯,说话模型没有眼睛,对吧?它对色彩一无所知。所以也许[它捕获]了一些更普遍的物品,比如了解它们之间的干系。我知道当我将蓝色和红色混合起来时,我会得到紫色;这些类型的干系可以定义这类里面[基本]结构。

我们可以使用 RGB 代码 [代表色彩的数字字符串] 向 LLM 提供色彩示例。如果你说「好的,这里是红色」,并给出红色的 RGB 代码,「这是蓝色」,给出蓝色的 RGB 代码,然后说「告诉我紫色是什么」,它应该生成紫色的 RGB 代码。这类映射应该很好地表明模型的里面结构是健全的——它缺少[色彩]的感知,但观念结构就在那里。

棘手的是,[模型]只能记住 RGB 代码,这些代码遍布其训练数据。因此,我们「倒转」了所有色彩[远离其真实的 RGB 值]:我们会告诉 LLM,「黄色」一词与代表绿色的 RGB 代码相关联,依此类推。该模型表现良好:当你要求绿色时,它会给你 RGB 代码的倒转版本。这表明其里面色彩表示存在某种一致性。它是应用他们之间干系的知识,而不仅仅是记忆。

这就是「基本」的全部要点。将名称映射到色彩是任意的。更多的是关于他们之间的干系。所以这很令人兴奋。

Q:这些听起来很哲学的题目怎么可能是迷信的呢?

A:我最近看到了一个思想实验:如果海洋冲到沙子上并且[当它]退潮时,留下的图案会生成一首诗,会怎么样?这首诗有意思吗?这看起来无比抽象,你可以进行很长的哲学辩论。

说话模型的好处是我们不需求思想实验。这不像是「从理论上讲,这样那样的物品会有智能吗?」 只是:这物品有智能吗?它变得迷信和可实践。

有时人们会不屑一顾;有一种「随机鹦鹉学舌」法子。我以为这是因为有人担心人们会过度关注这些物品——我们确实看到了这一点。为了纠正这一点,人们会说:「不,这都是骗局。这都是雾里看花。」

这有点帮倒忙。我们发现了一些无比令人兴奋和新颖的物品,值得深入了解它。这是一个巨大的机会,不应该因为我们担心过度解释模型而被忽视。

Q:当然,你也做出了钻研来澄清这类过度解释。

AI知道苹果是什么吗?DeepMind说话模型迷信家正把这些观念变得可量化、可测试

论文链接:https://www.semanticscholar.org/paper/Right-for-the-Wrong-Reasons:-Diagnosing-Syntactic-McCoy-Pavlick/42ed4a9994e6121a9f325f5b901c5b3d7ce104f5

A:在这项工作中,人们发现了模型所利用的所有「浅层启发法」(以模仿了解)——这些对于我作为一名迷信家的成长来说是无比基本的。

但这很复杂。就像,不要太早宣称胜利。[我内心]对评估是否正确有一点怀疑或偏执,即使是我知道我设计得无比仔细的评估!这就是其中的一方面:不要过度宣称。

另一方面是,如果你处理这些[说话模型]系统,你就会知道它们不是人类水平的——它们解决题目的方式并不像看起来那么智能。

Q:当这个领域有如此多的基本法子和术语存在争议时,你如何衡量成功呢?

A:我以为,作为迷信家,我们在寻找的是对我们所关心的事物(在本例中为才华)的精确、人类可以了解的描述。然后我们附上文字来帮助我们到达那里。我们需求某种工作词汇。

但这很难,因为这样你就可能陷入这场语义之战。当人们问「它有意思吗:是或否?」 我不知道。我们把对话引向了错误的方向。

我试图提供的是对我们关心解释的行为的精确描述。在这一点上,无论你想称之为「意思」还是「表征」,或者任何这些负载词,都没有什么意思。关键是,有一个理论或提议的模型摆在桌面上——让我们对其进行评估。

Q:那么,说话模型的钻研如何才能转向更直接的法子呢?

A:我真正希望能够回答的深层题目——才华的组成部分是什么?人类的智慧是什么样的?模型智能是什么样的?——真的很重要。但我以为未来 10 年会发生的事情并不是很迷人。

如果我们想要处理这些[里面]表征,我们需求找到它们的法子——迷信上合理的法子。如果以正确的方式完成,这类低级的、超级杂乱的法子论的物品就不会成为头条新闻。但这是真正重要的物品,可以让我们正确回答这些深刻的题目。

与此同时,模型将不断变化。因此,人们会继续发布很多物品,好像这是「突破」,但事实可能并非如此。在我看来,现在取得重大突破还为时过早。

人们在钻研这些无比简单的任务,比如询问[一个需求完成的说话模型]「约翰给_______喝了一杯酒」,并试图看看它是说「约翰」还是「玛丽」。这没有解释才华的结果的感觉。

但我确实相信,我们用来描述这个无聊题目的工具对于回答有关才华的深层题目至关重要。

相关报道:https://www.quantamagazine.org/does-ai-know-what-an-apple-is-she-aims-to-find-out-20240425/

给TA打赏
共{{data.count}}人
人已打赏
理论

平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞诠释办法

2024-4-29 10:17:00

理论

参数量不到10亿的OctopusV3,如何媲美GPT-4V和GPT-4?

2024-5-1 16:26:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索