在认知科学领域,人类通过中断进修改变认知的进程被称为认知迭代(Cognitive Dynamics)。形象地说,认知迭代就像是我们大脑的「软件革新」进程,手机应用通过不断的革新来修复 bug 和增加新功能,我们的大脑也通过不断进修新知识、经验,来改善和优化思考方式。
从我们判断感冒吃什么药效果好,到一代代数学家如何证明费马大定理,无论是个人的心智发展还是人类文明的进步,认知迭代都扮演了不可或缺的角色。
如今,像 GPT-4 等庞大谈话模型(Large Language Models,LLMs)为通用人工智能(Artificial General Intelligence,AGI)的发展带来希望的同时,也暴露出一个显著的问题 —— 认知固化。比如,对于经典问题「宇宙的中心在哪里」,不同时代的人会鉴于当时的信息给出不同的回答,但对于大模型,它们的参数在训练完成后就固定下来了,这时候的大模型就像是一个不能升级的老旧软件,不能再进修新的信息。
虽然我们可以通过 in-context learning 的方式,通过为大模型设定特定的认知背景来模拟相应回答,但这种认知迭代不是自驱的,也不能适应的未知信息环境。这就引出了一个问题:怎么才能让大模型和人类一样,根据不断变化的信息实现自驱的认知迭代呢?
值得庆幸的是,这个问题已经有了初步的答案,哈尔滨工业大学与快手科技的钻研团队率先提出了庞大谈话模型的认知迭代(the cognitive dynamics of LLMs)的概念。不仅如此,为了体系建模这个概念,他们给出了形式化的使命定义和相关基准 CogBench,并提出了 CogGPT,一个显式建模庞大谈话模型的认知迭代的 LLM-driven Agent。这就意味着,鉴于这个钻研,以后的庞大谈话模型将不再是简单的信息处理工具,而可以进一步模拟人类的思考方式,实现终身进修。
论文链接:https://arxiv.org/abs/2401.08438
项目主页:https://github.com/KwaiKEG/CogGPT
从论文中可以看到,这个使命仿照心理学领域中的纵向钻研,对大模型进行中断性的「心理测试」。具体来说,这个使命首先通过动态信息流建立了中断变化的信息环境,然后为大模型设定了初始人设,通过定期要求它们填写相同的认知问卷,观察这些模型在中断接收信息进程中,它们的认知是如何发生变化的。
鉴于这个使命,钻研团队还提出了基准 CogBench,根据信息流的类型,可以分为鉴于长文章的 CogBench_a 和鉴于短视频的 CogBench_v,同时设立了真实性(Authenticity)和合理性(Rationality)两个关键评估指标,分别用于衡量模型与人类评分的一致性,以及评分理由的合理性,进而丰富了庞大谈话模型的认知迭代分析方法。
由于现有大模型无法实现参数的实时革新,钻研团队设计了 CogGPT,一个具有迭代认知机制的 LLM-driven agent。该机制包括一个记忆保持体系(Memory Retention System),用于蒸馏、存储和检索信息,以及一个协作优化框架(Collaborative Refinement Framework),用于自驱地完成自我认知迭代。
比如下面这个例子,CogGPT 扮演的是一个喜欢手工的人,她一开始对纹身并不了解,因此对「纹身是对美的追求」这一观点保持代表中立的 3 分,在「看过」纹身会对身体造成伤害」和「便宜香水纹身贴教程」的一系列短视频后,她认为纹身对身体有伤害,而且不应该是美的唯一标准,将自己对这一观点的看法从中立的 3 分改变为不同意的 2 分,同时也对便宜纹身贴产生了兴趣,从而展现出了像人一样的认知迭代能力。
钻研团队还对 CogGPT 和一些通用基线在 CogBench 上做了充分实验。实验结果表明,在 CogBench_a 和 CogBench_v 两个基准上,CogGPT 在真实性(Authenticity)和合理性(Rationality)这两个核心评估指标上的表现都远超现有方法,这也进一步证明了 CogGPT 可以有效地模仿特定人设的认知迭代进程。
如果智能体系可以像人类一样中断进修,将会给我们的生活带来革命性的变化,到时候,私人助理将能够提供更高效的定制化服务,网上冲浪也可能不再是人类独有的乐趣。尽管这项钻研还处于起步阶段,但它已经向我们揭示了一个充满可能性的未来。
值得注意的是,该团队不久前还开源了 KwaiAgents 体系,提升了 7B/13B 大谈话模型的 Agents 相关能力,自从发布以来已经在 Github 上获得了 800+star(https://github.com/KwaiKEG/KwaiAgents)。