中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

谁能想到,只是让大模型讲笑话,论文竟入选了顶会 CVPR(国际计算机视觉与模式识别会议)!没开玩笑,这还真真儿的是一项正儿八经的研讨。例如看下面这张图,如果让你根据它来讲个笑话或梗,你会想到什么?现在的大模型看完后会说:脑子短路。再看一眼 蜘蛛侠 的海报,大模型会配一句“刚擦的玻璃不能弄脏”。李云龙 、 奥本海默 也被玩得飞起:导师读了我的论文之后……真男人不回头看爆炸。还有酱紫的:不得不说,大模型这脑洞还是挺大的。这项研讨正是来自中山大学 HCP 实验室林倞教授团队、Sea AI Lab 和哈佛大学等单位,主打的

谁能想到,只是让大模型讲笑话,论文竟入选了顶会 CVPR(国际计算机视觉与模式识别会议)

没开玩笑,这还真真儿的是一项正儿八经的研讨。例如看下面这张图,如果让你根据它来讲个笑话或梗,你会想到什么?

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

现在的大模型看完后会说:

脑子短路。

再看一眼 蜘蛛侠 的海报,大模型会配一句“刚擦的玻璃不能弄脏”

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

李云龙 、 奥本海默 也被玩得飞起:

导师读了我的论文之后……

真男人不回头看爆炸。

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

还有酱紫的:

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

不得不说,大模型这脑洞还是挺大的。

这项研讨正是来自中山大学 HCP 实验室林倞教授团队、Sea AI Lab 和哈佛大学等单位,主打的就是打破常规思想思虑(Think Outside the Box),探索多模态大模型的创造力。

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

要知道,同样的图要是“喂”给 ChatGPT(GPT-4)等主流大模型,让它们讲笑话或梗,画风可并非如此:

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

太正经了!So boring~~~~

那么中山大学等单位的这个“梗王大模型”,是怎么炼成的呢?

先让大模型看搞笑的数据

在数据的选择上,团队 pick 的是来自日本的“大喜利”(Oogiri)立异赞同游玩。

“大喜利”本来是指一系列日本传统戏剧游玩,随着时代的快速发展。现代的“大喜利”,目前一般是指一种叫 Tonchi (頓智)的游玩,通常以游玩节目或智力问答节目的形式呈现。

玩家被提供各种多模态实质,可以是简单的问题、随机图像等,然后提示玩家想出诙谐的、有创意的反应,以达到令人惊讶的喜剧效果。

例如下面这个“图文到文”的例子:

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

玩家要求阅读图像,和上面对应的文字,尝试想出一段文字填入对应的问号“?”位置,使得整个图文可以展示出诙谐且有创意的效果。

在第一个例子中,老人向年轻人寻求帮助,从正常的思想来看,可能的填写方式可以是“请问 xxx 路怎么走?”或者是“可以带我回家吗,我迷路了”之类的。

然而,所给出的“你… 你能帮我解开手铐吗?”的写法具有冲击感、诙谐感,且看起来确实是这么一回事,让人忍俊不禁。

再看下“图到文”的例子:

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

玩家要求看图配文,并使得图文搭配起来具有诙谐效果。

这张图看起来是一个很普通的拖车的图片(需要注意的是,在“大喜利”游玩中,一般图片都是很普通的日常图片)。

配文“快让开!我的兄弟伤得很严重”让倾斜着身体 45° 向上的车看起来像是一个奄奄一息的车子;在道路上快速的驰骋也确实体现了位于下方的车很着急,急着送兄弟去医院。

还有第三种“文到文”的例子:

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

玩家被要求根据所给的文字进行回复,使得回复和问题合在一起具备诙谐感。

这个例子中的回复似乎在调侃程序员的日常工作主要就是代码的“复制 + 粘贴”(注:CV 工程师除了可以表示 computer vision 工程师也可以表示 ctrl+c / ctrl+v 工程师 )。

这项工作主要关注的就是这三种类型的“大喜利”游玩,相关数据 Oogiri-GO 如下表所示,含中英日三种语言:

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

至于为什么要选择“大喜利”这个游玩,是因为团队认为它是用于探索多模态大模型立异能力的理想平台。具体原因如下:

“大喜利”游玩是天然的立异赞同任务。如上所提到的,现代“大喜利”也被称为 Tonchi (頓智)。“頓”在日文和中文中都表示“突然”,而“智”的意思是“智力、洞察力或直觉”,该游玩天然地要求玩家给出令人眼前一亮、灵光一闪的立异赞同;

“大喜利”的数据格式是高度合适的。不管是“图文到文”、“图到文”还是“文到文”,这些类型都天然地和目前多模特大模型的输入输出格式吻合,即输入为“图文”,输出仅为“文”。

“大喜利”数据质量高。立异是一件很难的事情,即使是人类,因此能作为“立异”相关的数据集并不多。鉴于该游玩长期在互联网上非常活跃(在中文社区中,一般也叫日式神吐槽 / 冷吐槽),而且带有大量点评数据,比如点赞数等等。正好积累了大量高质量人类立异诙谐赞同可以被用于研讨。

再让大模型打破常规思虑

传统的链式思虑(Chain-of-Thought,CoT)方法是一种顺序思虑过程,通过逐步推理指导大模型进行逻辑推理,每个后续的思虑都建立在前一个思虑的基础上:

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

这一思虑过程一定程度上确保了精确性和严谨性,但对于创造性问题表现不佳。

因此,团队探索了一种新的非顺序、创造性思想范式 —— 跳跃思想 Leap-of-Thought(LoT)。

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

这种范式涉及到思虑关涉性和知识跳跃。远距离的思虑也被认为是联想。

与 CoT 强调逻辑紧密的思想链不同,LoT 强调打破常规思想思虑问题,激发模型的创造力。

基于此,团队在 Oogiri-GO 数据集基础之上,进一步提出了一套激发多模态大模型创造力的训练方法 CLoT

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

具体而言,CLoT 包括两个阶段。

首先是关涉性指令微调

在这一阶段,本文安排生成式和判别式模板,将 Oogiri-GO 数据集转换为指令微调的训练数据,用于训练多模态大模型,使得模型具备初步的立异赞同能力。

其次是探索性自我调整

在这一阶段中,本文首先通过安排远关涉的条件词,促使(1)中的模型生成多样化且与输入远关涉的回答,并安排筛选流程,获得可靠的新 LoT 数据。随后,新数据被转换成指令微调的训练数据,用于进一步微调模型。

这一阶段可以再细分为两个步骤:

探索性远程关涉:这一步骤鼓励 LLM 在给定的弱关涉条件下产生立异的回应。通过这种方式,LLM 学习在看似不相关的概念之间建立联系,从而生成多样化的创意实质。

自我精炼:在探索性远程关涉的基础上,通过安排一系列筛选流程,收集到的创意回应被用来进一步训练 LLM。这样做可以提高 LLM 在处理创造性任务时的表现,使其能够生成更高质量和多样性的实质。

性能评价

为了尽可能全面评价 CLoT,这项研讨基于 Oogiri-GO 数据集,安排了选择题和排序题作为量化评价方式。

实验结果表明,CLoT 能够显著提高多模态大模型(如 Qwen 和 CogVLM)的性能,显著超越包括 GPT4v 在内的先进模型。

另外,与其他先进推理框架 CoT 等相比,在各项量化指标下也是有显著优势的。

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

此外,研讨团队还通过用户调查,证实了 CLoT 帮助模型生成了更好的诙谐实质。

中山大学团队“梗王”大模型,靠讲笑话登上 CVPR

研讨团队还考虑到了 CLoT 的泛化性,用“看云猜物 CGG”和“发散思想测试 DAT”两个其他任务评价 CLoT 的性能,实验结果显示 CLoT 相对于基准模型具有更好的准确度,说明 CLoT 具备不错的泛化能力。

DAT 是一种用于评价人类联想创造能力的测试。

团队介绍

中山大学人机物智能融合实验室 (HCP Lab) 由林倞教授于 2010 年创办,近年来在多模态实质理解、因果及认知推理、具身学习等方面取得丰富学术成果,数次获得国内外科技奖项及最佳论文奖,并致力于打造产品级的 AI 技术及平台。

论文:https://arxiv.org/ abs / 2312.02439

Project:https://zhongshsh.github.io/CLoT/

Code:https://github.com/sail-sg/CLoT

本文来自微信公众号:量子位 (ID:QbitAI),作者:关注前沿科技

给TA打赏
共{{data.count}}人
人已打赏
AI

报告:79.8% 受访美国人民失望对人工智能实施严峻法律羁系

2024-4-11 17:12:02

AI

国家网信办发布第五批深度分解办事算法存案信息,理念汽车 MindGPT 等 394 个算法在列

2024-4-11 18:32:27

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索