谁能想到,只是让大模型讲笑话,论文竟入选了顶会 CVPR(国际计算机视觉与模式识别会议)!
没开玩笑,这还真真儿的是一项正儿八经的研讨。例如看下面这张图,如果让你根据它来讲个笑话或梗,你会想到什么?
现在的大模型看完后会说:
脑子短路。
再看一眼 蜘蛛侠 的海报,大模型会配一句“刚擦的玻璃不能弄脏”。
李云龙 、 奥本海默 也被玩得飞起:
导师读了我的论文之后……
真男人不回头看爆炸。
还有酱紫的:
不得不说,大模型这脑洞还是挺大的。
这项研讨正是来自中山大学 HCP 实验室林倞教授团队、Sea AI Lab 和哈佛大学等单位,主打的就是打破常规思想思虑(Think Outside the Box),探索多模态大模型的创造力。
要知道,同样的图要是“喂”给 ChatGPT(GPT-4)等主流大模型,让它们讲笑话或梗,画风可并非如此:
太正经了!So boring~~~~
那么中山大学等单位的这个“梗王大模型”,是怎么炼成的呢?
先让大模型看搞笑的数据
在数据的选择上,团队 pick 的是来自日本的“大喜利”(Oogiri)立异赞同游玩。
“大喜利”本来是指一系列日本传统戏剧游玩,随着时代的快速发展。现代的“大喜利”,目前一般是指一种叫 Tonchi (頓智)的游玩,通常以游玩节目或智力问答节目的形式呈现。
玩家被提供各种多模态实质,可以是简单的问题、随机图像等,然后提示玩家想出诙谐的、有创意的反应,以达到令人惊讶的喜剧效果。
例如下面这个“图文到文”的例子:
玩家要求阅读图像,和上面对应的文字,尝试想出一段文字填入对应的问号“?”位置,使得整个图文可以展示出诙谐且有创意的效果。
在第一个例子中,老人向年轻人寻求帮助,从正常的思想来看,可能的填写方式可以是“请问 xxx 路怎么走?”或者是“可以带我回家吗,我迷路了”之类的。
然而,所给出的“你… 你能帮我解开手铐吗?”的写法具有冲击感、诙谐感,且看起来确实是这么一回事,让人忍俊不禁。
再看下“图到文”的例子:
玩家要求看图配文,并使得图文搭配起来具有诙谐效果。
这张图看起来是一个很普通的拖车的图片(需要注意的是,在“大喜利”游玩中,一般图片都是很普通的日常图片)。
配文“快让开!我的兄弟伤得很严重”让倾斜着身体 45° 向上的车看起来像是一个奄奄一息的车子;在道路上快速的驰骋也确实体现了位于下方的车很着急,急着送兄弟去医院。
还有第三种“文到文”的例子:
玩家被要求根据所给的文字进行回复,使得回复和问题合在一起具备诙谐感。
这个例子中的回复似乎在调侃程序员的日常工作主要就是代码的“复制 + 粘贴”(注:CV 工程师除了可以表示 computer vision 工程师也可以表示 ctrl+c / ctrl+v 工程师 )。
这项工作主要关注的就是这三种类型的“大喜利”游玩,相关数据 Oogiri-GO 如下表所示,含中英日三种语言:
至于为什么要选择“大喜利”这个游玩,是因为团队认为它是用于探索多模态大模型立异能力的理想平台。具体原因如下:
“大喜利”游玩是天然的立异赞同任务。如上所提到的,现代“大喜利”也被称为 Tonchi (頓智)。“頓”在日文和中文中都表示“突然”,而“智”的意思是“智力、洞察力或直觉”,该游玩天然地要求玩家给出令人眼前一亮、灵光一闪的立异赞同;
“大喜利”的数据格式是高度合适的。不管是“图文到文”、“图到文”还是“文到文”,这些类型都天然地和目前多模特大模型的输入输出格式吻合,即输入为“图文”,输出仅为“文”。
“大喜利”数据质量高。立异是一件很难的事情,即使是人类,因此能作为“立异”相关的数据集并不多。鉴于该游玩长期在互联网上非常活跃(在中文社区中,一般也叫日式神吐槽 / 冷吐槽),而且带有大量点评数据,比如点赞数等等。正好积累了大量高质量人类立异诙谐赞同可以被用于研讨。
再让大模型打破常规思虑
传统的链式思虑(Chain-of-Thought,CoT)方法是一种顺序思虑过程,通过逐步推理指导大模型进行逻辑推理,每个后续的思虑都建立在前一个思虑的基础上:
这一思虑过程一定程度上确保了精确性和严谨性,但对于创造性问题表现不佳。
因此,团队探索了一种新的非顺序、创造性思想范式 —— 跳跃思想 Leap-of-Thought(LoT)。
这种范式涉及到思虑关涉性和知识跳跃。远距离的思虑也被认为是联想。
与 CoT 强调逻辑紧密的思想链不同,LoT 强调打破常规思想思虑问题,激发模型的创造力。
基于此,团队在 Oogiri-GO 数据集基础之上,进一步提出了一套激发多模态大模型创造力的训练方法 CLoT。
具体而言,CLoT 包括两个阶段。
首先是关涉性指令微调。
在这一阶段,本文安排生成式和判别式模板,将 Oogiri-GO 数据集转换为指令微调的训练数据,用于训练多模态大模型,使得模型具备初步的立异赞同能力。
其次是探索性自我调整。
在这一阶段中,本文首先通过安排远关涉的条件词,促使(1)中的模型生成多样化且与输入远关涉的回答,并安排筛选流程,获得可靠的新 LoT 数据。随后,新数据被转换成指令微调的训练数据,用于进一步微调模型。
这一阶段可以再细分为两个步骤:
探索性远程关涉:这一步骤鼓励 LLM 在给定的弱关涉条件下产生立异的回应。通过这种方式,LLM 学习在看似不相关的概念之间建立联系,从而生成多样化的创意实质。
自我精炼:在探索性远程关涉的基础上,通过安排一系列筛选流程,收集到的创意回应被用来进一步训练 LLM。这样做可以提高 LLM 在处理创造性任务时的表现,使其能够生成更高质量和多样性的实质。
性能评价
为了尽可能全面评价 CLoT,这项研讨基于 Oogiri-GO 数据集,安排了选择题和排序题作为量化评价方式。
实验结果表明,CLoT 能够显著提高多模态大模型(如 Qwen 和 CogVLM)的性能,显著超越包括 GPT4v 在内的先进模型。
另外,与其他先进推理框架 CoT 等相比,在各项量化指标下也是有显著优势的。
此外,研讨团队还通过用户调查,证实了 CLoT 帮助模型生成了更好的诙谐实质。
研讨团队还考虑到了 CLoT 的泛化性,用“看云猜物 CGG”和“发散思想测试 DAT”两个其他任务评价 CLoT 的性能,实验结果显示 CLoT 相对于基准模型具有更好的准确度,说明 CLoT 具备不错的泛化能力。
DAT 是一种用于评价人类联想创造能力的测试。
团队介绍
中山大学人机物智能融合实验室 (HCP Lab) 由林倞教授于 2010 年创办,近年来在多模态实质理解、因果及认知推理、具身学习等方面取得丰富学术成果,数次获得国内外科技奖项及最佳论文奖,并致力于打造产品级的 AI 技术及平台。
论文:https://arxiv.org/ abs / 2312.02439
Project:https://zhongshsh.github.io/CLoT/
Code:https://github.com/sail-sg/CLoT
本文来自微信公众号:量子位 (ID:QbitAI),作者:关注前沿科技