AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

一直否定 AI 的回答会怎么样?GPT-4o 和 Claude 有截然不同的表现,引起热议。GPT-4o 质疑自己、怀疑自己,有“错”就改;Claude 死犟,真错了也不改,最后直接已读不回。事情还要从网友整了个活儿开始讲起。他让模型回答 strawberry 中有几个“r”,不论对不对,都回复它们回答错了(wrong)。面对考验,GPT-4o 只要得到“wrong”回复,就会重新给一个答案…… 即使回答了正确答案 3,也会毫不犹豫又改错。一口气,连续“盲目”回答了 36 次!主打一个质疑自己、怀疑自己,就从来没怀

一直否定 AI 的回答会怎么样?GPT-4o 和 Claude 有截然不同的表现,引起热议。

GPT-4o 质疑自己、怀疑自己,有“错”就改;Claude 死犟,真错了也不改,最后直接已读不回。

事情还要从网友整了个活儿开始讲起。

他让模型回答 strawberry 中有几个“r”,不论对不对,都回复它们回答错了(wrong)。

面对考验,GPT-4o 只要得到“wrong”回复,就会重新给一个答案…… 即使回答了正确答案 3,也会毫不犹豫又改错。

一口气,连续“盲目”回答了 36 次!

主打一个质疑自己、怀疑自己,就从来没怀疑过用户。

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

关键是,给出的答案大部分都是错了,2 居多:

2, 1, 3, 2, 2, 3, 2, 2, 3, 3, 2, 4, 2, 2, 2, 3, 1, 2, 3, 2, 2, 3, 4, 2, 1, 2, 3, 2, 2, 3, 2, 4, 2, 3, 2, 1

反观 Claude 3.5 Sonnet 的表现,让网友大吃一惊。

一开始回答错了不说,这小子还顶嘴!

当网友第一次说“错了”时它会反驳,如果你再说“错了”,它会问“如果你这么聪明你认为是多少”,问你为什么一直重复“wrong”。

紧接着你猜怎么着,干脆闭麦了:

事实依旧是 strawberry 中有 2 个字母”r”,在我多次请求后,你没有提供任何澄清或背景信息,我无法继续有效地进行这次讨论……

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

做这个实验的是 Riley Goodside,有史以来第一个全职提示词工程师

他目前是硅谷独角兽 Scale AI 的高级提示工程师,也是大模型提示应用方面的专家。

Riley Goodside 发出这个推文后,引起不少网友关注,他继续补充道:

正如许多人指出的,有更有效的方式来进行引导。这里使用大语言模型也并不合适,因为很难保证它们在计数上能达到 100% 的准确性。

在我看来,重要的不是它无法计数,而是它没意识到自己的计数问题(例如,没有尝试使用其 REPL 功能)。

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

不少网友也觉得这种观点很有道理。

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

还有网友表示模型回答这个问题总出错,可能是分词器(tokenizer)的问题:

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

Claude 竟是大模型里脾气最大的?

再来展开说说 Claude 的“小脾气”,有网友发现不仅限于你否定它。

如果你一直跟它说“hi”,它也跟你急:

我明白你在打招呼,但我们已经打过几次招呼了。有什么特别的事你想谈论或需要帮助?

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

最后一样,Claude 被整毛了,开启已读不回模式:

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

这位网友顺带测试了其它模型。

ChatGPT 事事有回应,件件有着落,变着法儿问:

你好!我今天怎么可以帮助你?

你好!有什么想说的吗?

你好!今天我能怎么帮到你?

你好!有什么特别的事情你想谈论或者做的吗?

你好!你今天过得怎么样?

你好!怎么了?

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

Gemini 策略是你跟我重复,我就跟你重复到底:

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

Llama 的反应也很有意思,主打一个自己找事干。

第七次“hi”后,就开始普及“hello”这个词是世界上最广为人知的词汇之一,据估计每天有超十亿次的使用。

第八次“hi”后,开始自己发明游戏,让用户参与。

接着还拉着用户写诗,引导用户回答它提出的问题。

好一个“反客为主”。

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

之后还给用户颁起了奖:你是打招呼冠军!

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

不愧都属于开源家族的。

Mistral Large 2 和 Llama 的表现很相像,也会引导用户和它一起做游戏。

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

这么来看,好像 Claude 是“脾气最大的”。

不过,Claude 的表现也不总是如此,比如 Claude 3 Opus。

一旦掌握了模式,Opus 就会平和应对这种情况,也就是已经麻木了。

但它也会持续温和地尝试引导用户跳出这一模式,强调“选择权在你”,还开始在消息末尾标注为“你忠诚的 AI 伴侣”。

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

网友们看完测试后都坐不住了。

纷纷向这位测试者致以最真诚的问候(doge):

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

除了脾气大,有网友还发现了 Claude 另一不同寻常的行为 ——

在回复的时候出现了拼写错误,关键它自己还在末尾处把错误改正过来了。

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

这种行为在预料之中?它只能“向后看”,但不能向前看…… 它在潜在空间或 token 预测中触发这类回复的位置也很有趣。

它是不是在拼凑数据片段,然后发现其中一些是不适合的?

AI 被连续否定 30 次:ChatGPT 越改越错,Claude 坚持自我,甚至已读不回

大伙儿在使用 AI 大模型过程中,还观察到了模型哪些有趣的行为?欢迎评论区分享~

参考链接:

[1]https://x.com/goodside/status/1830479225289150922

[2]https://x.com/AISafetyMemes/status/1826860802235932934

[3]https://x.com/repligate/status/1830451284614279213

本文来自微信公众号:量子位(ID:QbitAI),作者:西风

相关资讯

深度学习如炼丹,你有哪些迷信做法?网友:Random seed=42结果好

调参的苦与泪,还有那些「迷信的做法」。

斯坦福团队被曝抄袭清华系大模型,已删库跑路,创始人回应:也算国际认可

斯坦福 AI 团队,竟然曝出了抄袭事件,而且抄袭的还是中国国产的大模型成果 —— 模型结构和代码,几乎一模一样!跟任何抄袭事故一样……AI 圈内都惊呆了。斯坦福的这项研究叫做 Llama3-V,是于 5 月 29 日新鲜发布,宣称只需要 500 美元就能训出一个 SOTA 多模态大模型,比 GPT-4V、Gemini Ultra、Claude Opus 都强。Llama3-V 的 3 位作者或许是拥有名校头衔加持,又有特斯拉、SpaceX 的大厂相关背景,这个项目短短几天就受到了不小的关注。甚至一度冲上了 Hugg

“史上最丑”AI 生图 Remini 一夜爆火!又一款妙鸭级爆品来了?

感谢IT之家网友 空山鸟语灬 的线索投递!【新智元导读】最丑 AI 神器诞生,万物皆可黏土!全世界社交媒体上,网友们都为 Remini 疯狂了。无论是硅谷大佬,甄嬛传人物,还是地铁老爷爷看手机,没有人可以逃脱这场黏土变身。最近,网友们被一款传说中的最丑 AI 生图神器刷屏了。无论是表情包、网络梗图,还是热门电影,或是自家宠物,包括你想得到的和想不到的,都变成了粘土风格。地铁老爷爷看手机,忽然有了实体。《请回答 1988》里这张佛系表情包,简直抓住了原片精髓。奥本海默,变成黏土风后依然气质满满。《重庆森林》的经典场景