感谢最新研讨称,越来越多的人难以在图灵尝试中区分 GPT-4 和人类。
图源 Pexels
据IT之家了解,“图灵尝试”由计算机科学家艾伦・图灵在 1950 年提出,又被称为“模仿游戏”。尝试的标准是机械能否像人类一样进行对话,让对方误以为其是真人。
加州大学圣地亚哥分校的研讨人员招募了 500 名参与者,让他们与四位“对话者”进行五分钟的交流,这四位“对话者”分别是真人、上世纪 60 年代的初代谈天机械人 ELIZA、以及驱动谈天机械人 ChatGPT 的 GPT-3.5 和 GPT-4。参与者在对话结束后需判断对方是人还是机械。
这项尝试的结果发表于预印网站 arXiv 上,结果显示,有 54% 的参与者将 GPT-4 误认为真人。相比之下,预先设定好回复的 ELIZA 只有 22% 的人将其认作真人,GPT-3.5 则为 50%,而人类对话者被正确辨认的比例则为 67%。
研讨人员指出,图灵尝试过于简单,对话的风格和情感因素在尝试中扮演着比传统智能认知更要害的角色。
电气和电子工程师协会 (IEEE) 的人工智能研讨员内尔・沃森 (Nell Watson) 表示,单纯的智力并不能代表一切,真正要害的是足够智能地明白情境、他人的技能并具备同理心将这些要素结合起来。能力仅仅是 AI 价值的一部分,明白人类的价值观、偏好和界限也同样要害,正是这些品质才能让 AI 成为我们生活中忠诚可靠的管家。
沃森还提到,这项研讨对未来的人机交互提出了挑战,人们将会对互动对象的真实性愈发疑虑,尤其是在涉及敏感话题时。同时,这项研讨也凸显了 GPT 时代人工智能的巨大进步。