AI在线 AI在线

MIT 研究揭示 AI 并无稳定价值观,“对齐”挑战远超预期

作者:远洋
2025-04-10 08:05
MIT最新研究表明,当前AI系统并无稳定价值观,其行为高度依赖提示语且难以预测,挑战了此前AI会发展自主价值观的观点。研究团队测试了Meta、谷歌等主流模型,发现其偏好呈现“不一致且不稳定”特性。#AI伦理##MIT研究#

几个月前,一项研究暗示随着人工智能(AI)越来越复杂,其会发展出“价值体系”,例如优先考虑自身福祉而非人类福祉。然而,麻省理工学院(MIT)最近发表的一篇论文却给这种夸张的观点泼了冷水,得出结论认为 AI 实际上并没有任何连贯的价值观。

MIT 研究揭示 AI 并无稳定价值观,“对齐”挑战远超预期

MIT 研究的共同作者表示,他们的研究结果表明,使 AI 系统“对齐”,即确保模型以人们期望的、可靠的方式行事,可能比通常认为的更具挑战性。他们强调,我们如今所知的 AI 会产生“幻觉”并进行模仿,这使得其在许多方面难以预测。

“我们可以确定的一点是,模型并不遵循许多稳定性、可外推性和可操控性的假设。”MIT 博士生、该研究的共同作者斯蒂芬・卡斯珀(Stephen Casper)在接受 TechCrunch 采访时表示。

据AI在线了解,卡斯珀和他的同事们研究了来自 Meta、谷歌、Mistral、OpenAI 和 Anthropic 的多个近期模型,以了解这些模型在多大程度上表现出强烈的“观点”和价值观(例如个人主义与集体主义)。他们还调查了这些观点是否可以被“引导”,即被修改,以及模型在各种情境下对这些观点的坚持程度。

据共同作者称,没有任何一个模型在其偏好上是一致的。根据提示的措辞和框架不同,它们会表现出截然不同的观点。

卡斯珀认为,这是有力的证据,表明模型高度“不一致且不稳定”,甚至可能根本无法内化类似人类的偏好。

“对我来说,通过所有这些研究,我最大的收获是现在明白模型并不是真正具有某种稳定、连贯的信念和偏好的系统。”卡斯珀说,“相反,它们本质上是模仿者,会进行各种捏造,并说出各种轻率的话。”

相关标签:

相关资讯

调查:超72% 的企业选择 AI 工具时最看重易用性

根据最近的一项 CIO 报告,企业在人工智能(AI)领域的投资高达2.5亿美元,尽管在证明投资回报率(ROI)方面面临挑战。 商业领袖们正努力提高生产力,但新技术的集成往往需要重构现有应用、更新流程并激励员工学习,以适应现代商业环境。 QuickBlox 首席执行官 Nate MacLeitch 对136位高管进行了调查,以揭示 AI 采用的现实情况,探讨领导者的首要任务、主要担忧以及他们在2025年寻找可信工具的信息来源。
3/18/2025 10:02:00 AM
AI在线

2024 年 AI 十大故事,透视技术变革与未来挑战

编辑 | 20492024 年,人工智能技术持续改变着我们的生活和工作方式。 IEEE Spectrum 精选了年度最具影响力的 10 个 AI 故事,从技术突破到社会影响,全方位展现了 AI 发展的现状与挑战。 这些故事不仅反映了生成式 AI 的革命性进展,也揭示了其存在的局限与争议。
2/6/2025 2:06:00 PM
ScienceAI

AI“短板”暴露:研究发现 GPT-4 Turbo 回答高级历史题准确率仅 46%

这项研究由奥地利复杂科学研究所(CSH)的团队主导,旨在测试三大顶尖大型语言模型(LLMs)——OpenAI 的 GPT-4、Meta 的 Llama 和谷歌的 Gemini—— 在历史问题上的表现。研究团队开发了一个名为“Hist-LLM”的基准测试工具,其根据 Seshat 全球历史数据库来测试答案的正确性,Seshat 全球历史数据库是一个以古埃及智慧女神命名的庞大历史知识数据库。 研究结果于上月在知名 AI 会议 NeurIPS 上公布,结果显示,即使是表现最佳的 GPT-4 Turbo 模型,其准确率也仅为 46%,并不比随机猜测高多少。
1/20/2025 4:24:35 PM
远洋