​微软研究揭示:过度使用AI可能削弱人类的批判性思维能力

一项来自微软与卡内基梅隆大学的最新研究表明,过度依赖人工智能(AI)工具可能正在侵蚀人们的批判性思维能力。 研究团队对319名知识工作者进行了调查,收集了936个在 IT、设计、行政和金融等多个行业使用生成式 AI 的真实案例。 研究分析了六个批判性思维的维度:知识、理解、应用、分析、综合和评估。

一项来自微软与卡内基梅隆大学的最新研究表明,过度依赖人工智能(AI)工具可能正在侵蚀人们的批判性思维能力。研究团队对319名知识工作者进行了调查,收集了936个在 IT、设计、行政和金融等多个行业使用生成式 AI 的真实案例。研究分析了六个批判性思维的维度:知识、理解、应用、分析、综合和评估。

QQ_1739843048731.png

研究发现,使用 AI 工具后,人们在解决问题时的思维方式发生了三大变化。首先,知识工作者不再独立搜集信息,而是主要集中于验证 AI 生成的结果;其次,他们更倾向于整合 AI 提供的答案,而非自主开发解决方案;最后,许多人开始转向监控 AI 系统,而不是直接执行任务。这种趋势在处理常规或较不重要的任务时尤其明显,人们可能在没有质疑的情况下依赖 AI,这引发了对长期依赖和独立问题解决能力下降的担忧。

研究团队提到了一种 “自动化的讽刺” 现象:虽然 AI 处理日常任务减轻了人们的工作负担,但同时也剥夺了人们锻炼判断力和 “认知肌肉” 的机会。这种 “认知外包” 现象可能逐渐削弱人们的自然能力。

有趣的是,研究还发现,自信心可能在一定程度上保护个人的批判性思维能力。那些对自己能力更有信心的员工,更倾向于对 AI 输出保持怀疑态度。尽管研究者无法明确确定这种关系的因果关系,但三种主要因素推动着人们的批判性思维:提升工作质量的愿望、避免错误的动机和个人发展需求。然而,时间压力、缺乏问题意识以及在不熟悉领域改进 AI 反应的困难,都是影响这一能力的障碍。

研究建议,企业应积极倡导员工的批判性思维,通过专门的培训来教导他们如何审查 AI 的结果。同时,AI 工具的设计应更倾向于支持而非替代批判性思维。

另外,瑞士商学院的一项独立研究发现,17至25岁的年轻人使用 AI 工具的比例最高,但在批判性思维测试中得分最低。教育水平也成为了一项重要的保护因素,受教育程度较高的人更频繁地质疑 AI 生成的信息,并在使用 AI 工具的同时保持更强的批判性思维能力。

论文:https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/

划重点:  

💡 研究表明,过度依赖 AI 工具可能导致批判性思维能力下降。  

🔍 工作者更倾向于验证 AI 结果,而非独立思考或解决问题。  

📈 自信心和教育水平被认为是维持批判性思维的重要因素。

相关资讯

CMU 团队推出元强化微调:提升大语言模型推理能力的新范式

在人工智能领域,大语言模型(LLM)正在不断进化,最近,卡内基梅隆大学(CMU)与 HuggingFace 的研究者们共同提出了一种名为 “元强化微调”(Meta Reinforcement Fine-Tuning,简称 MRT)的新方法。 这一方法旨在优化大语言模型在测试时的计算效率,尤其是在解决复杂推理问题时,表现尤为突出。 研究表明,现有的大语言模型在推理过程中常常消耗过多的计算资源,而 MRT 的目标是让模型在给定的计算预算内,实现更高效的答案发现。

CMU&ETH实现突破:机器狗点满敏捷值天赋,超高速穿越障碍,速度与安全兼备!

足式机器人领域又一次迎来创新!CMU 与 ETH Zurich 团队联合研发了一个名为 「敏捷但安全」(ABS,Agile But Safe)的新框架,为四足机器人在复杂环境中实现高速运动提供了解决方案。ABS 不仅在避免碰撞方面展现出高效能力,还在极速上达到了前所未有的 3.1 米秒!在高速机器人运动领域,实现同时兼顾速度和安全一直是一大挑战。但现在,卡内基梅隆大学(CMU)和苏黎世联邦理工学院(ETH)的研究团队带来了突破性进展。他们开发的新型四足机器人算法,不仅能在复杂环境中高速行进,还能巧妙避开障碍,真正做

谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练

效果更稳定,实现更简单。大型语言模型(LLM)的成功离不开「基于人类反馈的强化学习(RLHF)」。RLHF 可以大致可以分为两个阶段,首先,给定一对偏好和不偏好的行为,训练一个奖励模型,通过分类目标为前者分配更高的分数。然后通过某种强化学习算法优化这个奖励函数。然而,奖励模型的关键要素可能会产生一些不良影响。来自卡内基梅隆大学(CMU)和 Google Research 的研究者联合提出了一种简单的、理论上严格的、实验上有效的 RLHF 新方法 —— 自我博弈偏好优化(Self-Play Preference Op