OpenAI 发布首份 ChatGPT AI 影响人类情绪健康研究

OpenAI与MIT Media Lab的研究揭示了AI聊天机器人对用户情感健康的复杂影响,强调了负责任开发和透明化的重要性。研究结果将为AI行业的未来发展提供重要指导,同时提醒用户合理使用AI工具,避免过度依赖。

OpenAI 公司昨日(3 月 21 日)发布博文,联合 MIT Media Lab,分享了首份关于使用 ChatGPT 如何影响人们情绪健康的研究。

研究发现,用户与 AI 的互动方式、个人情感需求以及使用时长等因素,均会影响其情感状态。研究通过大规模数据分析与随机对照试验,揭示了 AI 情感使用的复杂性和局限性,为未来 AI 平台的负责任开发提供了重要参考。

OpenAI 发布首份 ChatGPT AI 影响人类情绪健康研究

OpenAI 在调查过程中,一方面分析了近 4000 万次 ChatGPT 互动,结合用户调查,了解真实使用模式;另一方面联合 MIT Media Lab 团队招募近 1000 名参与者,进行为期四周的 ChatGPT 使用实验,探讨平台功能和使用类型对用户心理状态的影响。

OpenAI 发布首份 ChatGPT AI 影响人类情绪健康研究

OpenAI 发布首份 ChatGPT AI 影响人类情绪健康研究

AI在线援引博文介绍,附上相关发现如下:

  • 情感互动较少:大多数 ChatGPT 对话中并未出现情感互动,表明情感使用并非主流。

  • 重度用户的情感依赖:少数重度用户(尤其是高级语音模式用户)更倾向于将 ChatGPT 视为“朋友”,并表现出较高的情感依赖。

  • 语音模式的影响:语音模式在短期使用中可能提升用户幸福感,但长期使用则可能带来负面影响。

  • 对话类型的影响:个人对话(如表达情感)可能增加孤独感,但减少情感依赖;非个人对话(如讨论工作)则可能增加情感依赖。

  • 个人因素的影响:用户的情感需求、对 AI 的认知以及使用时长,均显著影响其情感健康。

相关资讯

不蒸馏 R1 也能超越 DeepSeek,上海 AI Lab 用 RL 突破数学推理极限

从 Qwen2.5-32B-Base 模型出发,仅通过微调和基于结果反馈的强化学习,在不蒸馏超大模型如 DeepSeek-R1 的情况下,就能超越 DeepSeek-R1-Distill-Qwen32B 和 OpenAI-O1 系列的超强数学推理性能。

最豪华大模型创业阵容!OpenAI前CTO组建,翁荔、Schulman等ChatGPT核心成员加盟

今天凌晨,一个创业消息引爆了整个 AI 社区:一家名为 Thinking Machines Lab 的新创业公司建立了,而其背后有一个堪称有史以来最豪华的大模型创业团队阵容。 据该公司的首条推文介绍,Thinking Machines Lab 是一家「人工智能研究和产品公司。 」他们还强调这会是一家重视研究开放的公司,其推文中承诺:「我们致力于通过论文发表和代码发布来开放科学,同时会重点关注应用于不同领域的人机协作。

腾讯携手创新“无监督前缀微调”技术:训练 tokens 最多减少 95%,提升 AI 推理效率

腾讯AI Lab与香港中文大学合作,提出“无监督前缀微调”(UPFT)方法,通过聚焦模型输出的前8至32个词元,显著提升大型语言模型的推理效率。该方法在多个推理基准测试中表现优异,减少训练和推理词元的同时提升准确率。#腾讯AI #语言模型 #UPFT