在本月下旬最新一期的《自然-人类行为》期刊上,刊登了一篇关于 AI 的研究论文,其中提到,在尝试追踪他人情绪状况能力的使命中,两类 AI 大语言模型在特定情况下,具备与人类相似甚至逾越人类的显露。图源 Pixabay作为人类沟通交流、产生共鸣的关键,情绪状况能力(也称心智理论)对人类的社交互动来说非常重要。该论文的第一作家 —— 德国汉堡-埃彭多夫大学医学中心的 James W. A. Strachan 与同事及合作家一起,选择能尝试情绪理论不同方面的使命,包括发现错误想法、理解直接言语以及辨认失仪等。IT之家注:
在本月下旬最新一期的《自然-人类行为》期刊上,刊登了一篇关于 AI 的研究论文,其中提到,在尝试追踪他人情绪状况能力的使命中,两类 AI 大语言模型在特定情况下,具备与人类相似甚至逾越人类的显露。
图源 Pixabay
作为人类沟通交流、产生共鸣的关键,情绪状况能力(也称心智理论)对人类的社交互动来说非常重要。该论文的第一作家 —— 德国汉堡-埃彭多夫大学医学中心的 James W. A. Strachan 与同事及合作家一起,选择能尝试情绪理论不同方面的使命,包括发现错误想法、理解直接言语以及辨认失仪等。
IT之家注:该团队选用了 GPT 和 LLaMA2 模型进行试验,并与 1907 人进行对比。
结果显示,GPT 模型在辨认直接要求、错误想法和误导的显露能达到有时甚至逾越人类平均水平,而 LLaMA2 的显露逊于人类水平;在辨认失仪方面,LLaMA2 强于人类,但 GPT 显露欠安。
据中新社报道,该作家表示,LLaMA2 的成功被证明是因为回答“偏见程度”较低,并非真的对失仪敏感,GPT“显露欠安”则是因为对坚持结论具有“超保守”的态度,而非推理错误。
IT之家附论文地址:《Testing theory of mind in large language models and humans》