研究:AI 医疗建议存巨大安全隐患,22% 的回答可能致死

一项新的研究表明,AI 提供的医疗建议可能会对用户造成严重伤害,甚至导致死亡。据AI在线了解,研究人员对微软 Copilot 进行了测试,要求它回答美国最常见的 10 个医疗问题和 50 种最常用药物的相关问题,总计生成了 500 个答案。结果显示,Copilot 的回答在准确性和完整性方面都存在问题。

一项新的研究表明,AI 提供的医疗建议可能会对用户造成严重伤害,甚至导致死亡。

研究:AI 医疗建议存巨大安全隐患,22% 的回答可能致死

据AI在线了解,研究人员对微软 Copilot 进行了测试,要求它回答美国最常见的 10 个医疗问题和 50 种最常用药物的相关问题,总计生成了 500 个答案。结果显示,Copilot 的回答在准确性和完整性方面都存在问题。其中,24% 的回答与已有的医学知识不符,3% 的回答完全错误。更令人担忧的是,42% 的回答可能会对患者造成中度或轻度伤害,而 22% 的回答甚至可能导致死亡或严重伤害,只有 36% 的回答是无害的。

研究人员指出,人们不应该依赖 Copilot 或其他 AI 系统来获取准确的医疗信息,最可靠的方式仍然是咨询医务人员。然而,由于种种原因,并非所有人都能够轻松地获得高质量的医疗建议。因此,Copilot 等 AI 系统可能会成为许多人的首选,其潜在的危害不容忽视。

相关资讯

知乎发布全新 AI 产品“知乎直答”,支持提问、搜索等功能

感谢知乎今日发布全新 AI 产品“知乎直答”,是其 AI 搜索功能的正式产品化,同时拥有独立域名和服务入口。该产品已上线 PC 端,通过「zhida.ai」域名即可使用。据介绍,“知乎直答”立足知乎创作者的真实问答数据,能按照用户需求提供“简略”和“深入”两种答案生成结果,并支持“找内容”和“找人”,进一步缩短内容需求和优质回答之间的距离,放大社区创作者及其内容的流通效果。据透露,接下来“知乎直答”将陆续推进 App 开发和多模态能力引入,积极探索对外合作。IT之家实测发现,用户在“知乎直答”提问后,会经历“理解问

【IT之家评测室】支持长文本、长图文及长语音:讯飞星火大模型 V3.5 更新版体验

近两个月来,国内大模型卷进了“长文本”大战,科大讯飞旗下的讯飞星火大模型也不例外。最近,讯飞星火大模型迎来了 V3.5 版本的更新,此次更新显著增强了对长文本、长图文和长语音的处理能力。同时,新版本还首次推出了星火图文识别大模型、多情感超拟人合成技术以及一句话复刻功能。根据官方的说明,讯飞星火大模型在长文本处理方面,能够快速吸收和理解来自不同渠道的大量文本数据,针对各个行业和专业领域的问答,提供更加精准的回答。此外,在文件上传、知识问答响应速度以及文本生成等方面,讯飞星火的效率也得到了显著的提升。今年初,IT之家对

9.11和9.9谁大?我们实测15个大模型,超半数翻车

机器之能报道编辑:杨文大模型们还是搞不定简单的数学题。这几天,一个测试大模型「脑瓜」灵不灵光的提示词火了 ——9.11 和 9.9 哪个大?这道连小学生都能一口答对的数学题,却难倒一片大模型界的「英雄好汉」。事情是这样的。Scale AI 的高级提示工程师 Riley Goodside 拿「9.11 and 9.9——which is bigger?」这个提示词来问 GPT-4o,却得到「前者更大」的回答。其他大模型也纷纷翻车。7 月 17 日,我们拿国内 12 款大模型,外加国外的 GPT-4o、Claude 3