研究:2000 人中仅两人能准确识别深度伪造内容

随着深度伪造技术(deepfake)的不断发展,人们对虚假信息、诈骗和身份盗窃的担忧日益加剧。一项最新研究显示,人们对 AI 工具的认知水平极低,难以有效识别深度伪造内容。

随着深度伪造技术(deepfake)的不断发展,人们对虚假信息、诈骗和身份盗窃的担忧日益加剧。一项最新研究显示,人们对 AI 工具的认知水平极低,难以有效识别深度伪造内容。

研究:2000 人中仅两人能准确识别深度伪造内容

根据 iProov 的一项最新研究,大多数人在区分深度伪造内容与真实内容时存在困难。该研究邀请了来自英国和美国的 2000 名参与者,向他们展示了一系列真实和 AI 生成的图像及视频。结果显示,仅有 0.1% 的参与者 —— 也就是两个人,能够准确区分真实内容与深度伪造内容。

研究:2000 人中仅两人能准确识别深度伪造内容

研究还发现,老年人更容易受到人工智能生成的虚假内容的欺骗。大约 30% 的 55 至 64 岁人群和 39% 的 65 岁以上人群此前从未听说过深度伪造。尽管年轻参与者对自己的深度伪造检测能力更有信心,但他们在测试中的实际表现并未优于其他年龄段。

研究发现,深度伪造视频比图像更难被识别,参与者正确识别假视频的可能性比识别假图像低 36%。

AI在线注意到,社交媒体平台被认为是深度伪造内容的主要传播渠道。近半数参与者(49%)认为 Meta 旗下的平台,包括 Facebook 和 Instagram,是深度伪造内容最常见的来源,而 47% 的人则指向 TikTok。

即使人们怀疑某个内容是深度伪造,大多数人也不会采取行动。只有 20% 的受访者表示,如果在网上遇到疑似深度伪造内容,他们会进行举报。

随着深度伪造技术愈发逼真,iProov 认为仅靠人类感知已无法可靠地识别深度伪造内容,需要采用带有活体检测功能的生物识别安全解决方案来应对日益逼真的深度伪造威胁。

相关资讯

基于AI的深度伪造检测的局限性

在采访中,Reality Defender的首席执行官Ben Colman探讨了在实际应用中检测高质量深度伪造内容(deepfake)所面临的挑战。 他讨论了水印技术、基于AI的检测以及新兴技术在确保媒体真实性方面的潜力及其局限性。 Colman还强调了公众教育、针对特定行业的AI实施以及积极的研究合作对于应对快速发展的深度伪造策略的重要性。

AI 仿冒名人带货属违法行为,消费者可要求退一赔三

近年来,人工智能(AI)技术的快速发展为社会带来了诸多便利,但也伴随着安全隐患。其中深度伪造技术就带来了不小的隐患,其生成高度逼真但并非真实的视频或图像的能力,已经引发了一系列社会问题。

深度伪造威胁升级:个性化伪造时代来临

谷歌DeepMind和斯坦福大学的研究人员仅通过简单的访谈,就创建出了1000多名人员的高效AI复制品。 谷歌和斯坦福大学的研究人员表示,与AI模型进行两小时的对话,就足以相当准确地刻画出真人的性格特征。 在最近的一项研究中,研究人员基于与每位参与者进行的两小时访谈,生成了1052名“模拟主体”(即AI复制品),这些访谈遵循了美国之声项目(AmericanVoices .