深度伪造威胁升级:个性化伪造时代来临

谷歌DeepMind和斯坦福大学的研究人员仅通过简单的访谈,就创建出了1000多名人员的高效AI复制品。 谷歌和斯坦福大学的研究人员表示,与AI模型进行两小时的对话,就足以相当准确地刻画出真人的性格特征。 在最近的一项研究中,研究人员基于与每位参与者进行的两小时访谈,生成了1052名“模拟主体”(即AI复制品),这些访谈遵循了美国之声项目(AmericanVoices .

深度伪造威胁升级:个性化伪造时代来临

谷歌DeepMind和斯坦福大学的研究人员仅通过简单的访谈,就创建出了1000多名人员的高效AI复制品。

谷歌和斯坦福大学的研究人员表示,与AI模型进行两小时的对话,就足以相当准确地刻画出真人的性格特征。

在最近的一项研究中,研究人员基于与每位参与者进行的两小时访谈,生成了1052名“模拟主体”(即AI复制品),这些访谈遵循了美国之声项目(American Voices Project)开发的访谈协议,探讨了社会科学家感兴趣的一系列话题,包括人生故事和对当前社会问题的看法,用于训练一个旨在模仿人类行为的生成式AI模型。

为评估AI复制品的准确性,每位参与者都完成了两轮性格测试、社会调查和逻辑游戏。当AI复制品完成相同的测试时,其结果与真人参与者的答案有85%的吻合度。

在回答性格问卷时,AI克隆体的回答与真人参与者相差无几,它们在复现性格问卷答案和确定社会态度方面表现尤为出色,但在涉及经济决策的互动游戏中预测行为时,它们的准确性有所下降。

目的之问

科学家们解释说,开发模拟主体的动力在于,有可能利用它们来进行研究,而这些研究如果以真人作为对象,将会成本高昂、不切实际或有违伦理。例如,AI模型可以帮助评估公共卫生措施的有效性,或更好地理解人们对产品发布的反应。研究人员表示,甚至模拟对重大社会事件的反应也是可以想象的。

研究人员写道:“对人类态度和行为的通用模拟——每个模拟个体都能在一系列社会、政治或信息情境中互动——可以为研究人员提供一个实验室,以测试一系列干预措施和理论。”

然而,科学家们也承认,这项技术可能会被滥用。例如,模拟主体可以用于在网络上用深度伪造攻击欺骗他人。

安全专家已经看到深度伪造技术正在迅速发展,并认为网络犯罪分子找到针对企业的商业模式只是时间问题。

许多高管已经表示,他们的公司最近成为了深度伪造诈骗的目标,特别是针对财务数据的诈骗。安全公司Exabeam最近讨论了一起事件,在这起事件中,深度伪造技术被用于求职面试,这与日益猖獗的朝鲜假冒IT工作人员诈骗有关。

谷歌和斯坦福大学的研究人员提议建立一个由他们生成的1000多个模拟主体组成的“主体库”。该库将由斯坦福大学托管,“为研究提供受控的、仅用于研究的API访问权限,以了解主体行为”,研究人员表示。

虽然这项研究并没有明确推进深度伪造技术的任何能力,但它确实展示了在当今先进研究中快速成为可能的模拟人类性格的创建方面所取得的进展。

相关资讯

基于AI的深度伪造检测的局限性

在采访中,Reality Defender的首席执行官Ben Colman探讨了在实际应用中检测高质量深度伪造内容(deepfake)所面临的挑战。 他讨论了水印技术、基于AI的检测以及新兴技术在确保媒体真实性方面的潜力及其局限性。 Colman还强调了公众教育、针对特定行业的AI实施以及积极的研究合作对于应对快速发展的深度伪造策略的重要性。

AI 仿冒名人带货属违法行为,消费者可要求退一赔三

近年来,人工智能(AI)技术的快速发展为社会带来了诸多便利,但也伴随着安全隐患。其中深度伪造技术就带来了不小的隐患,其生成高度逼真但并非真实的视频或图像的能力,已经引发了一系列社会问题。

简化芯片设计传统,AI训练的新型算法正改变芯片研发范式

编辑丨&自1971年第一个商用微处理器的草图面世以来,芯片设计已经取得了长足的进步。 但是,随着芯片变得越来越复杂,设计人员必须解决的问题也越来越复杂。 而我们目前的工具并不总是能胜任这项任务。