这些被篡改的内容在社交媒体、即时通讯应用和视频分享平台上广泛传播,模糊了现实与虚构之间的界限。
“Deepfake”一词是在2017年由一位Reddit用户创造的,当时该用户创建了一个以此命名的子论坛(subreddit)。这个子论坛被用来分享AI生成的视频,其中经常包含名人换脸的色情内容。
起初,人们制作Deepfake是为了娱乐和消遣,但随着时间的推移,它们已成为犯罪分子手中危险的工具,用于诈骗、身份盗用、勒索和传播虚假信息。
更令人担忧的是,现在制作Deepfake已不再需要高超的技能。
Deepfake背后的技术
Deepfake主要依赖于一种名为生成对抗网络(Generative Adversarial Networks,简称GANs)的技术。从本质上讲,GANs涉及两个协同工作的算法。
第一个算法是生成器,负责创建假内容,如视频或图像。第二个算法是判别器,负责判断内容是否真实。这两个算法相互推动、共同进步:生成器越来越擅长制作逼真的假内容,而判别器则越来越擅长发现不完美之处。
另一种常用于任务(如换脸)的技术是自动编码器(autoencoders)。与GANs不同,自动编码器不使用生成器和判别器。相反,它们专注于将人的面部特征压缩成一种小巧、易于管理的格式,然后将其重建到另一个人的脸上。尽管这种方法不使用GANs,但它仍然能够制作出令人信服的Deepfake,特别是对于换脸等简单任务。
随着各种AI工具的普及,从开源软件(如DeepFaceLab、Faceswap)到手机应用(如Zao、Reface),现在制作Deepfake只需要一台笔记本电脑或智能手机以及合适的软件。
网络犯罪分子将Deepfake武器化
根据Entrust的一份报告,2024年每五分钟就会发生一起Deepfake攻击。在一起案例中,通过Deepfake视频会议结合社会工程学手段,导致一家跨国公司损失超过2500万美元。
这些诈骗对加密货币公司造成了重大影响,平均损失达44万美元。
最近一起引起轰动的诈骗案涉及一名法国女性,她被一名冒充演员布拉德·皮特(Brad Pitt)的骗子欺骗。骗子利用AI生成的图像让她相信他们正在谈一场浪漫恋爱。在18个月的时间里,这名女性向骗子转账83万欧元,以为这是用于皮特遭遇的医疗紧急情况。
除了造成经济损失,此类骗局还会导致情感困扰,破坏对数字通信的信任,并扰乱企业运营。
鉴于全球复杂的地缘政治形势,这项技术还被用于传播虚假信息,特别是在政治领域。这些AI生成的视频和音频记录可以伪造候选人发表争议性言论或从事破坏性行为,从而可能影响选民的投票决定。因此,它们可能对民主制度产生毁灭性的影响。
如何识别Deepfake
尽管Deepfake在不断改进,但它们仍然存在不完美之处,这有助于提升我们的识别能力。
面部动作:观察是否有不自然的眨眼模式或眼睛看起来不自然地静止。对事件反应中的细微延迟或表情不匹配也可能是破绽。
光线和阴影:检查主体面部的光线是否与周围环境相匹配。光线不一致,如移动的光或不规则的阴影和反射,可能表明存在篡改。
音画同步:确保口型动作与音频自然对齐。如果唇音不同步或声音有轻微失真,可能是编辑的痕迹。
视觉伪影:检查面部与头发或背景相接的边缘。不寻常的模糊、扭曲的边界、像素化或重影效果可能表明视频已被篡改。
如何减轻Deepfake风险
我们可以采取一些预防措施来保护自己:
使用Deepfake检测工具和软件:利用专门的工具和基于AI的软件来检测Deepfake。这些工具可以分析数字内容中的异常,并帮助验证其真实性。
关注Deepfake趋势和技术:让自己了解Deepfake技术的最新进展。了解新技术和常见的操纵迹象有助于识别Deepfake。
实施多因素身份验证(MFA)来验证身份:这可以防止攻击者即使制作出逼真的Deepfake也能访问敏感账户。
为敏感通信建立暗语或验证流程:这有助于确保与您通信的人确实是他们所声称的人。在处理交易或敏感个人事务时特别有用。
限制在网上分享个人媒体:您在网上分享的个人媒体越多,为不法分子制作Deepfake提供的素材就越多。请谨慎分享社交媒体上的图片、视频和其他媒体。调整隐私设置,以便只有受信任的个人或群体能够查看。
虽然我们无法预知未来,但20年前不可能实现或只有少数人能接触到的事物,现在每个人都可以接触到,这也意味着怀有恶意的人也能接触到。
随着技术的发展,区分真伪将变得越来越困难,而且我们也没有魔法棒可以保护自己。我们能做的就是小心谨慎,并采取一切力所能及的措施来保护自己。当然,不要相信在互联网或社交媒体上看到的一切。