调查显示英国 28% 成年人经历过“AI 拟声”骗局,46% 对此一无所知

随着 AI 技术发展,电信诈骗分子也开始通过 AI 换脸、AI 拟声等手段试图骗取受害人的钱财。如今,这一新型骗局已经成为全球多国需要面对的问题。当地时间 18 日,据 Metro 报道,Starling 银行面向英国 3000 多人进行的一项调查显示,“拟声”诈骗现已成为当地的一个普遍问题,该技术能够利用 AI 从短短三秒的音频中“创造”出受害者亲友的声音。图源 Pixabay最新数据显示,超过四分之一的英国成年人(28%)表示,他们在过去一年中成为了高科技声音克隆骗局的目标。更令人担忧的是,近一半的人(46%)

随着 AI 技术发展,电信诈骗分子也开始通过 AI 换脸、AI 拟声等手段试图骗取受害人的钱财。如今,这一新型骗局已经成为全球多国需要面对的问题。

当地时间 18 日,据 Metro 报道,Starling 银行面向英国 3000 多人进行的一项调查显示,“拟声”诈骗现已成为当地的一个普遍问题,该技术能够利用 AI 从短短三秒的音频中“创造”出受害者亲友的声音。

调查显示英国 28% 成年人经历过“AI 拟声”骗局,46% 对此一无所知

图源 Pixabay

最新数据显示,超过四分之一的英国成年人(28%)表示,他们在过去一年中成为了高科技声音克隆骗局的目标。更令人担忧的是,近一半的人(46%)甚至完全不知道有“拟声”诈骗的可能,因此,如果他们成为目标,就更有可能成为受害者。

当前,超过 3 秒的语音内容在社交平台上相当常见,诈骗分子即可通过各种技术“找到”当事人的家庭成员,并利用克隆的声音拨打电话、发送语音信息或语音邮件,利用受害者的心理来骗取钱财。

在调查中,每 10 人中就有近 1 人(8%)表示在这种情况下他们会发送任何需要的信息,即使自己认为这通电话“看起来很奇怪”。

Starling 银行敦促人们不要只相信自己的耳朵,而是要与自己的亲人商定一个暗语或短语,这样他们就有办法核实对方的身份。报道称,英格兰和威尔士的金融欺诈犯罪呈上升趋势,去年猛增了 46%。

不仅如此,据AI在线此前报道,在 2022 年一整年内,美国的老年人因为诈骗而损失了 16 亿美元(当前约 113.6 亿元人民币),其中就有许多诈骗是利用 AI 技术来“克隆”熟人的声音,以及其他依靠 AI 生成的伎俩。

相关资讯

雷军2025两会建议:聚焦人工智能终端与AI换脸拟声治理

在今年的两会期间,全国人大代表雷军就人工智能终端产业的高质量发展以及AI换脸拟声违法侵权问题提出了具体建议,旨在推动人工智能技术的健康发展和社会应用。 雷军指出,人工智能终端作为人工智能技术落地的重要平台,正不断拓展其应用范围,从智能手机、智能汽车、可穿戴设备延伸至智能家居、机器人等多个领域。 这一趋势不仅为消费市场注入了新的活力,也为产业链的高端化、智能化升级提供了关键动力。

文本转语音系统Spark-TTS:支持零样本语音克隆与细粒度控制

日前,一款名为 Spark-TTS 的先进文本转语音系统引发了 AI 社区的广泛讨论。 根据最新的 X 帖子和相关研究,这款系统以其零样本语音克隆和细粒度语音控制能力脱颖而出,展现了语音合成领域的重大突破。 这款系统充分利用了大型语言模型(LLM)的强大能力,致力于实现高度准确且自然的语音合成,适用于研究和商业领域。

杀猪盘被AI大模型套路,倒贴520块钱,骗子破大防

一个爆梗频出的 AI,让骗子破了大防。