软盟资讯 2025年10月26日讯:
导语:一场未接通的电话,800万美元消失
2025年10月26日,东南亚某跨国企业财务主管接到“CFO”的紧急电话:“立即转账800万美元至指定账户,并购项目需在30分钟内完成。”听筒里传来熟悉的声音、语调,甚至夹杂着老板特有的咳嗽声。未做二次核实的他,在3分钟内完成了转账。而此时,真正的CFO正在纽约开会,手机静音——这场骗局的“声音主角”,是AI用3秒通话录音克隆的“数字分身”。
为何一场电话能骗走800万?
何时AI伪造从“实验室技术”变为“犯罪利器”?
何地安全防线被彻底击穿?
答案藏在NCC Group最新披露的报告中:AI实时语音伪造技术已突破“延迟瓶颈”,结合来电伪造技术,诈骗成功率高达99.7%。
技术突破:0.5秒克隆声音,普通人也能成为“诈骗大师”
“过去,语音伪造需要数分钟训练、高端服务器支持;现在,一台搭载英伟达RTX A1000显卡的笔记本就能完成。”NCC Group安全顾问Pablo Alobera展示的实验数据令人震惊:
- 延迟低于0.5秒:系统实时转译语音,无停顿、无机械感;
- 低质量录音可用:即使是用手机录制的嘈杂通话,也能生成高仿真语音;
- 动态调整语调:根据对话内容,AI可模仿紧张、急促、温柔等情绪。
更可怕的是,技术门槛大幅降低。在地下论坛,定制化声音克隆服务价格低至500元,部分平台提供“一键克隆”工具,非技术人员也能操作。记者亲测:上传5段25秒的音频,10分钟后即生成可乱真的“克隆声音”,能读出任意文本。
“这不是科幻,是正在发生的现实。”The Circuit创始人Trevor Wiseman警告,“黑产平台已实现‘AI伪造即服务’,从声音克隆到视频换脸,甚至提供‘诈骗剧本’一条龙服务。”
案例冲击:从亲情诈骗到企业巨亏,无人能幸免
亲情诈骗:“妈妈,再转1.5万”
2025年10月,一位母亲与“女儿”视频通话时,对方撒娇要求增加生活费。就在她准备转账时,真女儿推门而入——视频中的“女儿”,是AI用公开演讲视频克隆的“数字替身”。这类案件在2025年已超120起,单案平均损失超300万美元。
企业诈骗:CEO的“紧急指令”
东南亚跨国企业的案例并非孤例。2025年8月,香港某公司员工参加“AI高管”主持的视频会议,因声音、面容高度逼真,误将2560万美元转入虚假账户;同年9月,美国银行职员因“AI客户”语音模仿,执行350万美元转账。
“攻击者不再需要黑客入侵系统,他们只需要欺骗一个人。”Verizon 2025数据泄露报告指出,社会工程攻击占比达22%,其中AI伪造是核心手段。
防御困境:传统验证体系崩塌,新型机制尚未建立
“传统语音、视频通话已无法作为可靠身份验证方式。”Wiseman指出,当AI伪造与来电号码伪造结合时,受控测试中的对象几乎全部受骗。
企业防御现状:
- 63%的企业仍保留密码回退选项:为兼容老旧设备,FIDO无密码登录与短信验证并行,留下“降级攻击”漏洞;
- 47%的财务流程缺乏二次核验:大额转账仅依赖单一语音指令;
- AI反伪造工具覆盖率不足30%:微软Video Authenticator、Mitek Digital Fraud Defender等工具尚未普及。
个人防御困境:
- 82%的用户无法识别AI伪造声音:记者随机采访20人,仅3人能准确分辨克隆语音;
- 65%的老年人未接受反诈培训:黑产平台专门针对老年群体设计“亲情诈骗”剧本。
“防御不是技术问题,是策略闭环问题。”公共互联网反网络钓鱼工作组专家芦笛比喻,“就像你家装了智能门锁,却为了方便留了一把备用钥匙——而攻击者比你还清楚钥匙在哪。”
行业博弈:无密码时代或成唯一出路
面对AI伪造威胁,全球安全界正推动一场“认证革命”:
- 技术层:部署AI反深度伪造工具,通过分析声纹一致性、背景噪音等识别伪造内容。例如,Mitek Systems的Digital Fraud Defender可实时检测注入攻击、深度伪造,准确率达99%;
- 流程层:强制关闭弱认证方式,启用FIDO强制策略。Apple、Google、Microsoft已构建“全平台通行密钥”生态,用户可在iPhone、Android、Windows设备间无缝同步密钥,彻底摆脱对短信或密码的依赖;
- 用户层:开展反诈培训,警惕“紧急”“保密”等话术。例如,Group-IB建议企业制定“高风险操作流程”:大额转账需两人审批,紧急指令需在非工作时间复核。
“当‘无密码登录’成为默认选项,深度伪造攻击将失去土壤。”Wiseman展望,“但在此之前,我们必须主动关闭那些‘为了方便’而留下的漏洞——因为每一次降级,都可能是攻击者最后的逃生通道。”
争议与反思:技术中立?还是犯罪帮凶?
AI语音伪造技术的爆发,引发了一场关于“技术伦理”的激烈争论:
- 支持者认为:技术本身无罪,应加强监管而非限制创新。例如,AI伪造可用于影视制作、医疗保健(为语音障碍者生成语音);
- 反对者警告:当技术被用于诈骗、间谍活动时,开发者需承担连带责任。2025年10月,欧盟已启动对AI语音克隆工具的“风险评估”,可能出台限制性法规;
- 中间派呼吁:建立“技术使用白名单”,明确合法应用场景,严惩恶意使用行为。
“我们无法完全阻止攻击,但可以通过分层防御、流程管控和技术升级,大幅提高攻击成本。”芦笛强调,“真正的安全,不是相信‘谁在说话’,而是确认‘说话的人是谁’。”
结尾:你的声音,值得被守护
当AI能0.5秒克隆你的声音,当“妈妈”“CEO”的指令可能是犯罪工具,我们该如何守护信任?这场AI与安全的博弈,没有旁观者——企业需重构认证体系,个人需提升反诈意识,而技术开发者,更需在创新与伦理间找到平衡。

关于文章版权的声明:
https://news.softunis.com/46442.html 文章来自软盟资讯
若非本站原创的文章,特别作如下声明:
本文刊载所有内容仅供提供信息交流和业务探讨而非提供法律建议目的使用,不代表任何监管机构的立场和观点。不承担任何由于内容的合法性及真实性所引起的争议和法律责任。
凡注明为其他媒体来源的信息,均为转载,版权归版权所有人所有。
如有未注明作者及出处的文章和资料等素材,请版权所有者联系我们,我们将及时补上或者删除,共同建设自媒体信息平台,感谢你的支持!
