华为|陈根:虚拟会议伪造人脸,深度合成的技术危害还在蔓延

华为|陈根:虚拟会议伪造人脸,深度合成的技术危害还在蔓延

文/陈根
疫情催生了各种新常态 , 从网络教学到远程办公 , 也让人们习惯了各种各样的视频会议 。 这也给黑客利用网络进行诈骗提供了途径 。
近日 , 美国联邦调查局(FBI)警告企业小心不法人士利用虚拟会议工具 , 发动俗称变脸诈骗的商业电邮诈骗(Business Email Compromise , BEC) 。 要知道 , 随着人工智能技术的发展 , 想要伪造出受害者的人脸已经不再是难事 , 其具体使用的 , 就是人工智能的“深度合成”技术 , 深度合成技术源于人工智能系统生成对抗网络(GAN)的进步 。
GAN由生成器和识别器两个相互竞争的系统组成 。 建立GAN的第一步是识别所需的输出 , 并为生成器创建一个培训数据集 。 一旦生成器开始创建可接受的输出内容 , 就可以将视频剪辑提供给识别器进行鉴别;如果鉴别出视频是假的 , 就会告诉生成器在创建下一个视频时需要修正的地方 。
【华为|陈根:虚拟会议伪造人脸,深度合成的技术危害还在蔓延】
根据每次的“对抗”结果 , 生成器会调整其制作时使用到的参数 , 直到鉴别器无法辨别生成作品和真迹 , 以此将现有图像和视频组合并叠加到源图像上 , 最终生成合成视频 。
深度合成通过软件收集的用户照片 , 以及眨眼、摇头等动态行为信息 , 会对用户的隐私安全等造成伤害 。 2019 年 3 月份 , 《华尔街日报》报道 , 有犯罪分子使用深度伪造技术成功模仿了英国某能源公司在德国母公司CEO 的声音 , 诈骗了220 000 欧元(约1 730 806人民币) 。 其破坏性可见一斑 。
正如此次FBI所指出的 , 从2019年到2021年 , FBI接到越来越多和虚拟会议有关的BEC , 攻击者通常是冒充公司高层或部门主管 , 命令受害者汇款到诈骗账号 , 一如以冒名电子邮件进行的诈骗 。
根据FBI , 利用新科技进行BEC攻击的手法包括黑客冒充公司CEO或金融主管如首席财务官(CFO) , 发送电子邮件加入虚拟会议 , 会议中冒用CEO/CFO的静态照片 , 宣称镜头或麦克风故障无法操作 , 有的用deep fake音效 , 有时不发声音 , 要求员工通过虚拟会议平台或后续的电子邮件汇款 。 有的则是利用CEO邮件账号插进员工的虚拟会议中“旁听” , 以搜集公司业务或研发活动信息 。
面对发生在虚拟会议平台的变脸诈骗威胁 , 除了企业应留心不熟悉的虚拟会议等 , 从社会角度来看 , 更应该对深度合成这样的技术进行规制 , 用技术对抗技术的风险 , 用制度将技术的风险限制 。

    相关经验推荐