近些年,AI换脸、人脸识别等技术应用火爆,其中潜藏的隐私安全问题已得到有关部门的重视。

在315晚会中被曝光的万店掌因涉嫌侵害公民信息已被立案调查后,网信办等部门近期加强了对语音社交软件和涉“深度伪造”技术的互联网新技术新应用安全评估,映客、小米、快手、字节跳动、鲸准数服、云账户、喜马拉雅、阿里巴巴、网易云音乐、腾讯、去演等11家企业被依法约谈。

自Deepfake深度伪造技术诞生不到5年以来,产生的社会问题和争议从未停止。随着这项技术的普及和应用,原本无辜的技术也成为了别有用心之人做恶的工具:啦啦队员被朋友母亲伪造不雅照片和视频欺凌骚扰、犯罪分子模仿能源公司高管声音诈骗24.3万美元、色情片女主角的脸被换成当红明星用以非法获利、国家首脑在政治活动中被竞争对手用造假视频抹黑……公众和企业应怎样鉴别造假,deepfake还有没有被引向正途的可能?

1.

Deepfake即深度伪造一词由“深度学习”和“造假”组合而来,指的是通过机器学习模型将图片或视频合并叠加到源图片或视频上,借助神经网络技术进行大样本学习,将个人的声音、面部表情及身体动作拼接合成虚假内容的人工智能技术。

在日常生活中,Deepfake最常见的形式是AI换脸技术,此外还包括语音模拟、人脸合成、视频生成等。它的出现使得篡改或生成高度逼真且难以甄别的音视频内容成为可能,“眼见”不一定“为实”。

早先,deepfake作为一种后期特效技术曾在影视行业中大显身手,用来弥补特效化妆技术的不足,其使用范围也仅限于专业的电影制作机构。但随着计算机算力的提高,deepfake的门槛也逐渐降低,甚至普通人在经过一段时间的学习后也能够掌握。

2019年9月,一款名为ZAO的换脸应用大火,让无数当代青年体会到了换脸的乐趣,但也因隐私风险和霸王条款被下架封杀,也掀起了AI技术发展与隐私安全的讨论。今年元宵节前后,美国AI换脸软件Avatarify以其洗脑的“蚂蚁呀嘿”特效快速掀起全民娱乐狂潮,但也因为隐私问题被“周抛”。此后,国内的抖音、快手等短视频平台火速推出了自己的AI换脸特效,或许为之后被约谈埋下了契机。

将deepfake技术用于制作真人表情包、搞笑视频或许有些大材小用,但到底无伤大雅。可当高端技术飞入寻常百姓家,局面也逐渐失控。目前,deepfake在民间多被应用于诽谤、诈骗等负面甚至违法用途,除了侵犯个人隐私、名誉,深度伪造技术的滥用还将给企业造成信誉和经济损失、对新闻媒体的公信力造成冲击,甚至威胁到公共安全。

2.

为最大限度避免此类伤害的发生,针对深度伪造的检测、鉴别方法也不断被研究出来,已知的包括:分析心率、脉搏、血液流动等生物信号的一致性;眼角膜上的光线反射图像的对称性;影像细微渐变分析技术等等。

同时,deepfake打假也掀起了一阵创业风潮:有着计算机背景的专业人员与警察、记者、保险公司等不同行业合作,借助区块链等技术辅助鉴别造假图像和声音,解决方案主要面向大型社交媒体和视频共享平台,帮助用户打击虚假图像、视频、音频的传播。值得一提的是,在图像鉴别方面已有商业级应用上线投入使用。

深度伪造鉴别器的主要设计思路是AI反制,说白了就是“用魔法打败魔法”,但道高一尺魔高一丈,制造出“深度伪造”内容的机器学习方式很难逆转用以检测它们。

Deepfake的核心技术是“生成式对抗网络”(GAN),其原理类似左右手互博:在生成对抗性网络的两端,一个是建构程序,一个是认证程序,生成器生成假视频,鉴别器用以鉴别真伪,以此不断提高造假的质量,也使得检测Deepfake的方法很容易被超越。

就像猩红女巫的每一次混沌魔法攻击都被反派阿加莎吸收,科研人员每一次精心寻找的破绽的过程都像是在帮助deepfake的造假技术更加精进。

比如,此前深度学习曾有过的眨眼以及微表情等bug,在被发现后也很快被模型优化。科研人员发现在每个造假的视频帧中插入被称为对抗性样本的输入,即可击败探测器从而欺骗deepfake检测系统。

你来我往、此消彼长,围绕着deepfake的这场攻防战似乎没有尽头。

3.

前美国国家安全顾问、国务卿基辛格在谈人工智能《启蒙运动的终结》中提到:“我们无法完全预测新技术的变革带来的影响,它发展到顶点时,可能会带来一个依赖于数据和算法驱动的机器、不受伦理或道德规范约束的世界”。

在科学技术不断进步,赋能社会发展的能力指数级增长的同时,也伴生着潜在的巨大威胁,从社会制度层面来看,媒体舆论监督和公众监督渠道不畅通甚至缺失会使得技术开发和应用变得肆无忌惮。

AI开源组织Datawhale负责人司玉鑫表示,新兴颠覆性技术可能带来巨大的创新红利或竞争优势,但在缺乏监管与协同治理机制前提下,人性需求驱动的技术竞赛可能诱发对新兴颠覆性技术不加限制的开发和谬用,潜在负面后果将难以估量。从更深层次的技术文化和价值观来看,技术或许并不中立,在系统上缺乏技术伦理教育和科技向善理念的引导下,容易导致技术对人的异化。

好在,也有人发现了deepfake的正确打开方式:语音合成能使普通人用自己的声音说出上百种语言;视频合成可用于模拟无人驾驶汽车事故以避免未来可能发生的车祸;替换医疗视频数据中的人脸保护患者隐私……此外,deepfake在广告片拍摄中还有很大潜力可以发掘。

一个有点尴尬的事实是,不论是用以娱乐恶搞的应用还是用以检测伪造的应用,终因服务过程中收集、积累了大量的用户信息从而拥有了做恶的可能性。怀璧其罪,众多企业被约谈不仅因为其拥有的数据和技术本身,而是因为他们具备将技术转变为工具的能力。

今年是隐私保护的监管年,行业人士建议从业者合法合规、经过客户书面同意,按照必要性的原则收集客户的信息,并加大信息安全保护力度,妥善保管收集的客户数据信息,防止信息泄露,以免受到不必要的行政处罚。