细思极恐!你的“声音”也能被深度伪造,妈妈都听不出差别来的那种!

投稿时间:2019-09-10  消息来源:央视财经  提交者:映梦

   最近有一项新的科技技术,用户只需上传一张正面照,就可以一键操作,把一些影视剧片段中演员的脸换成自己的,甚至还可以通过社交媒体上传至网络上。

  这种“深度伪造” 不仅可以换脸,还可伪造声音 。而目前一些科技公司在面对深度伪造的视频时,也显得 力不从心 

  这不禁让人们担忧,在深受网络社交媒体追捧的 “超级”新技术 背后,可能有哪些 安全隐患 

  语音合成“术”可以模拟任何人语音

  彭博社记者万斯使用电脑合成语音给他母亲打了个电话,看看他母亲能否发现?

  彭博社记者 万斯: 现在为了实验一下,我的电脑合成音,我要给我亲爱的妈妈打个电话,看看她是否能听出来。

  万斯(合成音)  嗨,妈妈,你们今天什么安排?

  万斯的母亲: 今天一早家里没电了,我们正在房子里溜达。

  万斯(合 成音) :我刚刚下班,等着接儿子回家。

  万斯的母亲: 好的。

  万斯(合成音): 我觉得我可能感染了病毒。

  万斯的母亲: 那你感觉不舒服,是吗?

  万斯: 哈哈。 我刚才是和你捣乱,你刚才在和电脑说话。

  万斯的母亲: 我感觉在和你说话 ,真是奇妙。

  万斯: 你觉得吓人还是觉得不错。

  万斯的母亲: 如果涉及到非常重要的事情,真的挺吓人的。

  合成视频以假乱真

  深度伪造,是一种可以实时伪造面部表情,并将其渲染成2D合成视频的人工智能技术。“DeepFake”深度伪造,也逐渐成为这一技术的代称。

  李浩是美国南加州大学的助理教授,“针幕动画”公司的联合创始人,这家公司推出的软件可以让用户在玩虚拟现实游戏和购物时,即时定制自己的三维虚拟化身。

  “针幕动画”联合创始人 李浩: 现在我制作了一个你的化身。

  美国公共广播公司记者 奥布莱恩: 一个和蔼整洁的奥布莱恩。

  但随着技术的发展,这样的合成图像或视频,真实度越来越强,欺骗性也越来越强 。对此,研发者也不无担忧。

  2018年1月,一个名为FakeApp 的软件上线,宣称可以实现“一键换脸”。

  虽然有的社交新闻站点比如Reddit网站,已明令禁止 在自己的平台传播换脸视频和图片,但仍有超过9万名用户在Reddit上传播这类视频。

  计算机科学专家 法里德: 我担心这项技术被武器化,还担心它如何影响我们整个社会。

  “深度伪造”技术引发巨大争议

  新技术推广应用 应做好监管

  一些科技公司在面对“深度伪造”的视频时,也显得力不从心 。Instagram总裁莫里斯也在接受采访时表示,目前业界还没有大规模的数据或标准对这些假视频进行检测。

  Instagram总裁 莫斯里: 目前,我们还没有应对深度伪造的政策 ,我们正试着评估,是否愿意这么做。如果要做,又该如何定义深度伪造,我觉得此类事件并不好。

  主持人盖尔⋅金: 你可以把视频下架。

  莫斯里: 实际上,我想的不仅是把它撤下来,我认为问题在于,我们如何以有原则的方式,做到这一点。

  如今,诸如指纹支付、人脸识别解锁、声音解锁等,这些生物特征识别技术已经渗透到我们日常生活当中。然而,当这些都能被“仿造”时,小到个人财产,大到国家安全,面临的风险和隐患 就越来越多。

  技术是把双刃剑 ,用对了地方会造福人类,用错了地方,遗祸无穷。当新技术的能力越来越大的时候,每一项“超级”新技术的推广应用都应当慎之又慎,该有的监管也要跟上。

 

   顶一下    踩一下

评论内容

记得先输入验证码,再发布评论哦!(点击验证码小图可以更新)


返回
页首