诚信为本,市场在变,诚信永远不变...

高德资讯

“我在成人网站上,看见了杨超越...”


文/夏千语

众所周知,近几年,AI换脸技术火遍国内外。

不论是素人,还是明星,都能运用这项电脑技术把自己的脸换成别人的,又或者是把别人的脸换成自己的。

就跟易容术似的。所以,不少网友都感觉十分有趣。

特别是当我们在网站上,看到的那些明星换脸“搞笑视频”,更是忍俊不禁。

沈腾版《回家的诱惑》、贾玲版《梨泰院Class》、甚至还有两人共同出演的《泰坦尼克号》......


图片来源:网络

您还别说,有时候真挺好看的。

于是,诸如此类的AI换脸视频在网上应有尽有,播放量达到几十万,甚至几百万。

但很多人不知道,这项技术在给人们带来欢乐和趣味的时候,却也有人因为这项技术深受其害。

尤其是一些女明星。

前段时间,曾看过这样一则新闻:

“互联网上大量出现,通过AI换脸实现的由知名女艺人 主演 的淫秽视频。”

于是乎,明星+AI换脸技术+小电影,一部明星的“造假视频”就这样诞生了。


图片来源:网络

而据了解,受害女星人数已达到上百位,其中就有杨超越、刘亦菲、杨幂、迪丽热巴等当红女星。

说实话,这样一看,确实让人触目惊心。

毕竟在自己不知道的情况下,就变成了“成人网站、色情网站”的女主角,任谁都会觉得恐怖吧?

况且,还是有着超高知名度的女艺人,这对她们本身以及名誉,都是很大的伤害。

尤其是,这些视频还在被明码标价售卖!

由此可见,“AI换脸”已经不仅仅是一门技术。而是一条依附于“AI换脸”的黑色产业链。

0

新京报记者,曾伪装成卖家,了解到了一些关于“AI色情换脸女明星”的内部消息。

通过卖家得知:

“(购买)低于15部算4元一部,超过15部算3元一部,80部全买只要68元。”

而视频文件将通过QQ文件发送,支持微信、支付宝、QQ红包等支付方式。

记者当时随机购买了一个标题为某知名女明星的视频。

视频中女主角脸部全部替换成了该女明星,尽管换脸效果粗糙,但仍能一眼识别出来。

随后,卖家还附赠了相关视频的剪辑版本,包含多个淫秽视频的部分内容,其中女主角的脸全被替换成了这一女星。

而视频的价格,则根据单个视频的时长和制作效果定价。

“有30分钟、40分钟的,也有5分钟的,有像的也有不像的,所以单买价格不可能一样。”


图片来源:网络

可怕吗?当然可怕!

在这些人的黑暗操作下,女明星的脸被合成为了一部部“色情片”,甚至被明码标价。

当然,或许会有人说:反正都是那些知名的女星才会受害,我们这些普通人,谁会认识啊?

但大家不知道的是,在“AI换脸”技术下,每个人都可能成为受害者。

尤其是普通人。

本来嘛,我们身边人的鉴别能力就较弱,他们往往比起真实性,更注重内容的轰动性和刺激性。

所以说,一旦被“AI换脸”成为“小电影”的主角,就极有可能会给无辜的当事人带来非常大的精神伤害。

而且,“AI换脸”的应用场景不仅是色情视频,还可能被用于电信诈骗。

如果有人通过“换脸”向“被换脸者”的亲友索要钱财,就算诈骗不成功,也可以造成损害当事人名誉的影响。

0

不可否认,因为科技的进步,人们可以得到很多便利。

然而科技是两面性的,有人用它创造美好,带来欢乐。也有人用它造假犯罪,敛财害人。

不知道大家是否看过“AI鉴别渣女”的新闻?

查询者可以通过上传女性照片、视频和数据库做匹配。判断该女性是否疑似从事过色情行业。

据称,该程序借助100多TB的数据,在全球范围内成功识别了10多万从事不可描述行业的小姐姐。

同时,这款程序还可以对美颜、Deepfakes换脸等有效对抗,识别率达到99%

而对于声音语气模仿采用声纹检测对抗,识别率达到100%。

那个程序员声称,之所以开发这款程序,是为了鉴别“渣女”。避免老实又多金的程序员群体成为“接盘侠”。


图片来源:网络

此言一出,舆论哗然。

是啊,现在的技术是发达了,可是利用这种技术就随意窥探他人的隐私。

这样的技术以后使用了,也不过是披着AI鉴渣女的外衣,干着令人恶心的事罢了。

女性是不雅视频的受害者,而非欺负老实人的“渣女”。

换句话说,不论是被偷拍还是自愿配合拍摄的女性,都应该有属于自己的隐私。

03

这两年来AI技术发展日新月异,我们的生活中也有很多场合已经应用了AI技术。

AI技术无罪,但是如何利用AI技术现在成为了一个大问题。

因为光是人脸识别技术就能做很多超出想象的事了。


图片来源:网络

本质上,技术无罪,关键在于用技术的人

一念成佛,一念成魔。药可以用来救人也可以用来杀人,技术也是如此。

实际上,科学伦理一直就是科学界的核心问题。

比如禁止“克隆人类”“人类基因编辑”这些违反科学伦理与共识的方向。

再比如用人脸识别或者隐秘、红外功能偷拍女性。以及这类收集大数据来单方面识别出情色视频中的女性。

正因为科技不具备道德,所以,利用科技者更应有道德。

人们对于不同领域的技术应用一定会有不同的担心和考虑。

每个人都应该了解,先进的技术不应该成为那些无下限的人的“武器”。

所以,在科学技术发展的过程是需要伦理约束的。应该要科学让技术去造福人类,而不是伤害人类。

相关新闻

明星被AI换脸私密视频 造谣有不正当关系AI技术太牛

AI技术是什么?其实它就是人工智能,artificial intelligence,缩写为AI。

AI之所以被关注,其实源于它的换脸技术。

1月23日,有网友发现刘昊然被AI换脸之后,制作了私密视频,并且造谣他与别人有不正当的关系,还在网络上大肆传播。很多人都信以为真,然而有细心的网友发现,刘昊然本人胸口是有痣的,并且耳垂也没有外翻。



此事在网络上引起了广泛讨论,刘昊然工作室于1月22日发布严正声明,澄清谣言,有力地反驳了网络上的不实言论,并且已经交给律师处理。



刘昊然不是第一个被换脸的明星。

之前就有人把《射雕英雄传》里,朱茵扮演的黄蓉换上了杨幂的脸:







就动图来讲,足以以假乱真。以前,常说无图无真相,现在连视频都不能信了。

有人说,AI换脸术是把双刃剑,它可以用于影视制作,但也可能被人恶意使用。事实上,有影视特效公司就对这项技术非常感兴趣,可以提高后期制作的效率和节约成本。



尼古拉斯·凯奇和自己的“AI分身”一同登台电视节目

对于用于影视制作:

有网友认为,AI换脸是对原演员的不尊重,甚至会导致部分流量明星完全可以不用担心演技,用替身拍,在用AI技术换脸。就此来讲,是不是影视公司也可以不用担心劣迹艺人了,当出现劣迹艺人时,直接用AI换脸技术把人脸换了,影片照常上映?



对于可能被人恶意使用:

其实在AI换脸技术被得知的时候,在互联网这样的环境里,时时刻刻都有人想践行一些“大胆的想法“,于是,一夜之间,盖尔加朵、斯嘉丽约翰逊、艾玛沃特森等女神都突然有了”新作品“,可谓”一种难求“。这其中有些视频处理的质量还很高,几乎完全看不出是脸是被移植上去的。



AI换脸技术还引起了女明星的集体恐慌,19年就有多家媒体报道过多位女明星不雅换脸视频被公开售卖。



现在,连男明星也要恐慌了,刘昊然被AI换脸私密视频恐怕不是唯一一个。

虽然,民法典规定,未经本人允许,利用AI换脸技术伪造他人的脸恶搞,是构成侵犯肖像权的。任何组织与个人都不能丑化、污损他人形象,尤其是利用高科技技术手段,不可知法犯法。



但这只能是在发生时,惩罚对方,而阻止不了那些有心人。

如何才能防范自己成为AI换脸技术的受害者呢?

AI换脸术 让你成为色情片主演

Deepfake是祸害,还是造福?能回答这个问题的,还是使用这项技术的人。

设想有一天,当你打开手机,收到一段视频,你的脸被安在了色情电影的主角身上……

这不是天方夜谭,这是印度记者拉娜·阿尤布的真实遭遇。由于得罪了当地的恶势力,有人便用Deepfake技术合成视频来诋毁她。

Deepfake是一种利用机器学习和人工智能,操纵或者伪造具有极高欺骗性的视觉和音频内容的技术。自从它诞生以来,最臭名昭著的应用就是色情电影“换头”。

除了作恶,Deepfake也有“善”的一面,比如在电影拍摄中的应用,或者零售业提供的在线试穿功能,以及大量的娱乐APP能够让你简单地做出搞笑的视频片段。

从当前Deepfake技术的应用看,利用它作恶,远比造福社会容易得多。所以,Deepfake是如何做到“以假乱真”的?什么技术能够制衡Deepfake?“深度造假”和“反深度造假”,哪一方能最终获胜?在获取真相越来越难、欺骗越来越容易的时代,普通人该如何面对?



Deepfake是祸害,还是造福?图片:CFP

刘都统:可能有的人没有听过Deepfake这个概念。Deepfake是一个合成词,前半部分“Deep”代表深度,“fake”就是造假,连起来就是深度造假的意思。为什么这个话题值得聊,因为这个技术引发了一系列的问题,引发了全球关注。其中还包括很多恶性事件。

贺哥:没错。比较引人注目的是用这项技术制造“换脸”的“小电影”。把色情片女主角的脸换成当红女明星,比如漫威电影中黑寡妇扮演者斯嘉丽就是受害者。她本人对这种事又气愤又无奈,自己的脸被贴到了别人身上,无可奈何。

刘都统:维权都不知道找谁。

贺哥:视频网站确实删除了,但是很难在全网删干净。

刘都统:早在2018年的时候,印度那边有一个叫拉娜·阿尤布的女记者,因为要为一个被奸杀的8岁女孩伸张正义,得罪了当地的人民党。该党领导人支持罪犯,声称由于他是印度教徒,所以被诬陷。这位女记者显然不同意这种看法。后来女记者遭遇了一系列非常恶劣的事情,首先是很多人发图片和推文来攻击她,然后有一天中午,她正在和朋友喝咖啡,收到一段视频,打开一看,是一段色情视频,主角就是自己。

贺哥:这太恶劣了。

刘都统:这是非常典型的用Deepfake技术进行换脸操作,然后对目标进行攻击诽谤。关键在社会上对一个女性发动这种攻击,影响非常深远。后来持续地有人在脸书上骚扰她,甚至打电话骚扰她。

贺哥:还有一种基于Deepfake的应用,就是对身边熟悉的人拍照,然后可以用Deepfake技术把目标的衣服脱光,看她(他)的裸照。还有一项调查显示,虽然很多人的性幻想对象是明星,但是也有相当多的人,他们对身边女生的兴趣更大,经常用她们做假想,这种现象比例高达63%。

刘都统:所以Deepfake到底上是怎么变成一个作恶工具的?这得从它诞生说起。其实,Deepfake就是伴随着在色情电影中的应用诞生的。早在2017年,在国外有一个非常有名的科技类论坛叫Reddit,当时有一个叫Deepfake的用户,他就在论坛上共享开源代码来转换别人的脸部,用这种技术替换色情电影女主角。后来就把这种技术叫成了Deepfake。那么,这个技术到底怎么完成换脸的?

贺哥:核心技术是对抗生成网络,英文也叫GAN,这项技术在2014年被发明出来。从原理上说,它就是基于深度学习的两套系统,两套算法。一套用来生成假视频,另一套叫对抗模型,不断检测这些生成的假视频。直到对抗模型无法检测出第一套模型在造假了,视频也就合成了。这很像金庸小说中的顶级武学——左右互搏之术。自己和自己打,不断提高造假的质量,这是一种无监督学习,不需要人的参与,整个过程就是人工智能的自我磨炼。

刘都统:所以这个系统先进的地方就在于一边造假,一边检测。自己既是小偷又是警察,通过警察不断磨炼小偷的技术,然后把技术磨炼的非常高超。

贺哥:是的。这种人工智能的训练过程还需要大量的数据集。也就是说,能用来训练的图片、视频越多,训练出的AI造假能力越强。

刘都统:这也就从某种程度上解释了,为什么一些公众人物更容易被换脸,因为他们的出镜机会太多了。

贺哥:对,素材太多了。

刘都统:这很容易让人把Deepfake和人脸识别联系到一起。现在非常令人担心的是,人脸识别的数据丢失,或者被盗用,会不会成了别人做Deepfake、换脸的素材?

贺哥:非常有可能。现在一些Deepfake技术的算法,就是基于公共数据库来训练,也就是公共的人脸数据。

刘都统:Deepfake除了在色情电影上有应用,还有其他不好的影响。比如在2019年,有人用Deepfake技术合成音频诈骗。当时英国一家能源公司的首席执行官接到了母公司CEO的电话,让他给一家匈牙利银行账户汇款22万欧元,他被骗了。电话里的CEO,其实是骗子用Deepfake模拟的声音。

贺哥:这种情况,应该提前去验证一些问题,确认对方身份。

刘都统:对。一些安全专家建议,如果你的企业非常担心被Deepfake诈骗,那么在开电话会议的时候可以对暗号。比如我们看的历史剧,像是《三国演义》里边,“今晚的口令是什么?”回答说,“鸡肋!”这就知道是不是自己人了。

贺哥:咱们讲到的这些案例,想做到还是有一定技术门槛的。制造假视频的人,自己要懂一些技术,也要有强大的硬件去运行人工智能程序。但是现在要特别注意的是什么?现在用Deepfake的门槛越来越低,很多开放的论坛或者开发出来付费的软件,让普通人也能用。

刘都统:这可能会造成谎言大流行。比如生成我和某个明星的合影去炫耀。所以现在就有一个问题。俗话说“道高一尺,魔高一丈”,Deepfake产生了这么多不好的影响,有没有什么技术能反制它?

贺哥:自从Deepfake诞生之后,就自然而然有人去研究反向破解。造假和打假,总是相伴相生的。本质上说,还是要用AI对抗AI,因为人眼是无法分辨Deepfake造假的。

刘都统:关于AI对抗Deepfake这个事情,首先要说一个结论:打假永远比造假难。

贺哥:打假会滞后。只有造假的东西出来了,打假才能针对性地开发技术。与此同时,Deepfake本身的技术也在不断提高,一旦你用新技术去识别它,它就把你的技术放到自己学习系统里,学会规避它。

刘都统:没错。这里非常重要的一点就是,刚才提到了Deepfake的机理,相当于一个既是小偷又是警察的人,它能自己训练自己。所以在Reddit论坛上,有一个关于侦测Deepfake的帖子,下边有一句被置顶的评论,原话是这么说的:任何一种反Deepfake的技术,都会让Deepfake越来越强大。

贺哥:用来反Deepfake的技术叫Deepfake检测器。现在一些研究者用的方法是检测视频中的人的生物学特征。比方一项研究,人心跳的时候,肤色会有明暗的变化,这种变化肉眼看不出来,但是高分辨率的机器可以分析出来。所以这种技术就是分析视频中,人脸上不同部位的明暗变化是不是同步,如果是真实的人,则是一致的,合成的人像不一致。就当前Deepfake的技术,合成视频时,还无法渲染到如此精细的程度。

刘都统:应该说暂时还做不到,未来迟早能做到。

贺哥:这个方法识别率很高。相关的科学家在全网的一些大型数据库测试,90%的视频可以分辨出真假。当然,Deepfake造假者也可以通过阅读论文掌握其原理,然后让Deepfake学会这个技术,改进造假手段。

栏目导航

高德资讯

联系我们

CONTACT US

电话:13988888888

传 真:海南省海口市

手 机:0898-66889888

邮 箱:88889999

地 址:/public/upload/system/2018/07/28/2091301cca30ff8c6fd3ecd09c8d4b02.jpg

平台注册入口