8月尾,闹得沸沸扬扬的韩国N号房丑闻事宜羊已经骂过了。
这次又涌现同样恶劣的性犯罪事宜:
一些韩男利用AI把女生脸部抠图,制造色情内容上传到网站供应浏览猖獗捞钱,堪比N号房事宜2.0。
这个色情网站的覆盖率有多吓人?
据爆料者统计,5000w人口的韩国,就有40w人注册会员,个中有70%的浏览用户还是青少年,这次的调查更是涉及到500多所学校。
细思极恐…
图源:关于这件事的新闻宣布r
换句话说,这么高的用户覆盖率解释这些不法分子的恶行已经侵入到这些女性受害者的熟人社交圈层。
而周围熟人作案,又进一步催熟了这种情色网站的扩展。
韩国乃至有个专门词汇叫做“지인능욕”(熟人羞辱)——在谈天群分享女性熟人照片,号召其他男性对她进行性羞辱。
更令人愤恨的是,一些儿童也经AI换脸后成为情色受害者群体。
在这些大量的女性受害者中,有女生受害者表示自己不仅被曝光隐私,还收到了敲诈打单。
热搜直接显示:韩国女孩被逼到全天下乞助。
这些不法行为的始作俑者身份的多元化同样令人震荡,除了一些隔着网线的阴沟里的蛆虫外,乃至包括某些男明星。
新闻宣布中JYP、YG、CUBE等韩国几大娱乐巨子的艺人都有沾边。
他们的不法行为曝光后有的艺人退团,经纪公司也不得不出来发布声明,看起来也是实锤得不能再实了。
作歹到如此地步,不仅是身在韩国的女性,全体天下的女孩都在担忧这件事:
科技在发展,AI在进步,本来都是好事,怎么到了某些人这里,就成了专门针对女性作歹的工具了?
本日羊就来详细科普下这次的作案工具Deepfake到底是咋回事,以及在高科技行业事情的女性供应的精确戒备办法。
Deepfake被滥用
是悬挂在女性头上的一把刀
先说说这次令人感到不安的高科技Deepfake到底是个啥?
Deepfake这个词在学科内指的一样平常是利用AI技能进行“面部操作”,生产假视频,制造假新闻。
这次被爆出的色情网站telegram上就有两种此类AI作案工具。
一种工具叫做bot,可以利用AI直接自动将女性受害者照片合成色情图片视频。
除了bot之外,还有另一种是凌辱房(谈天群,以大学和地区为单位),和之前被爆出来的N号房类似,顾名思义的烂透了。
乃至有些照片是在给女性支属下药后拍摄的,恶心到想吐又实在是不寒而栗。
凌辱房群内的男性会故意靠近受害者女性,见告她,她被deepfake并分享了,记录下她的反应,再向群内传播,主打一个沉浸式羞辱。
除了图片视频之外,网站上还供应一些猥亵女孩的群直播。
这种把不知情的素人做成情色图片供陌生人浏览的猎艳有多夸年夜?
经受害者爆料,个中一个bot的粉丝数量达到了40万人,仅仅在学生群体中,网站的用户就很可不雅观。
韩女根据利用telegram男学生的密度,绘制了共享舆图,红点覆盖面密集得令人窒息。
还有爆料者称,素人网友去韩国街,就有被AI换脸到色情网站的。
韩国deepfake性犯罪已经渗透至养老院,老人像订阅报刊一样日常消费这些被AI恶意天生的情色,呵呵。
@奋斗在韩国
N号房和 Deepfake实质都是性剥削,但犯罪形式完备不同,Deepfake是利用女孩发布的照片来AI操作。
也便是说,后者的操作更随意马虎更广泛,犯罪的门槛更低,女孩子成为受害者也更随意马虎。
同时,比N号房犯罪更恐怖的,是利用Deepfake犯罪的人,由于和受害者可以没有任何关系。
道德借由网线隔开,被人性鞭策,再被技能麻木磨灭,在他们犯罪的过程中,受害者最大程度的被归天为捐躯品。
陌生人可以随机作案,熟人也可以,尤其是熟人作案,很随意马虎摧毁受害者构建起来的熟人圈层的安全感。
有一些女孩,如我们前面提到的,被周围的人辨别出来,还收到了敲诈打单,受到了二次型的暴力侵害。
而不管是被换头还是被打单,这些对她们来说都可以是很溘然的天降横祸。
最令人恶心的是,AI换脸不仅侵害女性,还可以给男性免责,把男生的脸换了。
丑闻爆炸后,韩网上有人发帖,「我上初中的儿子会由于AI换脸性犯罪被惩罚吗」。
气得网友辣评:你宝不是打游戏当什么捏脸玩家,他犯罪了哎喂!
明明Deepfake的被滥用是部分韩男在违法,末了却成为专门针对女性的一把刀。
并且,不仅是在韩国,在美国其他一些地区,也创造了这种技能在情色上的滥用。
AI换头不是恶作剧
而是犯罪
为啥Deepfake的滥用这次引起全天下范围内的痛恨?
或许会有人说,问心无愧没做,不理不就行了?显然,Deepfake的问题绝非这么大略。
在加害者眼中,换脸是无足轻重的玩笑和闹剧,对受害者而言却是拖她们进入地狱模式。
「在脸被偷走的同时,女孩们的身份、名誉、隐私、尊重也都被偷走了」。
这些被盗取被侵害的女孩,她们并不是一行图像代码,一次订阅数据,而是拥有思想、生活的真实人类。
纵然只是被窃取信息换头,那些色情内容也足够令她们痛楚。
其次,Deepfake在情色行业的滥用,实质上便是对女性的性剥削。
回归到这个词涌现的最早期间,Deepfake这个词在学科内指的一样平常是利用AI技能进行面部操作,生产假视频,制造假新闻。
这一观点最早源自一个名为deepfakes的用户,该用户在 Reddit上发布视频,将娱乐明星的脸换到色情视频上,得到了大量关注和转发。
赫敏被AI换脸后的擦边视频
也便是说,从一开始,它在色情领域的运用便是违法的。
也有学者把这种由于数码产品或者互联网技能的发展对女性造成的侵害称为「数码性剥削」。
以N号房和Deepfake为例,数码性剥削不仅包括偷拍、传播、情色资料交易等详细行为,还包括在技能层面,全体女性的权柄不被制度和规则保护。
幸运的是,我们还有那些坚持为女性权柄发声的科研职员。
就在前几天,上外洋滩大会AI创新赛,中科院工程师张欣怡公开宣告自己会和团队一起努力占领Deepfake的算法。
怎么占领?大略来说便是检测这个画面是不是AI合成,类似AI查重。
张欣怡已经承诺会尽快开放针对Deepfake的运用,降落门槛让所有人免费利用。
她表示:「既然有人用技能造假,那么我们也要用技能去阻挡他们得逞,如果一个人的火把太小,我们就把火把传给天下的每一个人」。
同为AI技能创作者的女博主也真情实感发声:我们做AI产品,初衷是想让社会变得更好,这才是AI的意义。
如果技能能够供应力量,就永久有比妥协更好的办法。
除了针对Deepfake的算法之外,一些好还在连续。
据韩联社9月5日宣布,韩国警方已被拘捕韩国一名高中生,后者涉嫌利用Deepfake性暴力犯罪。
末了羊想说,犯错的人才该当被惩罚,而不因此受害者的妥协为结束。
每一个女孩都是活生生的人,她们不应该被归天和性化,女孩们活着该当发光发亮,而不是被践踏,被熄灭。
女孩们的生活日常,不该成为情色网站的内容。
就像《N 号房追踪记--韩国数码性剥削犯罪记录》的作者在书中写道:
「我们要割断把女性视为俊秀的花朵,终极和性器官画上等号的父权制和成本主义的纽带」。
如果科技的进步危害了女性的权柄,那么就该当有人站出来去修正。
只有女性的权柄得到保护,人类的科技文明,才是真正的文明进步。