能生成任何人裸照的性犯罪,从韩国开始泛滥

在深度伪造技术的加持下,任何人的照片都能被篡改拼接,而且看上去毫无修改痕迹。自己的脸被拿去拍裸照和小黄片这样的遭遇,如果能在韩国出现,那么理论上在全世界范围泛滥就是迟早的事,并且女性往往会首当其冲成为受害者。

责任编辑:李屾淼

进入“电报”(以保密性著称的即时通信软件)聊天房,上传一张脸部照片,不到5秒钟,采用了深度伪造技术(Deepfake)的机器人(bot)就能合成一张真假难辨的照片——就当前而言,深度伪造技术已经可以把不同人的声音、面部及身体像拼图一样随意拼接,制作成各种影像乃至视频。

2024年8月,大量利用深度伪造制作色情合成物的“电报”聊天群在韩国的社交媒体上曝光,受害者遍布韩国全国,涉及明星、军人、老师、护士、学生等不同群体,多为女性。

但这并非韩国本土首次出现深度伪造性犯罪。2019年N号房事件被曝光时,曾有媒体报道过一些“电报”聊天房正利用合成技术制作色情影像。此后深度伪造性犯罪一度淡出公众视野,但并未真正消失。

在备受关注的“首尔大学深度伪造性犯罪”事件中,受害女性自己收集整理证据,用长达两年五个月的时间将加害者送上法庭。然而,有关深度伪造的数码性犯罪不仅没有得到遏制,反而愈演愈烈。

一出民间倒逼官方的奇观因此在社交媒体上演。从2024年8月末开始,韩国女性网友开始不断将受害者的经历翻译成不同的语言,在互联网上传播,几个深度伪造话题下的推文数量都超过了三万,一些热门推文的阅读量已突破一千万。

“正是由于韩国媒体的沉默,我们才不得不使用英语写作。这么做是为了迫使他们报道而非试图掩盖它。”参与者之一玛丽告诉《南方人物周刊》。

“韩国的换脸问题太严重了。”“现在无法预测有多少女性因深度伪造技术而受害。”8月末,随着两位韩国女生在微博发文求助,“韩国新版N号房”等话题在中文互联网传播开来,并迅速占领热搜首位。

“韩国媒体和司法系统不会做他们应该做的事情,除非他们因为没有采取正确的行动而受到国际社会的抨击。”一位网友戏谑道。

2024年8月28日,韩国首尔,韩国女性人权振兴院在数码性犯罪受害者支援中心内设置了深度伪造犯罪受害预防和对受害者紧急援助方案的看板(图:视觉中国)

2024年8月28日,韩国首尔,韩国女性人权振兴院在数码性犯罪受害者支援中心内设置了深度伪造犯罪受害预防和对受害者紧急援助方案的看板(图:视觉中国)

合成一张裸照,只需三块四毛四

“发送一张你最喜欢的女孩的照片。”朴高恩进入房间后,立即收到聊天机器人发来的信息——这是“电报”上一个利用深度伪造非法合成色情影像的房间,参与者达22万人。

进入这些房间并不困难,只需要在社交媒体上搜索关键词便能收获一大串访问链接。

朴高恩按照提示放入一张由AI制作的虚拟女性照片,5秒后,一张裸体照被合成出来。她仔细端详照片,发现其足以以假乱真,照片一旁甚至还有按钮调整特定部位的大小。这样一张合成照片,制作费用仅需约650韩元(约合3.44元人民币)。

“技术进步得如此迅速,着实让我震惊。”作为一名记者,朴高恩两年前就曾撰写过非法数字合成物犯罪的报道。在她的印象里,过去人们还需要付费给专门的技术人员才能制作非法数字合成物,而现在

登录后获取更多权限

立即登录

校对:赵立宇

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}