deep fake事件是指利用深度伪造技术非法合成色情视频的集体性犯罪事件,是韩国男性用自己熟人的kakaotalk头像或上传到instagram的照片制造deepfake,利用图像合成技术,把女性熟人或网友的头像嫁接在裸体的图片上,在网络上分享传播的事件。
据雅虎娱乐新闻12月16日报道,前两天刚刚荣获《时代》周刊年度人物的特斯拉总裁、全球首富埃隆·马斯克热度不减,而热度几乎要超过他的还有一位,就是图上这位,可千万别以为他是马斯克的微服私访照,这是一位中国小伙,因为撞脸马斯克,一夜之间爆火全网。
Deepfake是一种将个人的声音、面部表情及身体动作拼接合成虚假内容的人工智能技术。主要是将生成式对抗网络的机器学习模型将图片或视频合并叠加到源图片或视频上,借助神经网络技术进行大样本学习从而实现伪造的目的。
2021年春天,英国女孩朱迪(Jodie,化名)收到一个匿名电子邮箱发来的邮件。邮件里有一个链接,点开后是一个色情网站,里面有一些很露骨的照片和视频,一名女子跟不同的男性发生关系。朱迪惊恐地发现,照片和视频里的那个女人,竟然都顶着她的脸。
一周之内,一名假的基辅市长“克利钦科”骗了柏林市长、维也纳市长、马德里市长,与他们三人分别进行了一段视频通话,柏林市长发现不对后掐断了通话,维也纳市长全程没发现,还在结束通话后在个人社交媒体官宣两人通话一事,被发现受骗后他删除了帖子。
最近,韩国再现“N号房”丑闻。30日一早,多个关于“韩国AI深度伪造淫秽影像”的话题词引发网友热议。自称韩国籍女子甚至在中国的微博上求助并曝光相关事件。“深度伪造”,即利用AI换脸制造色情图频,并通过社交媒体平台传播的性犯罪行为被大量曝光。
利用“深度伪造(Deepfake)”技术所实施的性犯罪日趋猖獗,成为当前韩国国内舆论风暴的中心,被视为“N号房”丑闻的翻版。据报道,目前海外通信软件“电报(Telegram)”中,传播着无数女性被AI生成“换脸”的“性影像”,其中参与犯案者多达22万人,引发韩国民众恐慌。
近日,韩国出现多起利用AI换脸伪造女性色情露骨图像的犯罪案,在这背后,犯罪者用深度伪造技术(Deepfake)合成色情照片和视频,并在通信软件Telegram的群聊中传播,参与者多达22万人,引发韩国民众恐慌。
【环球时报综合报道】一项调查显示,超过90%的韩国教师担心自己被收录在学生毕业相册的照片可能被用于深度伪造(Deepfake)性犯罪。近70%的受访教师建议学校应停止制作毕业相册。该调查由韩国教员团体总联合会于9月30日至10月9日进行,涵盖了3537名教师。