来源:文汇报 近日,韩国曝出“Deepfake”(深度伪造技术)事件,被认为是采用新犯罪手段的“N号房”案件重现。多个关于“韩国AI深度伪造”的话题词引发网友热议。据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗。Deepfakes是利用AI换脸制造色情图频。
39岁的李娟枝(Lee yeonjee)是韩国一家公益组织的发起人和CEO。她正在和蔓延全国的“深度伪造性犯罪”战斗。有分析指出,把女性面部合成到不雅视频中并大肆传播的“深度伪造性犯罪”,已让韩国女性“陷入恐慌”,类似事件会让女性失去日常生活的安全感。
近日,韩国出现多起利用AI换脸伪造女性色情露骨图像的犯罪案,在这背后,犯罪者用深度伪造技术(Deepfake)合成色情照片和视频,并在通信软件Telegram的群聊中传播,参与者多达22万人,引发韩国民众恐慌。
来源:环球时报新媒体 据韩联社29日报道,韩国政府和执政党国民力量党当天同意,加强针对利用“深度伪造”(deepfake)技术进行犯罪行为的打击力度。报道称,社交媒体近期出现大量针对年轻女性的伪造淫秽影像,引发韩国公众愤怒。
21世纪经济报道记者肖潇 北京报道本周有不少引起舆论关注的事件,尤其与人工智能的发展相关:360、小天才在内的多款儿童手表因“联网问答”功能引起争议,部分手表甚至遭到下架处理。晋江文学城周五发长文,批评AI投喂行为。
【环球时报综合报道】一项调查显示,超过90%的韩国教师担心自己被收录在学生毕业相册的照片可能被用于深度伪造(Deepfake)性犯罪。近70%的受访教师建议学校应停止制作毕业相册。该调查由韩国教员团体总联合会于9月30日至10月9日进行,涵盖了3537名教师。
韩国再现“N号房”丑闻,这次的关键词是“深度伪造犯罪”。所谓“深度伪造犯罪”,即使用人工智能技术生成逼真的虚假内容,该技术的泛滥使得此次韩国女性的受害者数量以及相关色情图片视频的传播力度较之过去更上了一个台阶,受害者不得不在包括中国微博在内的各国社交平台发声,呼吁更多人关注。
“深度伪造”(Deepfake)犯罪已经引起了韩国女性恐慌。几日前,有多名韩国女性通过社交媒体发声,称她们在一些社交媒体上,特别是“电报”(Telegram)群组中,发现又一个“N号房”案件,韩国男性疑似大量分享传播伪造的周围女性的淫秽影像。
“张文宏”深夜带货,女孩照片被熟人“换脸”网络上“AI名人”泛滥深度伪造之恶何解?张文宏开始直播带货了?近日,不少网友发文称,短视频平台上,疑似知名医生张文宏正在售卖一种蛋白棒,家中老人信以为真而大量下单。但仔细辨认可以发现,带货视频为AI合成。
近日韩国曝出“Deepfake”(深度伪造技术)事件关于“韩国AI深度伪造”的话题词引发网友热议据报道,韩国网民在某通讯软件上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩,还有加害者公布受害女性的身份,威胁受害人,索要钱财。
近日韩国曝出“Deepfake”(深度伪造技术)事件被认为是采用新犯罪手段的“N号房”案件重现多个关于“韩国AI深度伪造”的话题词引发网友热议据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗。Deepfakes是利用AI换脸制造色情图频。