据韩联社29日报道,韩国政府和执政党国民力量党当天同意,加强针对利用“深度伪造”(deepfake)技术进行犯罪行为的打击力度。报道称,社交媒体近期出现大量针对年轻女性的伪造淫秽影像,引发韩国公众愤怒。
最近,韩国再现“N号房”丑闻。30日一早,多个关于“韩国AI深度伪造淫秽影像”的话题词引发网友热议。自称韩国籍女子甚至在中国的微博上求助并曝光相关事件。“深度伪造”,即利用AI换脸制造色情图频,并通过社交媒体平台传播的性犯罪行为被大量曝光。
10月8日,2024年诺贝尔物理学奖颁发给两位人工智能专家,以表彰他们使用物理学工具为强大的机器学习方法奠定基础。其中一位获奖者发明了联想记忆,可以存储和重构图像,AI图像识别等技术就是在此基础上发展而来。
近日,韩国出现多起利用AI换脸伪造女性色情露骨图像的犯罪案,在这背后,犯罪者用深度伪造技术(Deepfake)合成色情照片和视频,并在通信软件Telegram的群聊中传播,参与者多达22万人,引发韩国民众恐慌。
【环球时报综合报道】一项调查显示,超过90%的韩国教师担心自己被收录在学生毕业相册的照片可能被用于深度伪造(Deepfake)性犯罪。近70%的受访教师建议学校应停止制作毕业相册。该调查由韩国教员团体总联合会于9月30日至10月9日进行,涵盖了3537名教师。
曝光韩国AI换脸色情”:一键脱衣,视频合成,还有比这更炸裂的。试想一下,一个年幼的女孩,面对着手机屏幕上不断传播的,被恶意替换成自己面孔的色情视频,声嘶力竭地哭喊着为自己辩解,而周围的人却投来异样的目光,这该是怎样一种绝望?
近日韩国曝出“Deepfake”(深度伪造技术)事件被认为是采用新犯罪手段的“N号房”案件重现多个关于“韩国AI深度伪造”的话题词引发网友热议据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗。Deepfakes是利用AI换脸制造色情图频。
“深度伪造”(Deepfake)犯罪已经引起了韩国女性恐慌。几日前,有多名韩国女性通过社交媒体发声,称她们在一些社交媒体上,特别是“电报”(Telegram)群组中,发现又一个“N号房”案件,韩国男性疑似大量分享传播伪造的周围女性的淫秽影像。
利用“深度伪造(Deepfake)”技术所实施的性犯罪日趋猖獗,成为当前韩国国内舆论风暴的中心,被视为“N号房”丑闻的翻版。据报道,目前海外通信软件“电报(Telegram)”中,传播着无数女性被AI生成“换脸”的“性影像”,其中参与犯案者多达22万人,引发韩国民众恐慌。