羊城晚报周末特约主笔 谢不明10月8日,2024年诺贝尔物理学奖颁发给两位人工智能专家,以表彰他们使用物理学工具为强大的机器学习方法奠定基础。其中一位获奖者发明了联想记忆,可以存储和重构图像,AI图像识别等技术就是在此基础上发展而来。
据韩联社29日报道,韩国政府和执政党国民力量党当天同意,加强针对利用“深度伪造”(deepfake)技术进行犯罪行为的打击力度。报道称,社交媒体近期出现大量针对年轻女性的伪造淫秽影像,引发韩国公众愤怒。
韩国再现“N号房”丑闻,这次的关键词是“深度伪造犯罪”。所谓“深度伪造犯罪”,即使用人工智能技术生成逼真的虚假内容,该技术的泛滥使得此次韩国女性的受害者数量以及相关色情图片视频的传播力度较之过去更上了一个台阶,受害者不得不在包括中国微博在内的各国社交平台发声,呼吁更多人关注。
【环球时报综合报道】一项调查显示,超过90%的韩国教师担心自己被收录在学生毕业相册的照片可能被用于深度伪造(Deepfake)性犯罪。近70%的受访教师建议学校应停止制作毕业相册。该调查由韩国教员团体总联合会于9月30日至10月9日进行,涵盖了3537名教师。
利用“深度伪造(Deepfake)”技术所实施的性犯罪日趋猖獗,成为当前韩国国内舆论风暴的中心,被视为“N号房”丑闻的翻版。据报道,目前海外通信软件“电报(Telegram)”中,传播着无数女性被AI生成“换脸”的“性影像”,其中参与犯案者多达22万人,引发韩国民众恐慌。
近日韩国曝出“Deepfake”(深度伪造技术)事件关于“韩国AI深度伪造”的话题词引发网友热议据报道,韩国网民在某通讯软件上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩,还有加害者公布受害女性的身份,威胁受害人,索要钱财。
近日,韩国出现多起利用AI换脸伪造女性色情露骨图像的犯罪案,在这背后,犯罪者用深度伪造技术(Deepfake)合成色情照片和视频,并在通信软件Telegram的群聊中传播,参与者多达22万人,引发韩国民众恐慌。
Deepfake(深度伪造技术)犯罪,成为近日韩国舆论的风暴眼。据媒体报道,一些犯罪分子滥用Deepfake,将个人的声音、面部表情及身体动作拼接合成,制造了涉及包括女明星、女学生在内的色情图片及影像。
“深度伪造”(Deepfake)犯罪已经引起了韩国女性恐慌。几日前,有多名韩国女性通过社交媒体发声,称她们在一些社交媒体上,特别是“电报”(Telegram)群组中,发现又一个“N号房”案件,韩国男性疑似大量分享传播伪造的周围女性的淫秽影像。
近日,韩国曝出“Deepfake”深度伪造技术事件被认为是采用新犯罪手段的N号房案件重现“韩国AI深度伪造淫秽影像”多个相关话题词冲上热搜引发网友热议近日“深度伪造”犯罪在韩国引起女性恐慌,韩社交媒体上有大量群组分享伪造的淫秽影像。