近日,杭州虞某利用AI换脸技术生成并传播淫秽视频的事件震惊了社会。被换脸的对象不乏知名女明星和公众人物,其恶劣影响不仅侵犯了这些人的肖像权和名誉权,更触动了公众对于AI技术滥用的深深忧虑。虞某甚至提供所谓的“私人定制”服务,将不法行为推向了一个更加令人发指的地步。
韩国再现“N号房”丑闻,这次的关键词是“深度伪造犯罪”。所谓“深度伪造犯罪”,即使用人工智能技术生成逼真的虚假内容,该技术的泛滥使得此次韩国女性的受害者数量以及相关色情图片视频的传播力度较之过去更上了一个台阶,受害者不得不在包括中国微博在内的各国社交平台发声,呼吁更多人关注。
近日,韩国出现多起利用AI换脸伪造女性色情露骨图像的犯罪案,在这背后,犯罪者用深度伪造技术(Deepfake)合成色情照片和视频,并在通信软件Telegram的群聊中传播,参与者多达22万人,引发韩国民众恐慌。
今天(4月19日)记者获悉,随着人工智能技术的普及应用,一些不法分子通过“AI拟声”“AI换脸”,融合他人面孔和声音制作虚假图像和音视频,仿冒他人身份诱骗受害者转账。最近,常州一名女子就被骗了10万多块钱。
在当前这个AI遍地走、门槛近乎无的时代,如果你还没有试过用AI生成图片或视频(以下统称AI生图),那确实有点不够“潮”了。与其他新技术一样,AI生图技术自诞生之日起就充满争议,一路鲜花与荆棘相伴。支持者视它为颠覆性的技术革命,反对者视它为洪水猛兽。
俗话说“眼见为实”,但在AI时代,眼见也不一定是真。一些不法分子利用AI换脸技术实施诈骗,一张照片、一段视频,都能被不法分子利用作为诈骗工具。前几天,云南省昆明市青年路上一家快递公司的员工报警称,一名女子准备邮寄价值30余万元金条,他们觉得其中有问题。
今天上午,@央视新闻 发布了一则“涉黄AI换脸案”的新闻,瞬间冲上热搜。“AI换脸”相信大家都不陌生。只需要一张照片,通过人工智能深度合成技术,任何人都能成为视频中的主人公,甚至连表情和动作都能以假乱真。然而,这项新技术,却让一些人产生了不良想法。
利用“深度伪造(Deepfake)”技术所实施的性犯罪日趋猖獗,成为当前韩国国内舆论风暴的中心,被视为“N号房”丑闻的翻版。据报道,目前海外通信软件“电报(Telegram)”中,传播着无数女性被AI生成“换脸”的“性影像”,其中参与犯案者多达22万人,引发韩国民众恐慌。
这件事情在韩国被称为N号房2.0事件,至于什么是N号房事件,我也简单做个解释,在2020年的时候,韩国爆出了一件震惊世界的事情,在公共聊天房里,有76位韩国女性被胁迫用刀子在身上刻下“奴隶”的字眼,她们当中有很多是未成年人,有的为了生存被迫言听计从,成为罪犯的奴隶,有的不堪受辱最终选择结束自己的生命,这种残忍且恶心的罪行当时被接近26万韩国人全程目睹。
□张璟旖(天津师范大学)试想一下,一位女性被AI肆意换脸生成色情图像,进而被陌生人围观、羞辱。而作恶之人在一次次发图,又转为私聊的加密对话中,完成隐秘狂欢甚至牟利。他们隐身在匿名账号背后,极少受到惩戒,只需点击删除,一切痕迹都消失了。
不法分子利用互联网“隔空猥亵”未成年人引发关注。5月19日,南都记者从“江西法院”官方账号获悉,李某某胁迫多名被害人多次给其发送裸照、裸视频或拍摄淫秽视频,其行为已构成猥亵儿童罪、强制猥亵罪,判刑五年六个月。
在“性丑闻”这事上,美韩真有点“你追我赶”的意思。不久前,美国被曝军队内“性侵文化”盛行。调查显示,四名美国女兵中,平均就有一位遭受过性侵犯。去年的受害女兵数量,更是达到7万。这事刚在国际上发酵,韩国那边就也闹出了大动静。
30日,多个关于“韩国AI深度伪造淫秽影像”的话题词引发网友热议。多名韩国女性接到陌生人发来的骚扰信息。她们并不知道,自己的姓名、电话、就读学校、家庭住址等个人信息已被传遍多个聊天室。和个人信息一起被传阅的,还有她们的照片。
近日,包头警方发布一起利用人工智能(AI)实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。