6月18日,“男子用AI伪造学生同事近7000张裸照”冲上热搜。据央视新闻消息,犯罪嫌疑人白某某,原本是一家互联网公司的技术员。他用AI“一键去衣”技术,深度伪造淫秽图片近7000张,再每张1.5元卖出。图片涉及女性人数多,包括学生、教师、同事。目前白某某已被提起公诉。
早在2019年,国外程序员就开发出了一款名为DeepNude的应用,利用类似deepfakes的深度学习技术,用户只需要给它一张照片,DeepNude便可将图像中女性的衣服替换掉,创造出几乎可以以假乱真的女性“裸照”。
华为P70手机的AI修图能擦除人体衣服,网友热议,华为估计又要供不应求了。近日,有位小哥闲来无事,用华为P70手机的AI修图功能,一键消除衣服,竟然带来意想不到的效果。天真的小哥竟然致电客户,客户回复后可能存在漏洞期会改进。
据报道,一女子在地铁上的照片被AI“一键脱衣”并在网络疯传,目前,该女子还在收集证据,准备维权。之所以会发生这种事情,是因为一些别有用心之人会在公共场合拍摄女性的照片,或者直接在网上找到一些女孩的自拍照,使用AI算法的强大功能,将这些照片进行了“一键脱衣”的处理,最终将处理后的照片上传至网络,严重侵犯了这些女性的隐私和尊严。
近日,广州一女子在地铁上的“裸体照片“在网络上疯传,一些造谣的网友称该女子在地铁上脱光并拍摄裸照,该事件在网络上引发广泛关注。据称,受害女子为某平台博主,“裸照”则是她去年分享的正常照片。原图被不法分子通过AI手段”一键脱衣“,并在网络上扩散。此事无疑是对当事女主的公开侮辱。
28日,一起利用AI恶意P图的事件引发人们关注。一名年轻女子在地铁上的照片证实被人使用了AI技术“一键脱衣”。事件源头要追溯到3月初,3月8日,网上开始传播一张看起来像是微信群聊的聊天记录截图,截图中的用户称“我朋友说三号线有个美女把衣服脱了。
极目新闻记者发现,网络上仍存在不少非法网站提供“一键脱衣”的AI技术,并且这些技术主要针对女性。而利用偷拍加软件处理,就可以制造他人的不雅照片和视频,这种极度轻易的造假,无疑是非常邪恶和可怕的,可以说是诛心之举。