“前段时间,有人发私信说看到了我的照片,还问我‘接不接私人’。我仔细找了找,发现这个所谓的照片是AI合成的。”提起自己被“造黄谣”的经历,博主小K(化名)仍然心有余悸。近年来,AI技术逐渐走入更多人的生活,但也被一些动了歪心思的人看到商机。
这个软件虽然在上线后不久就被官方下架了,但是它的技术却没有消失,反而在某些地方继续发展和传播。一名来自广东的姑娘,在地铁上被不明人士偷拍后,她的照片被上传到了一个使用AI脱衣技术的Telegram频道上,随后被生成了裸照,并在网上疯传。
最近,#广州地铁#登上热搜,起因竟是一女子在地铁上的裸体照片被疯传。事实上,这张裸体照并非真实照片,而是被AI技术一键脱衣生成的……据泾渭视频报道:近日,广东广州,一女子在地铁上的照片被AI一键脱衣,造谣图在网络广泛传播引发关注。
早在2019年,国外程序员就开发出了一款名为DeepNude的应用,利用类似deepfakes的深度学习技术,用户只需要给它一张照片,DeepNude便可将图像中女性的衣服替换掉,创造出几乎可以以假乱真的女性“裸照”。
28日,一起利用AI恶意P图的事件引发人们关注。一名年轻女子在地铁上的照片证实被人使用了AI技术“一键脱衣”。事件源头要追溯到3月初,3月8日,网上开始传播一张看起来像是微信群聊的聊天记录截图,截图中的用户称“我朋友说三号线有个美女把衣服脱了。
近日,一位女网友在网上晒出自己在地铁列车的照片被别有用心的网友下载,并用AI技术“一键脱衣”,且将“除衣”后的照片广泛传播。记者发现,网络上仍存在不少非法网站提供“一键脱衣”的AI技术,并且这些技术主要针对女性。记者注意到,这名女网友是一名穿搭博主。
极目新闻记者发现,网络上仍存在不少非法网站提供“一键脱衣”的AI技术,并且这些技术主要针对女性。而利用偷拍加软件处理,就可以制造他人的不雅照片和视频,这种极度轻易的造假,无疑是非常邪恶和可怕的,可以说是诛心之举。
AI时代,有图未必有真相。最近,一段聊天记录火了。发布者煞有介事地称,广州地铁惊现“裸女”。博人眼球的文字配上“事实”为证的图片,看上去言之凿凿。一时间舆论沸沸扬扬,更有别有用心者借机意淫,开启一场下流狂欢。