事发后,也有不少人在社交媒体上发声,表示自己“被换脸了”。新浪科技发现,如今在小红书、闲鱼、B站等平台,利用AI美女视频教程吸引用户,号称“流行赛道,5天破万粉,日入四位数”的教程,成为行业灰产的温床。
只需3秒语音,就能克隆你的声音;上传一张照片,就能生成动态视频。这不是科幻电影,而是正在发生的真实事件。近日,#靳东两会建议AI换脸立法#的话题冲上热搜第一。此前,雷军提出的“加强‘AI换脸拟声’违法侵权重灾区治理”建议,同样受到了广泛关注。
“AI换脸”技术被滥用的新闻近日登上热搜。除了被应用于电信诈骗,“AI换脸”还常被用于影视剧二次创作、趣味恶搞小视频,甚至淫秽色情影像的合成中,而在网络上有商家提供各类“换脸服务”。律师指出,从娱乐“玩梗”到违法犯罪,藏在“面具”背后的用户若对该技术不当使用,会承担多项法律责任。
前不久,内蒙古包头警方就曾通报,有骗子利用AI换脸和拟声技术佯装熟人实施诈骗,福州市某公司法人代表郭先生10分钟内就被骗走430万元。另一起发生在安徽安庆经济开发区的案件中,诈骗分子仅使用一段9秒钟的AI换脸视频,就从受害人处骗走了245万元。这两起典型案例引发了广泛关注和讨论。
#头条创作挑战赛##AI换脸##教程##短视频0基础入门实操课##原创# 市面上有很多AI软件,AI换脸是一种基于人工智能技术的图像处理技术,可以将一个人的面部特征和表情转移到另一个人的照片或视频中。