6月25日,全国人大常委会法制工作委员会举行记者会,针对有关利用“AI换脸”技术进行视频合成、进而实施诈骗的问题,发言人臧铁伟指出:“万变不离其宗”,通过“AI换脸”进行视频合成、实施诈骗的行为,是利用新技术进行的诈骗,与传统的诈骗行为在本质上没有区别。
前不久,内蒙古包头警方就曾通报,有骗子利用AI换脸和拟声技术佯装熟人实施诈骗,福州市某公司法人代表郭先生10分钟内就被骗走430万元。另一起发生在安徽安庆经济开发区的案件中,诈骗分子仅使用一段9秒钟的AI换脸视频,就从受害人处骗走了245万元。这两起典型案例引发了广泛关注和讨论。
随着人工智能技术的发展,一些不法分子开始利用“AI换脸”实施网络诈骗。南京一家人工智能技术专业团队负责人介绍,“AI换脸”几乎可一键实现。如果想要生成一个相似度较高或质量较好的模型,一般需要1分钟左右的视频,音色的模仿也仅需1分钟左右的音频素材。
“AI换脸”,相信大家都不陌生,只需要一张照片,通过深度合成技术,任何人都能成为热播影视作品中的主角,甚至表情、神态都足以以假乱真。然而,近年来,伴随着技术门槛的降低和应用场景的增多,“换脸技术”的应用早已突破原来的娱乐范围,甚至成为不法分子牟利的手段。
“AI换脸”技术被滥用的新闻近日登上热搜。除了被应用于电信诈骗,“AI换脸”还常被用于影视剧二次创作、趣味恶搞小视频,甚至淫秽色情影像的合成中,而在网络上有商家提供各类“换脸服务”。律师指出,从娱乐“玩梗”到违法犯罪,藏在“面具”背后的用户若对该技术不当使用,会承担多项法律责任。
来源:中央广播电视总台中国之声 近日,广州互联网法院就审结了一起由“AI换脸”视频合成模板引发的侵权纠纷。一位知名短视频博主发现自己的汉服装扮视频被某科技公司擅自制成了付费“AI换脸”模板。法院审理后认定,该公司的行为侵犯了博主的肖像权。
法治日报 知名医生张文宏带货蛋白棒?不久前,某视频博主发布的视频中,张文宏医生强烈推销一款蛋白棒,让不少网友信以为真,一时销量近1200件。张文宏随后作出回应称,视频是AI合成的,“我在发现这事后立即投诉过那个AI合成的视频,但是它的账号一直在换,自己最后也没精力了。
#头条创作挑战赛##AI换脸##教程##短视频0基础入门实操课##原创# 市面上有很多AI软件,AI换脸是一种基于人工智能技术的图像处理技术,可以将一个人的面部特征和表情转移到另一个人的照片或视频中。