换脸变声的边界待厘清,套路翻新的电诈需整治,人工智能监管趋于规范化羊城晚报全媒体记者 罗清峣带货主播AI换脸成女明星,真假难辨;B站音乐区掀起AI翻唱热潮,“AI孙燕姿”全网走红;一骗子借助AI技术冒充熟人视频聊天,十分钟诈骗430万元……近日,以深度伪造(Deepfake)为核
大皖新闻讯 连日来,知名模特叶凯薇被人利用AI换脸制作淫秽视频传播一事持续引发热议,也再次让AI换脸滥用引发的违法侵权行为受到关注。大皖新闻记者探访体验发现,网上能轻松找到相关应用软件,制作AI换脸视频,电商平台也有商家售卖此类软件,甚至宣称能做到“100%逼真”。
据人民日报消息,3月5日,在政协小组讨论上,全国政协委员靳东回应了AI换脸导致的诈骗问题。视频截图(图源:人民日报)他说:“一些喜欢我影视剧的观众,被AI换脸视频骗得很惨,这个性质非常恶劣。希望能建立更好的规则。”据报道,近年来,通过AI深度伪造技术假冒名人的事件频繁发生。
6月25日,全国人大常委会法制工作委员会举行记者会,发言人臧铁伟回答记者提问表示,利用“AI换脸”技术实施诈骗是一种新型的电信网络诈骗,需要广大群众提高识骗防骗意识,也需要有关部门依法加强治理和执法,追究相关人员法律责任。
刘德华直播间里“华仔”卖力带货,雷军的“声音”热情推荐理财产品……这些以假乱真的画面,就像AI技术打开的“潘多拉魔盒”,名人“被代言”只是揭开了乱象的冰山一角。AI换脸,虽然近期才频繁走入公众视野,但在文学影视作品中早有体现。
如何快速识别AI换脸变声诈骗?深度鉴伪5秒让AI换脸诈骗无处遁形;如何为“一老一小”构建安全通讯环境?AI技术强力反制电信诈骗。9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,网络安全博览会也同步举行。
近年来,随着科学技术不断发展,通过AI技术进行图像、视频、音频的深度合成的情况也逐渐增多。在大部分情况下,网友只要在某些提供“AI换脸”服务的平台上,提交自己的照片,便可以替换特定视频段落中的人物,生成包含自己的影视片段或者与一些明星及网红的脸部形象替换。
6月25日,全国人大常委会法制工作委员会举行记者会,针对有关利用“AI换脸”技术进行视频合成、进而实施诈骗的问题,发言人臧铁伟指出:“万变不离其宗”,通过“AI换脸”进行视频合成、实施诈骗的行为,是利用新技术进行的诈骗,与传统的诈骗行为在本质上没有区别。
“AI换脸”技术被滥用的新闻近日登上热搜。除了被应用于电信诈骗,“AI换脸”还常被用于影视剧二次创作、趣味恶搞小视频,甚至淫秽色情影像的合成中,而在网络上有商家提供各类“换脸服务”。律师指出,从娱乐“玩梗”到违法犯罪,藏在“面具”背后的用户若对该技术不当使用,会承担多项法律责任。
今年以来,ChatGPT和GPT-4等技术的应用成为信息科技领域的热点,引起公众对AI技术的广泛关注和热情。昨日,中国互联网协会发文称,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。
#头条创作挑战赛##AI换脸##教程##短视频0基础入门实操课##原创# 市面上有很多AI软件,AI换脸是一种基于人工智能技术的图像处理技术,可以将一个人的面部特征和表情转移到另一个人的照片或视频中。