随着人工智能的迅猛发展,一些使用Deepfake深度伪造技术制作的换脸视频也在网络上屡见不鲜。在2021世界人工智能大会上,依托清华大学人工智能研究院成立的孵化企业——北京瑞莱智慧科技有限公司,发布了一款能够一秒识别真伪的鉴别“神器”——DeepReal深度伪造内容检测平台,让“假脸”无处遁形。
在小程序中上传一张自己的照片,就能自动替换模版视频中国风造型人物的面部,生成一段新的视频……但你可知道,在有趣的“AI换脸”背后,隐藏多项法律风险。近日,南京江北新区人民法院审结一起这样的侵犯肖像权纠纷案件,判决该小程序运营公司赔礼道歉、赔偿损失。
“现有法律没有针对AI技术应用的详细规定,需要法院在个案中对相关问题进行探索。法官需要理解AI技术的原理和影响,以便准确认定侵权事实和责任。如何鉴定AI合成视频的真实性以及确认侵权行为的证据,是该类案件中法律适用的难点。
“他高调晒热吻女明星影片,惨遭粉丝殴打……”,近日一则新闻非常火爆,颇为吸睛。原来,“他”是一名网红特效合成师,经常会在个人账号上发布一些特效合成的视频,即把一些热门剧里的角色用特效手段进行更换,把男主角换成自己,把相关的剧情用自己的面容再演绎一遍,从而达到猎奇和博人眼球的目的。
12月13日,山东省政府新闻办举行新闻发布会,邀请省委政法委负责同志等介绍山东防范打击治理电信网络新型违法犯罪,守护人民群众合法权益情况。发布会上,省人民检察院副检察长王钦杰介绍了关于AI换脸、智能变声等新型诈骗方式的变化趋势及预防手段。
“AI换脸”,相信大家都不陌生,只需要一张照片,通过深度合成技术,任何人都能成为热播影视作品中的主角,甚至表情、神态都足以以假乱真。然而,近年来,伴随着技术门槛的降低和应用场景的增多,“换脸技术”的应用早已突破原来的娱乐范围,甚至成为不法分子牟利的手段。
前不久,内蒙古包头警方就曾通报,有骗子利用AI换脸和拟声技术佯装熟人实施诈骗,福州市某公司法人代表郭先生10分钟内就被骗走430万元。另一起发生在安徽安庆经济开发区的案件中,诈骗分子仅使用一段9秒钟的AI换脸视频,就从受害人处骗走了245万元。这两起典型案例引发了广泛关注和讨论。
近年来,随着人工智能深度合成技术的快速发展,“换脸”“换妆”等应用软件广泛兴起,受到不少年轻人的喜爱。这类软件只需上传一张人物照片,就可以将照片中的人合成到模板中去,一键换脸、换妆,秒变视频主角。不过,这类风靡的“换脸”软件也潜藏着侵权风险。
AI技术,也就是人工智能,近年来发展迅速,有关专家介绍,AI的主要特征之一就是能自主深度学习,比如说,可以对现实生活中的人物表情和动作细节进行深度学习并且进行模仿。一些不法分子因此盯上了这项新技术,他们利用“AI换脸”冒充受害人的亲戚和朋友实施诈骗。
近年来,随着科学技术不断发展,通过AI技术进行图像、视频、音频的深度合成的情况也逐渐增多。在大部分情况下,网友只要在某些提供“AI换脸”服务的平台上,提交自己的照片,便可以替换特定视频段落中的人物,生成包含自己的影视片段或者与一些明星及网红的脸部形象替换。
来源:央视新闻 近日,因“AI换脸”导致的诈骗案件引发关注。伴随着AI大模型的发展,“换脸技术”的应用范围越来越广,技术的突破还使得换脸后的人物表情、动作细节更为逼真,一旦被不法分子利用,可能带来严重危害。 总台记者经调查发现,网上“AI换脸”软件的获取非常容易。
央广网长春5月18日消息(记者张学龙)网上有句调侃“当下最积极学习的除了学生,就是骗子了”,随着骗术的不断“升级”和科技手段的介入,越来越多的骗局让人防不胜防。记者从长春市公安局反诈中心了解到,近期,全国多地相继出现了一种新的骗局,诈骗成功率接近100%:AI换脸。
“AI换脸”诈骗利用仿真技术冒充亲人、同事或公职人员声音相貌行骗,此类新型网络诈骗手段多样、门槛降低、辨别难度加大,常令公众放松警惕,短时间内造成较大损失。国家金融监督管理总局北京监管局近日发布风险提示:眼见不为真,谨防新型欺诈手段,提高打假维权本领,守护家人亲朋财产安全。
“AI换脸”技术被滥用的新闻近日登上热搜。除了被应用于电信诈骗,“AI换脸”还常被用于影视剧二次创作、趣味恶搞小视频,甚至淫秽色情影像的合成中,而在网络上有商家提供各类“换脸服务”。律师指出,从娱乐“玩梗”到违法犯罪,藏在“面具”背后的用户若对该技术不当使用,会承担多项法律责任。