随着人工智能技术的发展,一些不法分子开始利用“AI换脸”实施网络诈骗。南京一家人工智能技术专业团队负责人介绍,“AI换脸”几乎可一键实现。如果想要生成一个相似度较高或质量较好的模型,一般需要1分钟左右的视频,音色的模仿也仅需1分钟左右的音频素材。
每年3·15,《IT时报》都会关注互联网消费领域中,随着新应用和新服务出现的侵犯消费者权利的事件和现象,今年,这些“假”要继续打下去,盗版图书泛滥、临期护肤品成“假货天堂” 、9.9元“换脸”马斯克等。
(央视财经《第一时间》)随着人工智能软件普及,“AI换脸”“AI合成照片、视频”等技术越来越多地出现在网络里,“AI”造假花样越来越多。北京警方接到报案称,有人在境外的网站上发广告,只需一张日常生活照片,就可以完成“一键去除衣服”的效果。
自己出镜的短视频,被“AI换脸”软件运营方做成“换脸”模板,面部形象被随意替换,该如何维权?24日,广东深圳中院公布了一起由“AI换脸”引发的侵权纠纷,法院认定涉案被告未经原告同意,利用信息技术手段使用原告肖像制作了伪造视频,其行为构成对原告肖像权的侵害。
如今,“AI(人工智能)换脸”图片和视频成为热门现象。娱乐之余,让人真假莫辨,风险与困扰也不少。记者调查发现,屡被曝光的“AI换脸”背后,从传播到制作再到后端环节,几乎都藏着生意。当前,包括网络平台、通信公司在内,已有一些技术和措施识别“换脸”,但也面临着“矛与盾”的考验。
“现有法律没有针对AI技术应用的详细规定,需要法院在个案中对相关问题进行探索。法官需要理解AI技术的原理和影响,以便准确认定侵权事实和责任。如何鉴定AI合成视频的真实性以及确认侵权行为的证据,是该类案件中法律适用的难点。
21世纪经济报道记者肖潇 北京报道越来越多杀猪盘在和生成式AI“联姻”,让爱情骗局更逼真。10月14日,香港警方表示捣毁了一个诈骗窝点,诈骗者利用深度伪造技术换脸成年轻女性,诱使受害者投资虚拟货币产品,涉案金额超过3.6亿港元。“杀猪盘”是近年高发的一种诈骗形式。
(央视财经《经济信息联播》)近年来,随着人工智能深度合成技术的快速发展,“换脸”“换妆”等应用软件广泛兴起,受到不少年轻人的喜爱。这类软件只需上传一张人物照片,就可以将照片中的人合成到模板中去,一键换脸、换妆,秒变视频主角。不过,这类风靡的“换脸”软件也潜藏着侵权风险。
来源:法治日报 “妈,8000元不够,给我转1.5万元吧。”一位母亲正和女儿视频聊天,听着在外地上学的女儿在视频里撒娇抱怨“生活费不够用了”,她心疼不已打算立刻给孩子转账。就在这时,家门打开了,她的“真女儿”走了进来。而另一头,视频里的“假女儿”还在央求妈妈“给生活费”。
事发后,也有不少人在社交媒体上发声,表示自己“被换脸了”。新浪科技发现,如今在小红书、闲鱼、B站等平台,利用AI美女视频教程吸引用户,号称“流行赛道,5天破万粉,日入四位数”的教程,成为行业灰产的温床。
连日来,知名模特叶凯薇被人利用AI换脸制作淫秽视频传播一事持续引发热议,也再次让AI换脸滥用引发的违法侵权行为受到关注。大皖新闻记者探访体验发现,网上能轻松找到相关应用软件,制作AI换脸视频,电商平台也有商家售卖此类软件,甚至宣称能做到“100%逼真”。
“用AI伪造学生同事近7000张裸照”。近日,该话题在网络上引发广泛热议。犯罪嫌疑人白某某原本是一家互联网公司的技术员,他用AI“一键去衣”技术伪造淫秽图片,每张1.5元卖出。图片涉及女性人数多,包括学生、教师、同事。用AI技术给他人换脸,是自娱自乐还是侵权行为?
原标题:打击AI换脸诈骗 技术力量当有更大作为我们常说“眼见为实”,但在AI时代,肉眼所看见的也不一定是真相。一些不法分子利用“AI换脸”技术实施诈骗,已成为一种新型骗局。一张“肖像照片”、一段“貌似熟人的视频”,都可能被不法分子利用作为诈骗的手段和工具。
两会期间,全国人大代表雷军、全国政协委员靳东等呼吁立法整治AI“换脸拟声”的话题引发广泛关注。靳东呼吁立法整治AI“换脸拟声”雷军呼吁网友不要再恶搞此前,曾有一些喜欢靳东的观众,被AI换脸的“假靳东”所骗,有的甚至要到银行贷款200万元给自己的男朋友“靳东”拍戏。