人民网记者 赵竹青“靳东两会建议AI换脸立法”“雷军回应国庆7天被AI雷军骂了8天”……今年两会期间,AI话题频频登上热搜,“AI换脸”引发的风险问题更是受到代表委员的热议。事实上,苦于被AI偷走面孔和声音的,远不止靳东与雷军。
前不久,内蒙古包头警方就曾通报,有骗子利用AI换脸和拟声技术佯装熟人实施诈骗,福州市某公司法人代表郭先生10分钟内就被骗走430万元。另一起发生在安徽安庆经济开发区的案件中,诈骗分子仅使用一段9秒钟的AI换脸视频,就从受害人处骗走了245万元。这两起典型案例引发了广泛关注和讨论。
只需一张照片,经过软件处理,就能生成视频,且可变年轻,可变老态,可变声音,普通人肉眼基本无法识别。国务院联席办、国家反诈中心资金风控专家杨琛在会上指出,从总体上看,当前各行业反诈常态化治理格局已经基本显现。
封面新闻记者 戴竺芯 实习生 万佳最近,电视剧《狂飙》火了,网友们热情参与剧情讨论的同时,还有的博主利用“AI”换脸技术做出一些搞笑视频,博得网友关注。实际上,在生活中,AI换脸这项技术如果擅自使用,可能会发生侵权纠纷。
□李佳艺(郑州大学)近日,网友发现一些普通的主播通过“AI换脸”技术,摇身一变成为杨幂、迪丽热巴等女星进行直播卖货。网站客服称,他们提供的AI实时换脸全套模型价格为3.5万。但有律师称该行为或涉嫌侵权。“AI换脸成明星进行卖货或涉嫌侵权”的词条很快冲上热搜。
“用AI伪造学生同事近7000张裸照”。近日,该话题在网络上引发广泛热议。犯罪嫌疑人白某某原本是一家互联网公司的技术员,他用AI“一键去衣”技术伪造淫秽图片,每张1.5元卖出。图片涉及女性人数多,包括学生、教师、同事。用AI技术给他人换脸,是自娱自乐还是侵权行为?
新媒体时代,“AI换脸”技术在生活中逐渐增多。通过人工智能的人体图像合成技术,能将原有影像中的面部特征更改、替换,呈现其他个体的面部特征,效果逼真,甚至可以欺骗其他AI、完成“刷脸支付”。近来媒体爆出多个“AI换脸”诈骗案件,新华社,央视等多家中央媒体都发文讨论如何防范此类问题。
来源:【海报新闻】2019年一部英剧在国内大爆,豆瓣8万多人打出了8.9的高分,它就是《真相捕捉》。剧中基于一套人工智能的人体图像合成技术,可以实现换脸、换声音、换人,甚至“隐藏”真身,以实现对现实世界的影响和干预。