□王志高随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到如今的 “真假难辨”。不少有声读物采用AI配音,读者甚至能选择模仿某个特定人的声音,这既降低了成本,也增添了趣味性。与此同时,AI声音滥用现象也时有发生。
亲耳听到的就一定是真的吗?未必。媒体调查发现,随着人工智能技术和语音大模型应用的发展,大量 AI 合成声音 App 涌现,最快只需十几秒便可 “克隆” 出一种声音。与此同时,AI 声音滥用现象愈发突出,不时引发争议。
过去一年,AI深度合成音视频侵权现象愈演愈烈。有人克隆雷军的声音,制作恶搞视频。有人伪造刘德华的音视频,为自己带货。近日记者调查发现,实现AI深度合成音视频并不算难事,甚至在一些购物平台,AI深度合成技术已经成为众多网店牟利的工具,只需花费几十元,就可定制AI深度合成名人音视频。
截至10月23日,“Reecho睿声”上仍有三个名为“雷军”的克隆声音模型可正常使用。 网络截图 【编者按】 2021年11月1日,《中华人民共和国个人信息保护法》正式施行,为我国个人信息保护提供了更具系统性、针对性和可操作性的法律遵循。
来源:人民网-人民日报 【案情】原告殷某是一名配音演员,他意外发现自己的声音被AI化后,在被告之一某科技公司运营的平台上对外出售。殷某将某科技公司、某软件公司、某文化公司等被告起诉到北京互联网法院,主张被告的行为已侵犯其声音权益,要求停止侵权、赔礼道歉并赔偿经济损失和精神损失。
只需3秒语音,就能克隆你的声音;上传一张照片,就能生成动态视频。这不是科幻电影,而是正在发生的真实事件。近日,#靳东两会建议AI换脸立法#的话题冲上热搜第一。此前,雷军提出的“加强‘AI换脸拟声’违法侵权重灾区治理”建议,同样受到了广泛关注。
刚刚过去的国庆长假期间,网络平台上出现了一系列“雷军AI配音”视频。这些视频冒用AI生成的雷军声音,其中一些内容言辞激烈,引发网友关注热议。随着AI技术的普及,“克隆”特定人物声音已实现“一键式”操作,同时也带来了民事侵权甚至涉嫌犯罪的法律问题。
4月23日上午,北京互联网法院对全国首例“AI声音侵权案”进行一审宣判,认定作为配音师的原告,其声音权益及于案涉AI声音,被告方使用原告声音、开发案涉AI文本转语音产品未获得合法授权,构成侵权,书面赔礼道歉,并赔偿原告各项损失25万元。
日前,小米集团董事长雷军的AI语音包刷屏了。一些网友用AI克隆雷军的声音,或是吐槽不文明行为,或是表达对他人的不满,言辞尖锐,十分逼真,再次引发公众对于技术加速迭代的深层次思考。近年来,人工智能技术加快发展,在带来创新和便利之际,也一并带来了侵权、诈骗等违法行为的可能。
极目新闻通讯员 陈慧伦 周潇接到亲人的求救电话,你会怎么办?前不久,就有三人流窜至湖北孝感,假冒身份,以“被害人亲属出事急需用钱”等方式骗取钱财。11月10日,孝感市孝南区检察院检察官以案说法,提醒广大群众警惕AI语音新骗局。
王琦从“张文宏医生”推销蛋白棒视频“走红”网络,后被本人“打假”,到多位配音演员称声音被AI“偷走”,公开维权……媒体调查发现,随着人工智能技术和语音大模型应用的发展,AI(人工智能)合成声音App大量出现,最快只需十几秒便可“克隆”出来。
如今,从智能家居的语音助手到自动驾驶汽车,从高效能的数据分析到医疗领域的精准诊断,AI正以前所未有的方式改变着世界。然而,随着AI技术的不断发展和应用,其双刃剑的特性也逐渐显现。其中,深度伪造技术就带来了不小的隐患。
“未见其人,先闻其声”,如今在网络平台上,AI声音随处可见。随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到如今的 “真假难辨”。不少有声读物采用AI配音,读者甚至能选择模仿某个特定人的声音,这既降低了成本,也增添了趣味性。
“妈,8000元不够,给我转1.5万元吧。”一位母亲正和女儿视频聊天,听着在外地上学的女儿在视频里撒娇抱怨“生活费不够用了”,她心疼不已打算立刻给孩子转账。就在这时,家门打开了,她的“真女儿”走了进来。而另一头,视频里的“假女儿”还在央求妈妈“给生活费”。
随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到“真假难辨”,AI声音滥用现象时有发生。一些商家在短视频平台带货时,通过AI模仿知名人士的声音编造内容,不仅严重误导了消费者,也对当事人造成了不良影响。
来源:环球时报 【环球时报综合报道】据美国有线电视新闻网(CNN)15日报道,好莱坞动作巨星史泰龙的“御用”法语配音演员阿兰·多瓦去年初就已去世,但史泰龙新片却擅自采用AI方式重现多瓦声音,此举遭到了逝者女儿的反对。