从“张文宏医生”推销蛋白棒视频“走红”网络,后被本人“打假”,到多位配音演员称声音被AI“偷走”,公开维权……新华社记者调查发现,随着人工智能技术和语音大模型应用的发展,AI合成声音App大量出现,最快只需十几秒便可“克隆”出来。与此同时,AI声音滥用现象愈发突出,不时引发争议。
我国《民法典》仅在第1023条对声音权益的许可和保护做出参照适用的规定。这一规定导致了对声音权的界定和侵权形态均不够明晰,对声音的许可使用和法律保护解读不一,对于声音合理使用的范围、声音模仿是否构成侵权以及侵权救济方式也有待明确。
原标题:声音权益也受法律保护近期,全国首例影视剧台词声音权纠纷案宣判。该案系原告演员孙红雷与被告某游戏开发商、供应商两公司之间的纠纷。法院经审理认为自然人的声音和肖像具有人格权属性,两被告未经孙红雷本人同意,以营利为目的,在开发、制作、运营的游戏中使用其声音,构成声音权益侵权。
随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到如今的“真假难辨”。不少有声读物采用AI配音,读者甚至能选择模仿某个特定人的声音,这既降低了成本,也增添了趣味性。与此同时,AI声音滥用现象也时有发生。
全国首例“AI生成声音人格权侵权案”由最高人民法院与中央广播电视总台共同主办的“新时代推动法治进程2024年度十大案件”宣传活动网络投票近日已启动,49个广受社会关注的热点案件在网上进行展示,并接受社会公众投票。
工人日报-中工网记者 周子元“未见其人,先闻其声”,如今在网络平台上,AI声音随处可见。随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到如今的 “真假难辨”。
近年来,随着人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗,这类骗局常常会在短时间内给被害人造成较大损失。我们应该如何看清这类AI“深度造假”?辨别“AI换脸”有没有什么好方法?
随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到“真假难辨”,AI声音滥用现象时有发生。一些商家在短视频平台带货时,通过AI模仿知名人士的声音编造内容,不仅严重误导了消费者,也对当事人造成了不良影响。
来源:【《法律适用》杂志】文章发表于《法律适用》2024年第9期“案例研究”栏目,第123-133页。因文章篇幅较长,为方便电子阅读,已略去原文注释。作者简介及文中所涉及的法律法规等按刊发时的内容转载。
“上当受骗了!没想到视频切片里‘专家推荐说辞’居然是AI造假。”00后小高愤怒地将购买的减肥产品扔进垃圾桶。小高告诉新京报贝壳财经记者,自己之所以心动,源于看见《国医少年志》视频切片里推荐了这款减肥产品,结果未见效果反而被包装营销暗算。
记者在短视频平台搜索发现,不少非节目官方所发布的切片里夹藏大量“私货”,视频主通过AI技术更换专家语音和字幕,将涉及体重管理、祛湿等保健类商品经过包装成功实现“名人带货”。加句台词综艺切片包装出明星代言“上当受骗了!没想到视频切片里‘专家推荐说辞’居然是AI造假。
手机架在收银台前,店里的顾客一览无余,有的是一桌朋友聚餐聊天,有的是情侣两人约会吃饭……11月25日晚上9点多,广东深圳一家火锅店正在某短视频平台直播。离机位较近的几位顾客,各种微表情和动作都清晰展示在镜头里,显然他们并未意识到自己正在“被直播”。