本网简介 | 采编团队 | 律师团队 | 法律声明 | 诚信声明 | 人才招聘
首页 资讯 法治 舆情 案件 律师 网络 社会 服务 关于 招聘 举报
舆情
·舆情观察
·舆情热点
·公平正义
服务与举报
国内新闻 更多...
·中共中央政治局召开民主生活会 习近平
·李强主持召开国务院常务会议 审议通过
·强主持国务院第十一次专题学习
·李强签署国务院令 公布《国务院关于修
·李强同主要国际经济组织负责人举行“1
·李强主持召开国务院常务会议 听取推动
·李强同荷兰首相斯霍夫通电话
·中国著名艺术家————道金平
·李强主持召开国务院常务会议 研究推动
·丁薛祥分别会见洪都拉斯副总统弗洛伦蒂
采编团队 更多...
...
...
舆情热点 当前位置: 首页 > 新闻 > 舆情热点 > 正文
滥用公众人物声音恶搞,AI技术应用“玩过界”
来源:正义网 发布时间:2024-10-29
分享到:新浪微博

滥用公众人物声音恶搞,AI技术应用“玩过界”

被质疑 时间:2024-10-28 08:12:26  作者:陈曦  新闻来源:工人日报 

评论投稿 打印 转发 复制链接 小 | 中 | 大 字号

       从“一眼假”到“真假难辨”再到“深度伪造”,生成一条音频只需20秒 滥用公众人物声音恶搞,AI技术应用“玩过界”被质疑 近日,一些短视频平台涌现了大量某知名企业家吐槽的视频。在视频中,该企业家对堵车、调休、游戏等热门话题进行了调侃和锐评,甚至还有不雅词汇穿插其间,引发网友热议。 事实上,那些吐槽视频并非该企业家本人在发声,而是由网友利用AI软件采集该企业家原音生成的配音,但逼真的效果让不少人信以为真。 AI的发展为生活带来了许多便利,但一些乱象也引发质疑。以AI语音合成技术为例,只需要打开软件、动动手指,一条以假乱真的配音视频就能新鲜出炉。然而,有的视频越过了开玩笑的边界,“偷走”他人声音进行恶搞、造谣,带来了恶劣的社会影响。 20秒就能生成一条AI音频 记者在社交软件上检索AI配音发现,不少用户发布了相关视频的生成教程。其中,大部分视频的配音都源于某拟真语音大模型应用。 在该应用网站上,创作者上传任意人物的一段音频作为训练素材,随后AI通过学习可克隆出一个声音角色。网站中的其他用户只需输入文本,便可以使用该声音生成内容。 按照该网站的使用指引,记者添加了上述知名企业家的声音角色,输入一段100字的文本,然后点击“开始生成”,约20秒,一条与该企业家声音相似度极高的AI音频就生成了。记者发现,截至目前,该声音角色已被使用79.9万次,生成字符数达4455.5万个。 被“偷走”声音的公众人物还有不少。今年9月底,一段据称是某直播平台老板卢某某的酒后录音在网络上流传,整体呈现出卢某某对于消费者的傲慢态度,以及对相关人士的不尊重表达,为该平台招致了不小的争议。后警方调查发现,音频内容不实,系大模型伪造而成。 一位业内人士告诉记者,通过模仿音频样本的语调、语速、情感、口音、发声方式等特征,AI技术已经能够高度还原音频样本的声音,达到人耳和其他鉴定方式难以区分的程度。 “从早期的‘一眼假’到如今的‘真假难辨’,AI的发展进入了‘深度伪造’时代。”中国社会科学院大学法学院副教授、互联网法治研究中心主任刘晓春向记者表示,在未经过授权、未进行标注的情况下,用他人声音制作AI语音产品,尤其是“借用”公众人物的声音,很容易引起误解,这不仅会侵害个人信息安全,还可能扰乱网络空间生态秩序。 滥用他人声音侵犯人格权 当前,不少网友在合成他人的AI音频时,仅抱着娱乐心态,并没有意识到背后隐藏的法律风险。记者注意到,在一条“AI配音教程”视频的评论区,有学员提问“这样不侵权吗”? 博主回复称:“大家都在做,如果提示违规,删了就行了。” 对此,北京盈善律师事务所律师张清鑫分析称,与“肖像”类似,自然人的声音具有唯一性、独特性,是自然人人格的重要组成部分,声音权益是人格权的一种。制作并上传他人AI音频的行为,无论是出于商业目的还是娱乐目的,都已构成对其人格权的侵犯。如果配音内容违法或违反公序良俗,可能侵犯他人的名誉权。 据了解,今年4月,北京互联网法院一审开庭宣判了全国首例AI生成声音人格权侵权案。该案中,配音师因认为自身作品被短视频平台利用AI生成语音产品,严重侵犯了自己的声音权益,将短视频平台及制作方等5家公司诉至法院,最终原告获赔经济损失25万元。 在审理过程中,被告公司辩称,人工智能合成后的声音产品,与自然人声音在人身权属性上有所区别,目前技术都会对人工智能合成声音进行水印标记,切断了人工智能合成声音与自然人声音之间的联系,不会产生对应自然人的人格属性。而法院认为,AI声音与原告声音具有高度一致性,能够引起一般人产生与原告有关的思想或感情活动,能够将该声音联系到原告本人。在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。 “该判决对于厘清和把握AI生成声音的边界具有指导意义。”刘晓春说。 治理手段要跟上科技步伐 清华大学新闻与传播学院新媒体研究中心今年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增长99.91%。受访专家表示,法律法规和治理手段要跟上科技发展的步伐,对AI技术的应用进行明确的约束,引导科技向善。 张清鑫认为,AI语音应用工具提供方不能“置身事外”,而是要把好第一道关,强化对源头素材的把控和对生成内容的监管,完善运营规则,并在出现问题时积极配合有关部门,追溯违法音频的生成源头。 今年9月,国家网信办发布的《人工智能生成合成内容标识办法(征求意见稿)》提出,提供网络信息内容传播平台服务的服务提供者应当采取措施,规范生成合成内容传播活动。包括提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容等。 “作为内容传播的服务提供者,短视频等传播平台应尽到相关义务。”刘晓春建议,除了提示用户进行标识以外,平台也应对AI生成内容建立甄别和追踪的机制。如果发现涉嫌伪造的内容或者接到相关投诉,应当要求内容发布者及时对伪造内容进行标识,在不标识的情况之下,可以根据平台规则删除内容,造成严重后果的可以进行禁言、封号等处理。 [责任编辑:谢思琪]

 
上一篇: 营销短信竟伪装成验证码“轰炸”消费者 2024-11-4
下一篇: 按“老板”指示转账受骗 员工赔偿的边界在哪? 2024-10-11
本网简介 | 采编团队 | 律师团队 | 法律声明 | 诚信声明 | 人才招聘 | 在线留言