声音被克隆,女配音师主张人格权
- 来源:恋爱婚姻家庭·上半月 smarty:if $article.tag?>
- 关键字:声音,克隆,女配音师 smarty:/if?>
- 发布时间:2025-06-07 13:55
女配音师偶然发现,自己的声音经过AI处理变为商品,于是将涉事的5家公司告上法庭。那么,声音是否属于人身权利?侵权商家将如何担责呢?
克隆音变商品
殷女士是职业配音师,她的声音甜美,自然流畅,适合多种场景和风格。2023年5月的一天,殷女士的微信收到一段游戏解说音频,是同事小李发来的。小李问:“这是我刷视频时看到的,挺像你的风格,但似乎又有点AI味,是你本人录制的吗?”
殷女士反复听了这段音频,其声线、语速和风格果然与自己的声音特征高度吻合,但这段音频并不是她本人录制的。殷女士疑惑地问小李:“我的声音怎么会被移植到别人的作品里呢?”小李从事影视后期处理,他判断殷女士的声音被AI克隆了。可是,AI克隆声音技术大多需要原声素材来提取特征,于是小李问道:“你有没有给其他人提供过声音样本?”
殷女士委托律师开展调查,终于弄清了事情的来龙去脉。原来,殷女士曾经接受某文化公司委托,录制过两部有声读物。2019年期间,该文化公司将殷女士的声音样本提供给某软件公司,软件公司利用AI技术将殷女士的声音素材进行人工合成,生成了文本转语音的配音软件,之后该软件在上海某网络公司运营的云服务平台对外出售。
调查中,律师还获得了另外的证据。2020年期间,某智能公司与某科技公司签订在线服务买卖合同,由某科技公司向某软件公司下单采购多款语音产品,其中包括将殷女士声音AI化的文本转语音产品。而智能公司购入语音产品后,采取应用程序接口形式,在未经技术处理的情况下,直接调取殷女士的声音,并再次生成文本转语音产品在其平台中使用。
兜兜转转,殷女士于几年前接受委托录制的有声读物,竟然为商家提供了声音素材并被AI化,且变成了商品对外出售,而她却毫不知情。此过程有文化公司、软件公司、网络公司、智能公司、科技公司5家企业参与其中。律师调查的证据显示,经过AI处理后,殷女士的声音在多个平台的播放量高达32亿次。
5家公司被诉
2023年10月,殷女士将智能公司、文化公司、软件公司、网络公司、科技公司告上法庭。她要求智能公司、软件公司立即停止侵权,赔礼道歉,5家公司连带赔偿原告经济损失50万元、精神损失10万元。
智能公司等5被告均到庭应诉。法庭上,殷女士诉称,2023年5月,原告发现他人利用其配音制作的作品在多个App广泛流传,经过声音筛选和溯源,发现流传原告声音的作品均来自对外出售配音的云服务平台,该云服务平台的运营方系智能公司及网络公司。殷女士表示,作为职业配音师,声音权是自己人格权的重要部分,而根据我国法律规定,自然人对其声音享有支配权和控制权,未经权利人许可,任何人不得擅自使用他人的声音。智能公司等5被告未经授权,擅自利用人工智能技术,克隆原告的声音并用于商业目的,严重侵害了原告的人格权,应当承担侵权责任。
至于为何提出10万元精神损害赔偿的主张,殷女士强调,曾有短视频利用AI伪造同行的声音,因内容包含不当言论,引发了网暴。如今原告的声音被克隆到“以假乱真”的地步,原告也时刻担心出现同样的遭遇。
针对殷女士的起诉,智能公司辩称其出售的配音软件,系向科技公司下单采购,对是否克隆或伪造殷女士的声音不知情,其正常履行买卖合同的行为不构成侵权。网络公司辩称所售卖的声音产品由智能公司授权,原告提出的侵权赔偿诉求应排除网络公司。科技公司则辩称,其仅仅是声音订单的中间商,同样属于买卖合同的行为,没有侵权。
文化公司在法庭上辩称,殷女士录制的两部有声读物,文化公司经登记成为著作权人,有权向软件公司提供此两部读物的声音,该行为系双方业务合作的需要,其不知道软件公司将该读物转化生成文本转语音的配音软件。在软件公司将殷女士的声音进行AI化且对外出售的过程中,文化公司并非参与者,故其不是侵权主体,请求法院驳回殷女士对文化公司的诉讼请求。
软件公司当庭提交了与文化公司签订的《数据使用授权协议》,该协议约定文化公司将包括殷女士录制的有声读物等配音作品提供给软件公司,这份协议的附件中,有殷女士的签名。软件公司辩称,所生成的配音软件,仅仅使用了殷女士的一部有声读物,且尽到了审慎注意义务,有殷女士的签名附件为证。软件公司还提出,殷女士的声音经过AI处理后,已经不是她本人的原声,故而不具有法律意义上的人格特征,殷女士所主张的人格权益也就不复存在,其赔偿经济损失和精神损失的请求没有法律依据。
庭审期间,相关领域的技术专家给出了参考意见。个人的声纹信息,作为一种生物识别特征,具有高度的可识别性,可通过电子手段精确记录。其独特性、唯一性及稳定性,使其成为将信息与特定自然人相关联的关键要素。根据《个人信息保护法》的规定,声纹信息被归类为敏感个人信息,应受到法律的严格保护。
经过质证,法庭确认软件公司与文化公司签订的《数据使用授权协议》附件中,殷女士的签名并非本人签字。法庭还调取了殷女士的声音样本和云服务平台出售的文本转语音软件,当庭进行技术勘验,确定涉案AI化声音与殷女士的音色、语调和发音风格高度一致。
另经审理确认,涉案的5被告中,文化公司和软件公司是侵权链条的关键方,智能公司、网络公司及科技公司为参与方。
案件审理期间,智能公司、网络公司运营的平台下架了涉及殷女士声音的配音软件。
区分过错追责
法庭归纳出诉辩双方的争议焦点并逐一分析评论:
首先,殷女士的声音权益是否包括经人工智能处理的声音。《民法典》第一千零二十三条第二款规定:“对自然人声音的保护,参照肖像权保护的规定。”据此,对声音权益的保护,以具有可识别性作为法律保护的前提条件。
自然人声音的可识别性是指在他人反复多次或长期聆听的基础上,通过该声音特征能识别出特定自然人。而经人工智能技术处理后的声音是否落入自然人声音权益保护范围,关键在于通过该声音是否仍能识别出该特定自然人。利用人工智能合成的声音,如果能使一般社会公众或者相关领域的公众根据其音色、语调和发音风格,关联到该自然人,可以认定为具有可识别性。本案中,因软件公司系仅使用殷女士个人声音开发案涉文本转语音产品,而且经当庭勘验,该AI声音与殷女士的音色、语调、发音风格等具有高度一致性,能够引起一般人产生与殷女士有关的思想或感情活动,能够将该声音联系到殷女士本人,进而识别出殷女士的主体身份,因此,案涉AI声音属于殷女士的声音权益。
其次,案涉对殷女士声音的使用是否取得合法授权。文化公司虽对殷女士录制过的两部有声读物享有著作权等权利,但不包括授权他人对殷女士声音进行AI化使用的权利。根据已查明事实,《数据授权书》并非殷女士本人签署。因此,文化公司与软件公司签订协议,在未经殷女士本人知情同意的情况下,授权软件公司AI化使用原告声音的行为无合法权利来源。可见,文化公司、软件公司的使用行为没有经过合法授权。
再次,侵权链条各被告如何区分责任。文化公司、软件公司未经殷女士许可AI化并使用了案涉声音,构成对殷女士声音权益的侵犯,其侵权行为造成了殷女士声音权益受损的后果,应承担赔偿损失的法律责任。文化公司、软件公司具体实施了侵权行为,应赔偿殷女士的经济损失;智能公司、网络公司、科技公司主观上不存在过错,不承担损害赔偿责任,但其中智能公司需要公开赔礼道歉。殷女士并未举证证明被诉侵权行为给其精神利益造成严重损害,对其精神损害赔偿请求不予支持。
2024年4月23日,北京互联网法院作出一审判决,智能公司、软件公司向殷女士书面赔礼道歉;文化公司、软件公司连带赔偿殷女士经济损失人民币250000元;驳回殷女士其他诉讼请求。宣判后,双方当事人未提出上诉,判决已发生法律效力。
2025年2月21日,此案例入选最高人民法院《参考案例》库。
点评
声音权属于独立的新型人格权
方晓霞(江苏大学法学院副院长)
《中华人民共和国民法典》第1023条第2款明确规定:“对自然人声音的保护,参照适用肖像权保护的有关规定。”这一规定承认了声音作为一种独立的新型人格权,其保护模式参照肖像权的保护方式。需要注意的是,声音权的主体为自然人,即声音权只能由自然人享有,法人和非法人组织不享有声音权。
声音权具有人格属性、可再现性、可识别性和可固定性。声音作为人格标识,能够通过其特征识别特定自然人。声音权的保护内容包括声音的录制、使用、公开以及许可等。侵权形态包括擅自录制、使用、公开录音以及利用信息技术伪造声音。因此,未经许可使用他人声音,或者通过技术手段伪造、混淆他人声音,构成侵权。
文/钱宏祥(完)
