地平线快报2025年09月19日 21:57消息,法官说法:使用AI合成他人声音带货可能构成侵权,需承担法律责任。
随着生成式人工智能技术的快速发展,名人声音和肖像被“克隆”并用于不当用途的现象日益增多,真假难辨,消费者极易受到误导。北京互联网法院近日发布的一起案例显示,被告在未获得权利人许可的情况下,利用AI合成的名人声音进行带货,法院最终认定其行为构成侵权。 这一案例反映出人工智能技术在带来便利的同时,也对个人权益保护提出了新的挑战。技术的发展不应以牺牲法律与道德为代价,如何在创新与规范之间找到平衡,成为亟待解决的问题。对于类似侵权行为,司法实践的明确态度有助于为行业树立清晰的边界,也为公众提供更有力的法律保障。
AI合成声音或换脸行为的界限在哪里?可能涉及哪些法律责任?记者对此采访了北京互联网法院综合审判三庭(少年法庭)庭长颜君,进行了相关解答。
使用AI合成名人声音带货 法院认定被告构成侵权
原告李某某在教育和育儿领域具有较高的知名度和社会影响力。2024年,原告发现被告某文化传媒有限公司在其运营的网络平台店铺中,使用其公开演讲和授课视频,并结合与其声音高度相似的AI合成声音,对多本家庭教育类图书进行宣传推广。原告认为,被告未经允许使用其肖像及通过AI技术合成的声音制作宣传内容,侵犯了其肖像权和声音权。被告作为图书销售方,与视频发布者(某带货主播)存在委托关系,共同完成销售行为,因此被告应对涉案视频的发布负有审查义务和能力,应当承担相应的侵权责任,包括赔礼道歉和赔偿损失。 我认为,随着AI技术的不断发展,声音和影像的模拟技术已日趋成熟,但如何在法律层面界定和保护个人的肖像权与声音权,仍是一个亟需明确的问题。本案中,被告的行为不仅涉及对个人权利的侵害,也反映出当前网络平台上对内容审核机制的不足。平台方和相关从业者应增强法律意识,避免因技术滥用而触碰法律红线,保障公众的合法权益。
法院认为,涉案视频中使用了原告李某某的肖像,并通过AI技术合成其声音。该合成声音在音色、语调及发音风格上与李某某本人的声音高度相似。结合李某某在教育和育儿领域的公众影响力,涉案视频对家庭教育类书籍进行了宣传推广,更容易让观看视频的公众将其内容与李某某本人产生关联,足以使一定范围内的听众将该AI合成声音与李某某本人建立起一一对应的关系。因此,可以认定该声音属于李某某声音权益的保护范畴。涉案视频大量使用李某某的肖像,并模拟其声音进行传播,且未获得李某某的授权,故该视频的发布行为构成对其肖像权和声音权益的侵犯。
法院认为,被告某文化传媒有限公司与视频发布者(某带货主播)依照平台规则和服务相关约定达成委托推广关系,共同为了推介被告书籍的目的发布涉案视频、获取相应收益,且被告基于平台规则和管理权限,具备对涉案视频进行审核管理的能力。在涉案视频大幅使用原告肖像、合成模拟原告声音的情况下,被告应对视频可能引发的侵权风险具有一定的预见性,并就视频是否获得了原告授权尽到合理的审查义务,但在案证据表明被告未尽到其应有审查注意义务,故被告某文化传媒有限公司应与视频发布者就侵权视频发布承担连带责任。
法院判决,被告某文化传媒有限公司被判决向原告李某某赔礼道歉,并赔偿经济损失及维权合理支出,其余诉讼请求被驳回。宣判后,双方均未提出上诉,目前该判决已生效。 从这一案件的处理结果来看,法院在维护当事人合法权益的同时,也体现了对侵权行为的明确态度。赔礼道歉与经济赔偿的结合,既是对受害者精神权益的尊重,也是对侵权方的一种警示。案件最终未引发上诉,说明双方对判决结果基本认可,反映出司法裁决的公正性和说服力。此类案件的妥善处理,有助于推动社会对知识产权和人身权保护的重视,也为类似纠纷提供了参考范例。
如何判断AI合成声音等行为是否构成侵权?
《中华人民共和国民法典》第1019条规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像。第1023条第2款规定,对自然人声音的保护,参照适用肖像权保护的有关规定。
颜君介绍,未经本人同意,利用人工智能技术进行换脸或合成他人声音,属于通过信息技术手段伪造等行为,可能侵犯他人的肖像权或声音权。若在未获得肖像权人许可的情况下,制作、使用或公开相关肖像或声音,也可能构成侵权行为。
“判断是否构成侵权的核心在于,利用AI技术合成的自然人肖像和声音,只要能够使一般社会公众或相关领域公众根据其五官、轮廓等外部形象或音色、语调、发音风格等声音特征识别出特定自然人,即应纳入该自然人人身权益的保护范围。”颜君表示,例如商家“克隆”名人肖像、声音带货,让消费者误以为是名人推荐商品,这就侵犯了名人的声音权和肖像权;再如,有人通过“恶搞换脸”,把其他人的面部换到一些不雅视频或图片中并在网络上传播,这不仅侵犯了肖像权,还严重贬损了他人的名誉。
AI合成声音等行为可能涉及哪些法律责任?
当前,使用AI合成声音或换脸技术制作虚假信息、恶搞等行为在网络平台上屡见不鲜。颜君指出,此类行为可能涉及的法律责任主要涵盖三个层面: 当前,随着人工智能技术的快速发展,利用AI进行虚假信息传播的现象日益增多,不仅扰乱了网络环境,也对个人权益和社会信任造成了严重冲击。尽管相关法律体系正在逐步完善,但在实际操作中仍存在界定不清、执行困难等问题。因此,加强技术监管与法律约束,已成为当务之急。
一是民事责任。根据《中华人民共和国民法典》的规定,权益受到损害的民事主体可以向法院提起民事诉讼,要求侵权人停止侵害、赔礼道歉、消除影响,并赔偿经济损失和精神损失。需要强调的是,并非只有视频的制作者、发布者才要担责,就视频发布的委托方而言,如果未尽到合理的审核义务,也需要承担连带责任,这意味着委托推广带货的商家等不能以“不知情”为借口来推卸责任。
二是行政责任。如果利用AI技术故意散布谣言、谎报险情等扰乱公共秩序的,公安机关可依据《中华人民共和国治安管理处罚法》等规定,对行为人处以行政拘留、罚款等行政处罚。
三是刑事责任。例如,利用AI换脸、AI合成声音制作淫秽物品并进行传播以谋取利益,可能构成传播淫秽物品牟利罪;若用于对他人进行诽谤或侮辱,情节严重的,可能构成诽谤罪或侮辱罪;如果通过合成肖像或声音伪造场景实施诈骗行为,则可能涉嫌诈骗罪,从而需要承担相应的刑事责任。
规范人工智能技术的应用,需要多方协同治理。颜君建议,提供信息内容传播服务的网络平台应依据相关法律,加强对人工智能生成合成内容的审核。对于属于或可能属于人工智能生成合成的内容,应采取适当方式在发布内容周边添加显著提示标识,明确告知公众该内容为生成合成内容,防止公众产生混淆。同时,平台应建立健全辟谣机制和投诉处理机制,及时应对利用深度合成技术制作、复制、发布和传播虚假信息的行为。未来,针对AI合成声音侵权等新型侵权行为,还需进一步明确平台在内容审核、数据使用、算法推荐等方面的责任。 我认为,随着AI技术的快速发展,其在内容生成领域的应用日益广泛,但也带来了信息真实性与版权保护等方面的挑战。平台作为技术应用的载体,理应承担起更多的社会责任,在保障用户权益的同时,也要维护网络环境的清朗。只有通过法律规范、技术手段和公众意识的共同提升,才能实现AI技术的健康发展。
“此外,相关技术的使用者和信息内容的发布者也应遵循法律法规与社会公德,杜绝利用AI技术侵犯他人合法权益的行为,携手促进人工智能及深度合成技术的良性发展,营造健康有序的网络环境。”颜君表示。