AI生成内容版权归谁?声音人脸如何保护?
■本报记者 桑雪骐
当下,人工智能已经渗透到消费者生活的方方面面。记者日前从北京市互联网法院获悉,该院审理案件情况分析显示,涉人工智能案件增长较快,纠纷类型也日益复杂化和多元化。该院在审理涉人工智能案件时主要面临三大司法挑战。
一是技术应用复杂导致事实查明难。案件往往涉及对人工智能的生成过程、算法模型以及数据来源等进行司法审查,技术门槛高,事实查明难度大,对司法专业性要求高。例如,在北京互联网法院审理的人工智能标识案中,平台运用算法工具将用户发布内容判定为未标识的AI生成内容从而引发纠纷,该案中平台既是算法工具掌控方又是结果判断方,法院判断其平台审查及处理结果是否有合理依据时需要探明其算法决策逻辑,平台需围绕案件争议事实以可理解的方式举证或说明算法运行机制、对可能出现的误判是否采取了合理的救济措施。
二是规则适配不足导致法律适用难。人工智能领域规范性法律文件制定存在一定的滞后性,难以完全适应技术快速发展的新形势,相关案件的司法裁判常常无法规可依、无先例可循。例如,在著作权领域,涉及AI文生图、文生视频、虚拟数字人等新型权益客体是否构成著作权法意义的作品,其著作权应归属于AI服务提供者还是使用者;大模型训练对作品的利用在著作权方面如何定性等问题。在人格权领域,涉及自然人的人格权保护范围是否涉及AI合成的虚拟形象、虚拟声音;以人脸信息作为模型应用深度合成技术是否侵犯个人信息等问题。这些具体争议需要法官充分发挥司法智慧,综合法律原则、政策导向、价值衡量等进行合理裁判。
三是主体角色多元导致责任认定难。人工智能产业链条复杂、上下游相互依存,案件往往涉及训练者、开发者、服务提供者、使用者等不同角色,各方主体分工合作形成复杂关联,影响法律责任的认定。例如,在北京互联网法院审结的全国首例AI声音权案中,原告主张侵犯其声音权益的被告涵盖录音制品制作者、文本转语音产品开发者、服务提供者以及云服务平台等人工智能数据训练、模型研发和技术服务链条下的众多环节中的多个主体,如何理顺相应的产业链条,在众多主体中确定责任由谁承担,既关涉个案公平正义的实现,又影响着相关产业能否健康有序发展。
针对预防化解涉人工智能案件纠纷,北京互联网法院提出四项建议:增强法律意识,明确自身行为边界,依法维护自身合法权益;严格遵守技术伦理规范,确保数据和基础模型来源合法;积极完善管理机制,强化人工智能服务提供者主体责任;加强人工智能监管协同合作,形成监管合力。