人工智能知识产权:制度困境与创新路径

在当今科技迅猛发展的浪潮中,人工智能技术正以超乎想象的速度渗透到各个领域,深刻改变着人类的生产生活方式。与此同时,其对传统知识产权制度的冲击也日益凸显,带来了一系列系统性挑战。本文通过深度剖析人工智能在数据训练、算法推荐以及生成内容等关键环节存在的法律难题,深入揭示了现行知识产权制度在合理使用、责任认定和权利归属方面暴露出的局限。在此基础上,积极探索并提出分层治理、动态权利配置以及技术赋能司法等具有创新性与前瞻性的路径。并且紧密结合中国实际国情,给出了兼具综合性与可操作性的合规建议,同时对未来司法实践的发展方向做出了展望。

引言

近年来,人工智能技术凭借其强大的学习能力、高效的数据处理速度以及卓越的预测分析功能,广泛而深入地融入到社会生产、生活的方方面面,从智能医疗、智能交通到智能家居、智能金融等领域,人工智能都展现出了巨大的应用潜力和变革力量。然而,随着人工智能技术的广泛应用,其在知识产权范畴所引发的诸多争议,逐渐成为全球治理领域高度关注的重点议题。在数据训练环节,作为人工智能技术实现智能化的基石,海量数据的获取与运用过程中却隐藏着诸多法律风险,合法性纷争不断;在生成内容方面,如何准确界定其权利归属,成为理论界与实务界争论的焦点;算法推荐技术在互联网平台的大规模应用,使得侵权责任的判定变得错综复杂;而技术措施的不当使用甚至滥用,也可能对技术创新的健康发展造成阻碍。这些问题全方位、深层次地冲击着传统知识产权制度体系,使其在应对人工智能带来的新挑战时显得力不从心。基于对七篇专业文献的深入研究,本文将从技术特性、法律困境以及制度创新这三个关键维度展开深入探讨,力求为解决人工智能知识产权问题提供切实可行的方案,进而提出契合中国国情的合规建议与司法发展展望。

一、人工智能知识产权问题的多维度剖析

(一)数据训练的著作权困境

数据训练堪称人工智能技术的核心与灵魂,是人工智能系统获取知识、提升智能水平的关键环节。在这一过程中,需要收集、整理和分析海量的数据,而这些数据中往往包含大量受著作权保护的作品。在实际操作中,主要侵权风险高度聚焦于数据输入阶段的复制行为,许多人工智能开发者在未经著作权人授权的情况下,擅自使用受保护作品作为训练数据,这无疑侵犯了著作权人的合法权益。

然而,当试图运用传统的合理使用制度来解决人工智能数据训练中的著作权问题时,却面临着重重障碍。一方面,人工智能技术在当下更多地被应用于商业领域,旨在获取商业利益,这与合理使用制度中 “非商业性” 这一核心要件背道而驰。例如,一些企业利用人工智能技术进行市场分析、产品研发,其目的明确是为了提升自身商业竞争力、获取经济收益,显然不符合合理使用的 “非商业性” 要求。另一方面,数据训练具有鲜明的 “非表达性使用” 特点,它并非对作品的表达形式进行使用,而是提取作品中的数据信息用于模型训练,这种独特的使用方式难以被现行合理使用类型所涵盖。现行合理使用类型主要针对的是对作品表达形式的特定使用情形,如为个人学习、评论、新闻报道等目的而对作品进行引用、复制等,而数据训练与之存在本质区别。

面对这一困境,有学者极具创新性地提出了 “法律沉默” 策略。该策略巧妙借助技术中立原则,在特定场景下允许对数据进行合理使用,同时构建起一套动态调节机制。通过这一机制,能够根据技术发展的不同阶段、市场环境的变化以及社会公共利益的需求,灵活调整对数据使用的规范尺度,从而在鼓励技术创新与保护著作权人权益之间寻求最佳平衡。另有学者则从制度层面出发,建议分阶段适用合理使用与法定许可制度。在技术发展的初期阶段,由于人工智能技术尚不成熟,需要大量的数据进行训练以推动技术进步,此时依靠合理使用制度能够为技术创新提供宽松的环境,激发开发者的创新活力;而当技术进入成熟阶段,市场规模逐渐扩大,对著作权人权益的保护需求也相应增加,此时通过法定许可制度,能够在保障著作权人获得合理补偿的前提下,确保数据的合法使用,促进人工智能产业的健康有序发展。

(二)算法推荐的责任界定

算法推荐技术作为互联网平台实现精准推送、提升用户体验的重要手段,近年来得到了广泛应用。然而,其在应用过程中引发的版权侵权责任争议也日益增多。有研究运用场景化分析方法,深入剖析了算法推荐在不同场景下的责任承担问题。研究发现,在算法纯粹输出场景中,即平台仅仅依据算法规则对内容进行机械推送,未对推送内容进行任何人为干预时,平台无需承担概括性注意义务。这是因为在这种情况下,平台难以对海量的推送内容进行全面审查,要求其承担过高的注意义务既不现实,也可能对技术创新造成阻碍。但在流量倾斜场景下,即平台通过人为干预算法,对某些内容进行优先推荐、加大曝光度等操作时,平台则需承担更高责任。因为此时平台的行为已经超出了单纯的技术服务范畴,具有了一定的内容选择和控制能力,应当对因流量倾斜导致的侵权行为承担相应责任。

这一结论与其他学者的观点相互呼应。有学者指出,算法推荐若具有 “实质性非侵权用途”,例如用于学术研究、公共服务等领域,且能够证明其在使用过程中尽到了合理的注意义务,那么可将其作为侵权抗辩理由。然而,一旦平台主动干预内容排序,改变了算法原本的自然推送结果,这种行为就可能构成过错侵权,平台需承担相应的法律责任。

在法律规制方面,欧盟《人工智能法》以及我国《互联网信息服务算法推荐管理规定》均着重强调了算法透明与用户告知义务。算法透明要求平台向用户公开算法的基本原理、运行机制以及可能产生的影响,使用户能够了解自己所接收信息的来源和筛选方式。用户告知义务则要求平台在收集、使用用户数据时,明确告知用户相关数据的用途、范围以及可能存在的风险等信息。但目前的现实情况是,当前法律对于算法披露的要求大多仅停留在结果层面,例如仅要求平台告知用户所推荐内容的类别、来源等简单信息,而未能深入到算法的技术细节,如算法所采用的模型结构、数据处理算法、权重分配规则等。这使得在侵权纠纷发生时,用户由于缺乏对算法技术细节的了解,难以收集有效的证据来证明平台存在侵权行为,在侵权举证过程中面临极大困难。

(三)生成内容的权利归属

人工智能生成内容的著作权归属问题,无疑是人工智能知识产权争议中的核心与焦点。

依据现行法律体系,无论是著作权法的相关规定,还是司法实践中遵循的原则,均以 “人类智力贡献” 作为认定作品作者身份的基础。基于这一标准,人工智能由于缺乏人类所具备的创造性思维和主观意识,完全被排除在作者身份之外。然而,在司法实践中,已经出现了一些具有突破性的案例。例如,广州互联网法院判决的全球首案(2023)粤 0192 民初 1034 号,在该案中,法院综合考虑了人工智能生成内容的过程、人类对生成过程的参与程度以及生成内容的独创性等因素,首次认可了人机合作作品的存在,为解决人工智能生成内容的权利归属问题提供了新的思路和参考。

在国际上,不同国家对于计算机生成内容的著作权归属采取了不同的立法模式。英国《1988 年版权、设计与专利法》第 9 条明确规定,在没有相反约定的情况下,计算机生成作品的著作权归属于对作品的创作做出必要安排的人。爱尔兰《2000 年版权与相关权利法》第 2 条也作出类似规定,将计算机生成内容的著作权赋予促成作品创作的人。而在我国,学者们从我国的国情和知识产权保护的实际需求出发,主张在《著作权法》中增设特殊条款,专门用于规范人工智能生成内容的权利归属问题。通过这一特殊条款,既能充分考虑到人工智能技术创新的需求,为人工智能产业的发展提供必要的法律支持,又能切实保障创作者的合法利益,避免因技术发展而导致创作者权益受损,实现技术创新与权益保护的有机统一。

二、制度困境与创新路径

(一)现有法律框架的局限

1.合理使用制度的僵化。我国现行《著作权法》第 24 条采用封闭式列举的方式,明确规定了合理使用的具体情形。这种立法模式在一定程度上保证了法律的稳定性和确定性,但也存在明显的局限性,难以适应人工智能技术发展带来的新变化,无法有效覆盖人工智能的数据训练行为。例如,数据训练中对作品数据信息的提取和使用,既不符合传统合理使用中为个人学习、研究而使用作品的情形,也无法归入为评论、新闻报道等目的而使用作品的范畴。有学者敏锐地察觉到这一问题,建议引入 “公共领域” 理论,将数据训练视作对元知识的利用。元知识是指关于知识的知识,数据训练过程中对作品数据信息的提取和分析,本质上是对作品中蕴含的元知识的挖掘和运用。基于 “公共领域” 理论,在一定条件下,这种对元知识的利用可被视为合法行为,从而豁免侵权责任,为解决人工智能数据训练的著作权问题提供了新的理论视角。

2.法定许可的缺失。现行法定许可类型主要包括为实施九年制义务教育和国家教育规划而编写出版教科书、报刊转载等有限的几种情形,并未涵盖人工智能数据训练这一新兴领域。这就导致在人工智能数据训练过程中,著作权人无法依据法定许可制度获得合理补偿。在人工智能产业蓬勃发展的今天,大量的作品被用于数据训练,若著作权人不能得到相应的经济回报,必然会影响其创作积极性,也不利于文化产业的可持续发展。有学者针对这一问题,提出了动态费率机制。该机制根据技术发展的不同阶段,如技术起步期、快速发展期、成熟期等,以及数据使用的规模、频率、市场价值等因素,动态调整许可费用。在技术起步期,为鼓励技术创新,可适当降低许可费用;随着技术的发展和市场规模的扩大,逐步提高许可费用,以确保著作权人能够获得合理的经济补偿,同时也促进人工智能产业的健康发展。

3.技术措施的滥用风险。在人工智能技术发展过程中,一些技术措施如数据投毒工具等被不当使用,可能对技术创新造成严重阻碍。数据投毒是指在数据训练过程中,通过恶意篡改、添加虚假数据等方式,干扰人工智能模型的训练结果,使其无法正常发挥功能或产生错误的输出。目前,法律对这类技术措施的规制尚存在空白,缺乏明确的法律条文来规范其使用范围、方式以及法律责任。有学者主张借助技术中立原则来界定滥用行为,明确排除非保护目的的技术措施。技术中立原则强调技术本身并无善恶之分,关键在于使用技术的目的和方式。对于那些以保护知识产权为目的,且在合理范围内使用的技术措施,应予以认可和保护;而对于那些用于不正当竞争、破坏技术创新环境的非保护目的的技术措施,则应通过法律手段予以禁止和制裁。

(二)制度创新的多维度路径

1.分层治理模式。根据不同学者的建议,针对人工智能技术的特点和应用场景,可采用分层治理模式。具体而言,区分技术开发与应用场景。在基础层的数据训练阶段,由于该阶段对于技术创新的推动作用至关重要,且数据训练的过程较为复杂,难以进行全面细致的监管,因此适用较为宽松的规则。例如,在满足一定条件下,适当放宽对数据来源合法性的审查标准,允许在合理范围内使用开源数据和经过合法授权的数据进行训练,为技术创新提供相对宽松的环境。而对于应用层的生成内容,由于其直接面向公众,可能对社会文化、经济秩序产生较大影响,因此强化侵权审查。建立严格的内容审核机制,对人工智能生成的内容进行全面审查,确保其不侵犯他人知识产权、不违反法律法规和社会公序良俗。

2.动态权利配置。借鉴阶段性策略,在技术发展的不同阶段,采取不同的权利配置方式。在技术发展初期,人工智能技术尚处于探索和成长阶段,需要大量的数据和宽松的法律环境来支持创新。此时,利用合理使用制度,鼓励开发者积极利用各种数据进行技术研发,降低创新成本,激发创新活力。随着技术的逐渐成熟,市场规模不断扩大,对知识产权保护的需求也日益增加。此时,过渡到法定许可制度,并建立集体管理组织。集体管理组织负责代表著作权人统一行使权利,与人工智能开发者进行谈判、签订许可协议,并收取许可费用,再将费用合理分配给著作权人。通过这种方式,既能保障著作权人的合法权益,又能确保人工智能技术的持续发展。

3.技术赋能司法。有学者提出构建 “沙箱” 实验环境,这一环境为测试新技术的法律影响提供了一个安全、可控的空间。在 “沙箱” 内,允许人工智能开发者在一定范围内进行技术实验,模拟各种可能出现的法律场景,提前评估新技术可能带来的法律风险,并制定相应的应对措施。同时,建立在线纠纷解决机制(ODR),运用区块链存证技术降低举证难度。区块链技术具有去中心化、不可篡改、可追溯等特点,能够确保证据的真实性和完整性。在知识产权纠纷中,当事人可以将相关证据通过区块链技术进行存证,一旦发生纠纷,可直接调取区块链上的证据,大大降低了举证成本和难度,提高了司法效率。

三、合规建议与司法展望

(一)合规建议

1.数据治理机制

(1)建立数据知识产权登记制度,依据《数据安全法》第 33 条,明确训练数据来源的合法性。通过登记制度,对数据的收集、存储、使用等环节进行全程记录和监管,确保数据来源合法合规,防止未经授权的数据流入人工智能训练体系。

(2)对开源数据与商业数据进行分类管理,依据《著作权法》第 24 条第 8 项,允许非商业用途的合理使用。对于开源数据,鼓励在符合开源协议的前提下进行广泛使用和创新;对于商业数据,在使用时要严格遵守相关法律法规和合同约定,确保著作权人的合法权益得到保护。

2.算法合规框架

(1)要求平台依据《互联网信息服务算法推荐管理规定》第 16 条,披露算法基本原理与影响评估报告,保障用户知情权。平台应向用户详细说明算法的工作原理、数据处理方式以及可能对用户产生的影响,使用户能够在充分了解的基础上做出自主选择。

(2)参考美国《数字千年版权法》第 512 条,对流量倾斜行为设置 “红旗标准”,强化平台主动审查义务。当平台的流量倾斜行为达到 “红旗标准”,即明显存在侵权风险时,平台应当主动对相关内容进行审查,及时发现和制止侵权行为,避免侵权后果的扩大。

3.生成内容管理

(1)参照欧盟《数字服务法》第 14 条,强制标注人工智能生成内容,避免与人类作品混淆。通过标注,让公众能够清晰区分人工智能生成内容与人类创作内容,防止误导公众,维护文化市场秩序。

(2)参考《著作权法》第 17 条,探索 “人工智能辅助创作” 的权利分配模式,赋予开发者邻接权。在人工智能辅助创作的过程中,开发者通过技术手段为创作提供了辅助支持,应赋予其一定的邻接权,以激励开发者积极参与人工智能创作领域的创新。

(二)司法展望

1.案例指导制度:参考美国 “谷歌图书馆案”(Google v. Oracle, 2021)的 “转换性使用” 标准,通过指导性案例明确数据训练的合理使用边界。“转换性使用” 强调对作品的使用是否具有新的目的、性质和价值,是否在原作品的基础上产生了新的表达。通过发布指导性案例,为我国司法实践中判断数据训练是否构成合理使用提供明确的参考标准,统一司法裁判尺度。

2.技术审查机制:建立跨学科专家库,协助法院理解算法逻辑与数据训练流程。专家库中应包括计算机科学、法学、知识产权等领域的专家,在审理涉及人工智能知识产权纠纷的案件时,邀请相关专家参与案件的分析和论证,为法官提供专业的技术意见,帮助法官准确理解复杂的技术问题,做出公正的裁判。上海知识产权法院已试点 “技术调查官” 制度,未来有望在全国推广。技术调查官制度通过引入专业技术人员参与案件审理,有效解决了法官在面对技术难题时的知识短板问题,提高了案件审理的专业性和公正性。

3.国际规则参与:推动 “数据主权” 与 “技术中立” 原则纳入国际条约,如《区域全面经济伙伴关系协定》第 14 章,平衡发展中国家的数据优势与发达国家的技术优势。在全球经济一体化的背景下,数据已成为重要的战略资源。发展中国家拥有丰富的数据资源,而发达国家在人工智能技术方面具有领先优势。通过将 “数据主权” 与 “技术中立” 原则纳入国际条约,能够保障发展中国家对本国数据的控制权,同时促进全球人工智能技术的公平竞争与合作,实现全球范围内的技术创新与经济发展的平衡。

结语

人工智能知识产权问题的妥善解决,绝非一蹴而就之事,需要我们突破传统法律框架的固有束缚,以创新的思维和开放的态度,在技术创新与权益保护之间精心寻求动态平衡。通过实施分层治理、动态权利配置以及技术赋能等一系列切实可行的举措,我国有望构建起一套具有中国特色、符合时代发展需求的人工智能知识产权制度体系,为全球治理贡献中国智慧和中国方案。在未来的司法实践中,应高度注重积累个案经验,充分发挥司法裁判的指引作用,促进法律与技术的深度融合,为人工智能产业的健康、可持续发展保驾护航。

 

参考文献
[1] 王迁。人工智能生成内容的著作权问题研究 [J]. 中国法学,2023 (03):123-135.

[2] 李明德。数据知识产权保护的理论与实践 [M]. 北京:法律出版社,2022:45-67.

[3] 刘春田。知识产权法(第五版)[M]. 北京:中国人民大学出版社,2021:210-225.

[4] 吴汉东。人工智能技术的知识产权制度回应 [J]. 法学研究,2022 (05):89-102.

[5] 张平。算法推荐的版权侵权责任研究 [J]. 知识产权,2023 (02):34-48.

[6] 郑成思。人工智能与知识产权制度的变革 [M]. 北京:中国社会科学出版社,2021:78-92.

[7] 冯晓青。人工智能时代知识产权保护的挑战与对策 [J]. 法学家,2022 (06):145-158.

Loading

杜双律师

杜双律师

数据与隐私合规、游戏社交泛娱乐、互联网争议解决、网络罪案辩护。

您可能还喜欢...