建立可信赖的人工智能发展机制 | 社会科学报
▋科技治理与中国式现代化
在人工智能技术快速发展过程中,如何建立与之相适应的知识产权保护体系,已成为日益重要的话题。我们鼓励创新,也应审慎应对,将原则落到实处,需要科学识变和系统应对。
原文 :《建立可信赖的人工智能发展机制》
作者 | 上海人工智能研究院数字化治理中心 彭嘉昊
图片 |网络
人工智能是当下科技领域最受关注的热门话题之一。在全球新一轮科技革命的浪潮中,人工智能作为一种颠覆性技术,正在以飞快的速度发展着,并对我们的生产生活带来巨大的改变。而在人工智能技术的发展过程中,知识产权保护对人工智能创新有着巨大的促进作用。
人工智能创新速度太快,
现有知识产权保护制度存在漏洞
随着今年大热的ChatGPT模型出现,诸如谷歌、Meta等公司也在推出自己的人工智能大模型。目前的人工智能创新领域存在着不清晰的法律空白地带,主要问题有:第一,人工智能的生成物对现有知识产权保护体系的冲击,即如何看待人工智能的创造力;第二,怎样用知识产权制度保护人工智能技术,即如何保护一种创新型技术。
我们先讨论第一个问题。一般来说,我们普遍认为纯AI创作的内容是不应当受到保护的,而ChatGPT和GPT4.0的出现,将使得我们当下的知识产权保护体系受到冲击。
首先,根据2019年的AIPPI伦敦决议,人工智能的生成物是否应当被知识产权法律保护,核心在于“是否有人类数据选择标准被用于输入到AI中”。如果“是”,则应当被保护;如果“否”,说明该生成物主要由AI创作,则不被保护。这也是欧美主流的学术观点。但人工智能创新的速度太快了,在2019年的时候,普通人使用AI还需要进行大量的数据投喂训练;但到了2023年,对于GPT4.0这样的大模型而言,几乎并不需要人再进行输入了,那么在此基础上进行“微调”,也将被视为“不应当保护”的范畴。
另外,我国尚没有发布关于人工智能生成物相关的成文规则,唯一的可以参考的是深圳南山区法院(2019)粤0305民初14010号的判决书,其中载明:“人工智能没有自由意志、缺乏自我意识,是人类支配利用的工具,因此无论其在某些功能上多么强大,人工智能也不能作为人而成为法律主体。”这种情况下,则会出现公司作为创作主体时的漏洞。比如,某一插画公司利用AI绘画制作了大量AI生成的画作,在现行法律框架下,可能会被认定为公司的法人创作行为,而让AI创作的画作被纳入“应当受保护”的范畴。
第二个问题,人工智能的知识产权保护主要包括对算法和数据的保护。具体来说,人工智能的知识产权保护主要包括专利、版权和商业秘密等方面。
1.专利保护。在人工智能的研发中,专利保护是一种重要的知识产权保护方式。专利保护可以为发明人提供一定的保护期限,在保护期内,发明人可以独享其发明的经济利益。同时,专利保护也可以激励创新,推动技术发展。例如,Google的深度学习算法TensorFlow已经获得了多项专利保护。
2.版权保护。在人工智能领域中,版权保护主要针对的是人工智能生成的作品。例如,人工智能可以通过算法生成音乐、图片、文章等。这些作品的版权归属问题需要得到明确的解决。在美国,法院已经确认了人工智能生成作品的版权归属问题,即版权属于作品的创建者,而不是人工智能算法本身。
3.商业秘密保护。商业秘密保护主要针对的是人工智能的数据集。数据集是训练人工智能算法的基础,其价值不可估量。因此,对数据集的保护显得尤为重要。一些公司已经开始将其数据集作为商业秘密进行保护,例如Facebook的社交图谱数据集。
呼吁建立专门立法,
对现有知识产权制度进行补强
近些年,人工智能技术取得了高速发展,随着大国科技竞争的日益激烈和国家数字化转型工作的不断深化,亟需对现有知识产权法律体系进行补强。
首先,人工智能创作成果的归属问题:传统的知识产权制度主要针对人类的创作成果,而随着人工智能技术的发展,越来越多的作品和成果是由人工智能生成的。这就涉及人工智能生成作品的知识产权归属问题,目前全球各国在这方面的立法尚未完善,需要补充相关规定,明确人工智能创作成果的知识产权归属。
其次,数据保护与隐私权:数据是训练人工智能的基石,但在数据收集、处理、存储和使用过程中,很容易涉及个人隐私和商业机密等问题。因此,需要在知识产权制度中加强数据保护和隐私权方面的规定,确保数据的安全和合规使用。
最后,公平和竞争的平衡:在知识产权制度中,既要鼓励创新,确保创新者能够获得合理的回报;又要保障知识产权的合理使用,避免知识产权垄断或滥用,阻碍技术的发展与传播。我们需要建立专利分类和保护标准,建立跨国间的合作,平衡公平、效率、区域保护、恶性竞争等问题。
纵观技术和行业的发展趋势,解决问题的核心还是建立可信赖的人工智能(Trustworth Artifical Intelligence)发展机制。参考区块链技术从乱到治的过程,公安部建立了“可信区块链”的白名单机制,从政府监管和行业自治两个维度来规范技术的发展。人工智能技术也会经历一个类似的进程,即从难以解释到被迫解释,最后到成为受到保护的前置性条件。
相信在不远的未来,人工智能企业在发布产品前,能够向政府组织的专门委员会提交“可信性报告”。这将成为类似于工商备案一样的常规动作,也是企业避免自身权益受到侵害的一种必要手段。
文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1847期第4版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
本期责编:王立尧
拓展阅读
人工智能之“智”正在使人变成冗余 | 社会科学报
人与机·文化篇 | 构建“第三种机器人文化”