◎ 文《法人》杂志全媒体记者 李辽
就算你对“生成式人工智能”这个词感到陌生,也一定知道2023年风靡全球的Chat GPT,它正是生成式人工智能系统的代表产品。这些产品可根据使用者的需求通过人工智能技术进行知识对话、图像生成、文本生成等。
粗略统计,目前市面上各类生成式人工智能产品已有200个左右,在为人类带来前所未有的体验的同时,也在模型幻觉(生成式人工智能大模型可能会产生与某些来源无关的荒谬或不真实的内容)、知识产权保护、法律责任分配、个人信息保护等方面引发诸多纠纷,受到社会各界广泛关注。
责任归属于谁
生成式人工智能走红于2023年,但早在上世纪40年代便开始萌芽。进入21世纪,随着大数据的兴起和计算能力的显著提升,它得以实现真正突破。2023年,OpenAI公司推出了GPT-4,被业内人士认为是近40年来的最强“科技奇点”。国内外科技大厂如谷歌、百度、阿里巴巴、京东等都表示在这方面已有布局,甚至有的已经推出了相应产品。
这些产品和初代产品相比,具有更广泛的常识和解决问题的能力,更具创造性和协作性。在全球,它们应用广泛:自动创作文本、生成对话、实时翻译能力,使它们可以更好地服务于新闻和广告业;自动创作图像、生成视频的能力,使其在游戏、电影等娱乐领域产生了巨大价值;甚至,在医疗研究、药物研发等领域,它可以合成新的药物、预测疾病、模拟病理过程等,为人类带来更多健康福祉。
但随着生成式人工智能产品相继涌现,人们发现有些系统会产生一些荒谬或不真实的信息误导用户,这被称为“模型幻觉”问题。近日,浙江大学光华法学院特聘研究员、硕士生导师周翔对《法人》记者称,因为系统在用户提问后必须回答问题,所以只能根据大模型过去学习的语料库内容,基于概率进行回答,那么这些数据的质量影响着系统回答的质量。“如果这种信息误导现象出现在医疗、金融、交通或法律行业,将产生极大危害。”
“例如,没有医学知识背景的用户在某生成式人工智能系统上询问病情,得到错误答案,从而耽误病情;再如,一款股票投资生成式人工智能系统给用户提供了投资建议,用户依照建议买了某些基金股票,最后却血本无归。这些情况相当于系统给你出了个‘馊主意’。”周翔介绍,“以往系统智能化程度不够,当用户感觉回答很‘弱智’时,往往不会轻易相信,但现在的系统回答能力在增强,可以说拥有了‘以假乱真’的能力,有的回答看似有理有据,但其实是错的。所以,没有专业辨别能力的用户,试图从生成式人工智能系统获得正确结论,风险很大。”
如果信息误导造成严重后果,就牵涉法律行为的责任划分问题。在中国,法律不承认人工智能产品具有行为能力,其尚不具备法律主体资格。周翔说:“一个错误的回答如果给使用者人身财产安全造成巨大损失,该归责于谁?这在法律界引起很大争议,但目前尚无定论。”
与信息误导类似的情况还有虚假信息。世界经济论坛今年1月发布的《2024年全球风险报告》显示,2024年全球76个国家和地区将进行选举,利用人工智能技术生成的虚假信息可能会充斥网络,并对选举结果产生影响,而人工智能排在气候变化、经济疲软和战争之前,被视为全球面临的最大风险。
周翔认为,要解决以上问题,应该建立审核机制对回答进行审核,但目前又缺乏相应标准。“因此,在高风险领域,生成式人工智能产品不能直接面向非专业用户推广,只能作为专业用户的辅助工具。例如:医生可以在对病人的病情有判断结果后,用人工智能系统生成处方;法官可以在对案件有了结论后,利用人工智能系统生成判决书。”
目前,生成式人工智能领域急需一个规则,周翔称,是一个开发者、运营者都必须遵循的规则。“但规则过于严苛,企业在回报并不明确的情况下,不愿意承担高风险,这样势必限制产业发展,大模型没法投入商用。因此,作为系统开发者,可以对用户进行风险提示,这样也能让自己免责。”
权利归属于谁
除了归责问题,还有权利归属问题。
随着生成式人工智能的应用日益广泛,一种全新的创作方式,让不具备专业技能和经验的人也可以参与到创意领域的创作中,成为作家、画家或导演。这也带来知识产权领域的诸多纠纷。
目前争议主要集中在两个方面。首先,生成式人工智能在研发过程中,如果使用那些拥有版权保护的内容进行算法模型训练,是否构成侵权?其次,人工智能生成的内容到底有没有版权?如果有,权利又归属于谁?
周翔称,主要争议在于神似的作品。2023年7月,美国一位喜剧演员兼作家和其他两位畅销书作家联合起诉Meta公司和OpenAI公司,随后越来越多的作家加入这场创作者与生成式人工智能的法律之战。他们围绕着一个核心问题展开争论——这些开发人工智能系统的科技公司在未经授权的情况下,是否可以使用受版权保护的作品对人工智能模型进行训练?这些创作者认为,这些公司通过使用他们的著作来训练人工智能模型侵犯了他们的著作权。此外,他们还主张这些人工智能模型的输出文本也侵犯了其版权。之后,法官暂时驳回了他们的第二项主张。
无独有偶,2023年,中国发生了一个类似案件,被称为“中国人工智能生成图片著作权侵权第一案”。原告李某在某人工智能绘画软件上通过输入数十个提示词,设置相关迭代步数、图片高度、提示词引导系数以及随机数种子等,生成了数张人像图片,在社交平台上发布时注明有“AI绘画”标签。但被告刘某使用了其中一张人像图片,并作为自己的诗文配图在网络发布,通过裁图方式裁掉了水印。李某将刘某诉诸法庭,认为刘某侵犯了他的署名权和信息网络传播权。李某律师出身,希望法院对使用人工智能系统生成图片的创作是否构成作品、是否具备独创性给出明确的判断标准。5月,该案在北京互联网法院立案,后共经历5次开庭审理。据李某对媒体的描述,每次开庭,他都主要在向法官讲述自己使用该绘画软件生成图片的制作过程以及这个软件赋予用户的使用权利。
北京互联网法院在判决书中认为,李某用生成式人工智能软件生成一幅人像图片,与人们之前使用画笔、绘图软件去画图有很大不同,他并没有动笔去画具体的线条,也没有百分之百地告知该绘画软件应该如何去画具体的线条和色彩。但是,李某通过提示词对人物及其呈现方式等画面元素进行了设计,对于画面布局构图等通过参数进行了设置,体现了原告的个性化表达,因此涉案图片具备“独创性”要件。法院还认为,涉案图片符合作品的定义,属于美术作品,应该受到著作权法保护。而涉案图片基于李某的智力投入产生,因此李某是涉案图片的作者,享有涉案图片的著作权。被告去除水印的行为侵害了原告的署名权,应当承担侵权责任。双方均未上诉。判决作出后,多国媒体纷纷跟进报道,判决要旨被译作多种文字传播。
监管到了哪一步
生成式人工智能还带来个人信息泄露等负面影响和挑战。2023年,不少人工智能写真程序在朋友圈迅速走红。用户在平台上传数张照片就能拥有属于自己的人工智能写真图片。中国企业评价协会合规专业委员会副主任汪承昊称,用户在使用此类人工智能服务时,会上传大量的个人信息、敏感信息,一旦泄露,不仅会侵犯个人隐私信息,还会导致模型服务机制受到质疑。对此,企业要构建良性的大模型服务生态,采取有效的管控措施提前布局数据合规。
中国在生成式人工智能领域起步较晚,目前还没有大范围商用,大部分企业尚处于探索自身商业模式的早期阶段,但国家已经在监管方面进行了布局。2023年4月,国家网信办就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见。7月,国家网信办联合国家发改委、教育部、科技部、工信部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》 (下称《办法》),自2023年8月15日起施行。这是我国首份针对生成式人工智能的规范性监管文件,是人工智能领域监管的重要实践,明确了发展和安全并重、促进创新和依法治理相结合的原则。
汪承昊认为,《办法》释放了一个积极信号——确定了生成式人工智能服务的合法性,但国内企业要想在人工智能领域取得优势地位,首先还要保证自己“可靠和可控”,包括提供的产品或服务要遵守法律法规,尊重社会公德、公序良俗;用于生成式人工智能产品的预训练、优化训练数据需要具备合规性基础;在提供服务的过程中,对用户的输入信息和使用记录承担保护义务;提供者应当建立用户投诉接收处理机制等。
目前,中国对这个领域的监管步伐快、站位高,形成了系统化的专业认知。汪承昊称,《办法》有很多亮点,例如提到在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,要采取有效措施防止产生民族、信仰、国别、地域、性别等歧视,体现了权利保护的价值立场;当有关部门对生成式人工智能服务开展监督检查时,提供者应当依法予以配合,按要求对训练数据来源、规模、算法机制等进行说明,体现了服务提供者的配合监管义务。
放眼国外,2019年以来,欧盟一直对人工智能监管领域的立法进行布局。2023年12月8日,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议,使法案成为全球第一部人工智能领域的全面监管法规。
但周翔认为,对高科技行业进行监管,应该商业先行,“不能因为担心风险而限制人工智能的发展,而是要在其成熟的商业模式中去寻求监管方案”。他目前正带领团队做一项测试,基于监管条款和案例预先设计一个庞大的问题库,通过提问的方式故意引诱生成式人工智能系统传播犯罪方法,测试这些平台是否回答和如何回答,最后得到一份内部的可信的测试报告。“对于企业来说,如果委托第三方做这种测试,可以构建一个模型去屏蔽这些不合规的回答,既展现企业自我合规意识,也是一种免责方式。”
编审|渠 洋
责编|惠宁宁
校对|张波张雪慧
来源|《法人》杂志2024年02月总第240期