进入2023年后,生成式人工智能的爆发已经使得人工智能产业翻开了新的一页,并且人工智能所描绘的新一轮技术革命的盛世图景也仿佛已经近在眼前。然而即便人工智能作为新一轮技术革命和产业变革的重要力量,如今企业界对它的态度还十分暧昧,更没有外界想象中的那么热情、反而显得有些颇为冷淡。
事实上,如今企业选择对AI保持距离的缘由很简单,毕竟企业的目的是为了挣钱,但现在围绕生成式AI的相关法律几乎还是一片混沌,甚至还没有建立起一个预期,而市场环境的不确定性无疑正是商业组织最不愿意看到的。
为了解决企业的担忧,在这一轮AI变革中已经吃到了一块大蛋糕的微软站了出来。就在近日,微软总裁Brad Smith、首席法务官Hossein Nowbar联合发布声明称,将进一步扩大对用户使用微软Copilot服务的知识产权纠纷支持承诺。
微软方面在这一声明中表示,由于作家、艺术家团体对AI大模型如何使用他们的作品提出了公开质疑,用户担忧他们使用生成式AI产生的作品可能会带来知识产权侵权的风险,因此他们更新了Copilot的版权承诺,所有用户如果因版权问题受到质疑,微软方面将承担可能会涉及的法律风险。
简单来说,如果商业客户因为使用Copilot或微软其他AIGC服务而产生的作品,被相关实体指控侵犯版权,只要客户使用了产品中内置的安全措施和内容过滤器(这项功能旨在降低AI产出潜在问题内容的可能性),微软方面将会为客户出庭辩护,并支付任何不利判决引发的赔偿或和解费用。也就是说,如果微软的商业客户因为使用Copilot产出了有法律风险的内容,那么微软将会为客户来兜底。
关于为什么要这么去做,微软方面的说法,是他们将人工智能技术整合到了Word、Excel、PowerPoint等办公软件的Microsoft 365 Copilot是一项付费功能,过去二十年里微软一直在为商业用户的版权官司进行辩护,而在AI相关的版权问题上,微软应该将这个问题视为自己的问题、而非客户的问题。
同时微软敢于为商业客户提供这一承诺,也从侧面反应出了这家公司相信自己为Copilot及其他AIGC服务设计的旨在降低输出侵权内容可能性的安全阀,是有效的。
虽然目前在全球法律界,无论大陆法系、还是海洋法系,对于AI生成内容还处于“缺位”状态,同时对AI研发人员的权利也处于“真空”地带。有的法律界人士表示,版权法案旨在保护人类创作、而非AI,因为只有人类享有独创性的表达,AI生成内容则不具备独创性,但也有人对此持相反的观点。
而AI生成内容的法律反风险,则在于AI大模型的训练方式是通过大量的语料库进行训练,是从各种类型的反馈中进行学习,并根据需要对反馈进行整理,以建立相应的模型,从而使得AI能够对人类的问题做出相应的回答和决策。从本质上来说,AI大模型其实与机器学习技术没有多少区别,两者也都是建立在海量数据的基础上。
但问题就在于,这些用于生成代码、文本、音乐和图像的训练数据,本身是由人类创建的,是微软、OpenAI、Meta等公司从互联网或其他途径得来,而且其中大部分数据本身是以某种方式受到版权保护的。这也是为什么如今OpenAI深陷训练数据侵权诉讼,微软的Copilot同样也陷入了涉嫌通过对公共代码进行“口吻改写”、以规避版权方面问题的指控。
既然训练大模型的元数据就可能存在版权风险,凭什么大模型通过杂糅产出的新数据就能洗刷这一“原罪”呢?这其实就是相当多商业客户的疑虑。虽然对于个人用户来说侵犯版权并不算大事,“版权流氓”也很少盯着个人,毕竟个人很难为其带来更大的价值。但商业客户才是“版权流氓”的首要目标,诸如视觉中国、知网等公司的目标往往也都是商业公司。
由于生成式AI本身就是以效率作为卖点,产能也比以往的其他生产力工具高得多,所以这样一来,也就是的起面临“版权流氓”攻击的可能会成倍放大。"如果Copilot等工具生成的内容受版权保护,我会被起诉吗?”,也正是基于这一担忧,商业客户自然会对生成式AI保持距离。而现在微软的承诺就是要给目标受众吃一颗定心丸,并明确“如果被版权流氓缠上了,我们来替你打官司。”
不得不说,对于生成式AI这一新生事物,微软这种赤裸裸烧钱的做法可能会相当有效。毕竟一旦没有了法律风险,那些对于提升效率有着迫切需求的企业,又怎么会不选择Copilot来作为解决方案。