当前位置:首页|资讯|ChatGPT|文心一言|百度|AIGC

全球限制快速蔓延,ChatGPT-4能否掀翻安全与版权两座大山?

作者:数智锐角发布时间:2023-03-14

作者∠不二

发布∠数智锐角

导读

尽管尚未官宣,但ChatGPT-4已然备受各方期待。另外,百度文心一言也将于3月16日重磅发布。作为中美两国的AIGC代表性产品,两者或将在市场上针锋相对,究竟谁能更胜一筹?

这不,百度的文心一言尚未发布,ChatGPT-4就要来了

3 月 9 日,微软德国 CTO Andreas Braun 在一场名为 “AI in Focus - Digital Kickoff” 的活动中表示,GPT-4 将在下周发布,将提供多模态模型。消息一出,舆论哗然,有兴奋,有惊艳,当然也有质疑。

更为大事不妙的是,尽管ChatGPT似乎越来越强大,但越来越多的企业开始限制ChatGPT……

假消息?ChatGPT-4要来了

尽管ChatGPT已经影响全球,但ChatGPT-4这么快就真的要来了吗?网友对此很是质疑。

据量子位报道,网友之所以认为ChatGPT-4即将发布为假消息,是因为本该属于OpenAI的进展,竟是微软宣布的发布时间,而且也还不是官方,而是在一个地方论坛上,由微软德国CTO随口说出。

据了解,微软德国CTO Andreas Braun当时谈到了LLM的颠覆性影响,是“游戏规则的改变者”——因为他们教会机器理解自然语言,然后从统计学角度理解以往只有人类才能读懂的东西。目前这一技术,已经发展到基本上“适用于所有的语言”。接着他表示:“我们将在下周推出GPT-4,会是多模态模型。”

事实上,我们今天所见到的免费聊天机器人应用ChatGPT,代号“Chat with GPT3.5”。尽管有爆料称,GPT-4将有100万亿个参数。但OpenAI CEO Sam Altman 对此回应表示,“这完全是胡说”。这也暗示了即将到来的 GPT-4 不会一味地扩大参数量,而可能向其他方向寻求提升。

自 3 月初发布 Kosmos-1 以来,微软正在与 OpenAI 微调多模态这一事实应该不再是一个秘密。Kosmos-1可以自然地处理感知密集型任务和自然语言任务,比如视觉对话、视觉解释、图像字幕、简单数学方程式、OCR等。

不仅如此,微软于 3 月 8 日提出了 Visual ChatGPT,其包含不同的视觉基础模型,可以使用户通过语言、图像,甚至复杂的视觉编辑指令与 ChatGPT 互动,并可以提供反馈并要求纠正结果。

种种线索表明,我们即将迎来ChatGPT-4,它的强大更超以往。然而,尽管ChatGPT-4可能征服更大的世界,但越来越多的企业已然开始限制使用ChatGPT。

警惕信息泄露,全球开始限制ChatGPT

据日媒报道,由于担心信息泄露和其他问题, 软银、日立等日本公司已开始限制ChatGPT等交互式人工智能服务在商业运作中的使用。

据悉,早在上月,软银就针对使用ChatGPT和其他商业应用警告员工称:“不要输入公司身份信息或机密数据。”软银计划制定规则,规定哪些业务可以使用该技术,哪些应用可以被使用。这些规则正随着ChatGPT的关注度越来越高被反复强调。

除软银外,日立将考虑制定新的道德规则,以规范交互式人工智能的使用以及数据是否被正确使用。

除此之外,包括日本瑞穗金融集团、三菱日联金融集团和三井住友银行在内的日本企业已禁止在公司运营中使用ChatGPT和其他服务。瑞穗的限制措施会阻止员工从工作终端访问该网站,目的是“防止因员工不当使用导致客户和金融交易等重要信息泄露”。IT公司NEC也禁止员工使用ChatGPT。

不仅仅是日本,就连大名鼎鼎的苹果也开始拒绝ChatGPT。近期,苹果公司出于担忧AI会生成不适合青少年的内容,最新阻止了一款电子邮件应用程序的更新,这款应用程序名为BlueMail,该应用程序试图增加AI功能,使用ChatGPT来帮助用户自动撰写邮件。

而在更早些时候,华尔街投行摩根大通(JP Morgan)就已限制员工使用ChatGPT,认为是出于合规方面考虑,需要对第三方软件进行限制,成为第一家在工作场所限制使用ChatGPT的华尔街投行。而这类限制此前就普遍存在于金融机构。高盛、花旗、德意志银行等投行,近期也有消息称公司禁止使用。咨询公司埃森哲也出于相同的原因,警告员工不要将客户信息暴露给ChatGPT。

事实上,不只是这些金融企业,就连微软和亚马逊也在防备员工在使用ChatGPT过程中泄密,禁止他们向ChatGPT分享敏感数据。

综合来看,各大企业之所以面对ChatGPT如临大敌,重点在于信息泄露和合规风险。面对ChatGPT来势汹汹,积极应对成为了题中应有之义。然而,《纽约时报》近日发表文章称,美国政府似乎没有跟上人工智能技术监管的步伐,这可能会导致可怕的后果。

“由于未能建立相关体系,政策制定者正在为人工智能的恶意竞争创造条件。”政策研究机构艾达·洛芙莱斯研究所(Ada Lovelace Institute)所长卡莉·金德(Carly Kind)表示。长期以来,包括马斯克在内的诸多大佬均发布警告称,人工智能正在变得危险。然而,这些呼吁和法案均无疾而终。

相较美国,欧盟的监管态度更积极。目前,欧盟已经在准备通过一项法案监管人工智能,监管内容包括面部识别和关键公共基础设施。该立法将要求人工智能公司对其技术进行风险评估,违反者可能会被罚款,最高可达其全球收入的6%。欧盟三大机构预计最早将于4月开始的三方谈判中敲定人工智能法案的最终细节。

尽管各国政府可以通过立法尽快阻止部分监管风险,但ChatGPT可能引发的“灾难”远不止如此。例如,在作品版权、数据源版权等方面,ChatGPT均有可能侵权。

仍存版权难题,ChatGPT任重道远

OpenAI在其官网描述,其对ChatGPT训练主要来自两个方面:一方面是链接大量的语料库来训练模型,另一方面是基于人类反馈的强化学习。

通俗地讲,在第一个过程中,AI的学习过程类似于“读书”,开发人员向AI的学习库中投放素材,让其自主阅读学习不断成长。第二个过程则类似“沟通”,即AI在与人类进行交流的过程中根据对方的反馈进行学习,从而让自己的回答更加符合人类“预期”。

在这种情况下,利用现有材料进行AI训练,究竟是“合理使用”还是“侵犯版权”?

在链接语料库进行训练的过程中,ChatGPT官方称自己对其训练所使用的材料来自开源库,但仍有分析人士认为,在巨量的文本挖掘和使用过程中,难免有版权作品被“误伤”进而构成侵权。

2022年底,就有其他品类的生成式AI引起过相关争议。以AI绘画工具Mimic为例,用户只需要输入画面的描述信息, AI即可生成对应的图像,甚至可以模仿某位指定画师的风格进行创作。在音乐创作领域,对AI声音合成引擎提供足够的特定人声样本,AI就可以模仿他人的音色而歌唱。

有专家表示,从风险角度来说,AI学习的过程确实存在侵犯知识产权的可能性,但落实到诉讼案件中,则需要根据AI训练素材的类型、素材表现方式、AI软件使用场景等具体情况来判断是否应承担责任、如何承担责任。

不只是数据源存在版权问题,对于ChatGPT生成的作品,如何判断“独创性”以及ChatGPT生成的内容是否可能构成法律规定的“智力成果”,这依然是重大难点。

当前,大部分学者认为如果满足现行法规定的条件,则可以视为作品;但也有少部分学者认为,著作权法是为人类制定的法律,主体和客体应该保持统一,因此不能称之为作品。

一般而言,法律主体的基本逻辑讲究“权利-义务-责任”一体,虽然ChatGPT一类的人工智能模型不能成为法律适格的主体,但是其开发者等主体可以,无论其背后是自然人还是法人。因此,不应当因为主体的困扰而简单排除ChatGPT生成内容的“可作品性”。

再者,既然ChatGPT生成内容具备“可作品性”,有可能享有著作权,那么,其背后的设计人、开发者或者投资方等享有控制权的主体均可能成为著作权人,同时也应当就所生成的内容负责。

另外,在ChatGPT“创作”的过程中,千千万万的用户通过提问的方式引导回答,那么用户是否也付出了劳动,也参与了“创作”,那么权责又该如何分配?

专家表示,“OpenAI——ChatGPT——User”三者之间的关系可以理解为一种“委托创作”,即用户委托OpenAI通过使用其享有的ChatGPT来进行创作,那么著作权的归属即可以根据著作权法第十九条“受委托创作的作品,著作权的归属由委托人和受托人通过合同约定”的规定来认定。

结语

由此可见,尽管ChatGPT已经在全世界引发新一轮AI热潮,但现行机制下的各类风险日益突出,这都为ChatGPT的未来发展带来极大不确定性。尽管如此,ChatGPT-4仍然备受各方期待。

另外,百度文心一言也将于3月16日重磅发布。作为中美两国的AIGC代表性产品,两者或将在市场上针锋相对,究竟谁能更胜一筹,我们拭目以待。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1