当前位置:首页|资讯|GPT-4|生成式AI|法律

强到离谱的GPT-4为什么说要“慢一点”?

作者:互联网法律评论发布时间:2023-03-17

当OpenAI在2022年11月下旬低调推出ChatGPT时,这家总部位于旧金山的非盈利公司对于自己的产品几乎没有抱什么期望。

研究团队承认他们在这些模型上花了太多时间,但同时认为ChatGPT内部的大多数技术都不是新的。他们现在仍然困惑于:究竟是什么推动了ChatGPT病毒式传播?

OpenAI研究ChatGPT的科学家利亚姆•费杜斯(Liam Fedus)表示:“我们不想把它夸大为一个重大的根本性进步。

虽然OpenAI内部没有人对其巨大成功做好准备,但他们现在已经努力追赶,暨开源之后,又在3月14日推出了GPT-4,脱胎为一个真正为盈利而做好准备的人工智能公司。

那么GPT-4究竟有什么不一样呢?

一、精心挑选的合作伙伴与应用场景

(一)GPT-4理解图像的能力惊人——为视力障碍者服务的场景

这个多功能机器学习系统最显著的变化是它是“多模态”。ChatGPT 和 GPT-3 仅限于文本,但GPT-4 可以“理解”图像——它不仅能够处理这些图像以查找相关信息,更重要的是,它在客观描述中能够某种程度上加入些“情绪”价值。例如,理解下图为什么好笑。

图片来源:Reddit

这不但赋予GPT-4更“类人”的属性,而且OpenAI与 Be My Eyes 的合作伙伴关系展示了更有意义应用场景。

Be My Eyes 是一款免费的移动应用程序。在与OpenAI合作之前,为了使让盲人和低视力人群更容易接触到这个世界,他们在全球招募了600多万志愿者使用180种语言来帮助这个群体。然而,OpenAI的GPT-4加入后就成为一名Be My Eyes全年无休的虚拟志愿者,用户可以随时通过该应用程序将图像发送给这位“志愿者”,该志愿者将为用户提供即时识别、解释和对话式视觉帮助。

在 Be My Eyes 的视频中,GPT-4 帮助视力障碍者挑选裙子、识别植物、解释如何使用健身房的某台机器、翻译标签并提供食谱、阅读地图等等,表明它确实了解图像中的内容,而且确实成为了“有价值的帮助者”

据悉,Be My Eyes目前是唯一一个可以使用 GPT-4 的图像分析功能的合作伙伴,这也是OpenAI“精心评估和挑选”的结果,这一“公益性质”的项目将为其提供极大声誉和更小的风险。

这印证了OpenAI 的联合创始人兼总裁 Greg Brockman所说的话,无论何时进行更广泛的推广,都将是“缓慢而有意的(intentional)”

图片来源:Be My Eyes官方视频截图“露西·爱德华兹介绍虚拟志愿者”

(二)GPT-4有更长的记忆力——摩根士丹利的商业应用

大型语言模型一般都需要在数以百万计的网页、书籍和其他文本数据上进行了训练,但当它们真正与用户进行对话时,它们可以“记住”多少是有限的。GPT-3.5 和 ChatGPT 的限制是大约 8,000 个单词,或大约四到五页的书。

GPT-4 的最大输入量大约 64,000 个单词或 50 页的文字,足以写成一出完整的戏剧或短篇小说,这就允许用户使用长格式内容创建、扩展对话以及文档搜索和分析等用例。在GPT -4的论文中的举例来看,只需要丢给它一个链接,就可以帮你总结出其中的内容。

 图片来源:OpenAI发布的关于GPT-4的论文

这一功能的提升,就使GPT-4为更复杂、更商业化的场景提供了巨大机会。

摩根士丹利是全球最有影响力的金融机构之一,其成功离不开对大量分析师评论、最新的市场研究、投资策略的知识管理。目前摩根士丹利正在与Open AI合作,已经在开发一种“面向内部的服务”,利用OpenAI 技术和摩根士丹利的智力资本,在几秒钟内将相关内容和见解交付给财务顾问,以提高工作效率和规模

摩根士丹利表示,它是目前唯一提前获得OpenAI 新产品的财富管理领域的战略合作伙伴。

可以看出,在选择合作伙伴的方面,OpenAI异常小心,也非常巧妙。在某种程度上,这也是人类在尝试控制人工智能发挥能力的边界,更是试图在控制其能力的发挥和演进。因为,创造这一AI产品的人,都不知道它究竟能做出怎样的事情,将产生怎样的后果。

这还证实了总裁 Greg Brockman所说的这句话的确实性和必要性:“我们花了很多时间试图了解 GPT-4 的能力。在世界上传播它是我们学习的方式。我们不断进行更新,包括一系列改进,以便该模型更具可扩展性,以适应您希望它处于的任何个性或模式。”

二、让人工智能“更靠谱”

(一)GPT-4更难被欺骗

玩过ChatGPT的人都了解,它虽然很棒,但也很容易“误入歧途”。比如当你让它回答“坏的人工智能”会做什么的时候,或者假设它写一部“人工智能摧毁人类世界的小说”,它就会告诉你一整套危险的操作。

然而,OpenAI 的研究人员正在使用一种称为“对抗性训练”的技术来阻止用户欺骗它做出不良行为(即通常说的“越狱”)。这项工作让多个聊天机器人相互对抗:一个聊天机器人扮演对手,通过生成文本来攻击另一个聊天机器人,迫使它打破通常的约束,产生不必要的响应。成功的攻击会被添加到ChatGPT的训练数据中,希望它能学会忽略这些攻击。

在最近一次采访中,Brockman强调GPT-4 已经接受过6个月的大量恶意提示的训练——安全培训,并且在内部测试中,GPT-4 响应 OpenAI 不允许的内容请求的可能性比 GPT-3.5 低 82%,编造内容的可能性低 60%。

然而,该模型发布数小时后,以色列网络安全初创公司 Adversa AI 发布了一篇博文,展示了绕过 OpenAI 的内容过滤器并让 GPT-4 生成网络钓鱼电子邮件、对同性恋者的攻击性描述和其他令人反感的文本的方法。除了 Adversa AI 测试之外,微软的 GPT-4 聊天机器人Bing Chat已被证明极易越狱。使用精心定制的输入,用户已经能够让机器人威胁伤害、捍卫大屠杀和发布阴谋论

(二)签署负责任地创建、发布和共享生成式 AI的新指南(PAI)

OpenAI 并不否认 GPT-4存在不足。此外,试图控制与生成式人工智能相关的潜在危害的监管仍然落后。大部分人工智能公司仍旧依赖内部或行业的“承诺”来实施自治。OpenAI在2023年2月,就签署了一套新的指南,承诺负责任地创建和共享人工智能生成的内容。

这些建议呼吁 OpenAI 等技术的构建者,更加透明地说明该技术能做什么和不能做什么,并公开人们何时可能会这样做与此类内容进行交互。该指南包括了这些公司希望防止的危害列表,例如欺诈、骚扰和虚假信息。

指南中最重要的元素之一是公司达成协议,包括并研究在用户与 AI 生成的事物交互时告知用户的方法。这可能包括水印或免责声明,或AI 模型训练数据或元数据中的可追溯元素。

图片来源:PAI网站

这些自愿建议是由 AI 研究非营利组织 Partnership on AI (PAI) 与 50 多个组织协商后提出的。PAI 的合作伙伴包括大型科技公司以及学术、民间社会和媒体组织。除了OpenAI之外,包括TikTok、Adobe、BBC 和约会应用程序 Bumble 在内的 10 家公司也已经承诺遵守该指南。

三、时刻警惕法律风险

OpenAI 称,GPT-4 比 ChatGPT 表现更好。ChatGPT 基于该公司之前的技术GPT-3 的一个版本,因为它是一个更大的模型,有更多的参数(神经网络中的值在训练过程中得到调整)。这遵循了该公司在其之前的模型中发现的一个重要趋势。

但 OpenAI 选择不透露 GPT-4 有多大——在长达98页的介绍 GPT-4 的论文中,OpenAI自豪地宣称他们“没有”披露他们训练集的内容。与之前的版本不同,该公司没有透露 GPT-4 的构建方式——数据、计算能力或训练技术。甚至在采访时,当有人问起这些训练数据的具体细节时,总裁Brockman很敏感地反对这样的问题。

这很有可能是因为,OpenAI因训练数据的问题而陷入的法律纠纷。问题主要是,生成式人工智能倾向于从用于训练它的数据中复制图像、文本等——包括受版权保护的内容,因而在多起诉讼中被控违反版权法。

在美国的法庭上,争议点往往在于两个方面:(1)如何确定哪些图像用于训练人工智能系统;(2)如果使用了某些版权保护的数据,是否属于“合理使用”?《彭博法律》(Bloomberg Law)最近发布的一篇文章断言,合理使用辩护的成功将取决于人工智能生成的作品是否被认为是变革性的——换句话说,它们是否以与原作明显不同的方式使用受版权保护的作品。

总之,法律对于人工智能的商业化发展已经产生了一些影响。一些图像托管平台因为担心法律风险,已经禁止人工智能生成的内容。因为有法律专家警告说,如果公司无意中将这些工具生成的受版权保护的内容纳入他们销售的任何产品中,则生成式人工智能工具可能会使公司面临风险。

四、总结:人工智能发展仍需一些“自制”

目前,对于GPT-4大加赞誉和充满期待的文章铺天盖地。围绕大型语言模型更掀起了一场淘金热,世界各地的公司和投资者都在参与其中,包括在2023年3月16日刚刚开了新闻发布会的百度“文心一言”。

鉴于GPT-4强大的语言能力,在理论上它的应用范围几乎是没有国界的。GPT-4 通过证明它能够在 26 种语言中高精度地回答数千个多项选择题。而这种语言优势,在未来的迭代中会有更大的乘数效应。中文的人工智能在能力上是否能够在短时间追赶并超越,还是个未知数。

此外,有些AI犯错的细节容易被忽略。例如,与GPT-3一样,GPT-4 虽然有时展示了强大的推理能力,但也会出错,该模型会在“幻觉”种混淆事实,并犯了基本的推理错误。在 OpenAI自己博客上的一个示例中,GPT-4 将猫王描述为“演员之子”,但实际上,猫王的父母都不是演员。

这个犯错的信息,被很多人忽略了,也很少被描述GPT-4的文章所提及。毕竟猫王的父母是否是演员,在绝大多数情况下都不是个重要的问题。但请设想,如果某些公司使用GPT-4应用在商业或重大决策中出现了错误,例如决定某些人是否拥有购房的资质,或者某个项目是否可以被投资,这一个小小错误就会无辜地打击到某些人。

这是否杞人忧天,还有待观察。但笔者很欣赏OpenAI在开发、宣传和商业化过程中一些看似“自缚手脚”的操作,这是一种难得的“自制”

多年前,世界上最著名的人工智能专家之一Andrew Ng曾说:“担心人工智能变坏有点像担心火星上的人口过剩。”

然而另一位智者回应他说:“在金丝雀开始死亡之前,他是完全正确的。”

作者:张颖《互联网法律评论》主编

【免责声明】本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。

本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。 

本文来自微信公众号“Internet Law Review”(ID:Internet-law-review),作者:张颖,36氪经授权发布。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1