当前位置:首页|资讯|ChatGPT|人工智能

调查称59%美国互联网用户已在使用ChatGPT 大型科技公司希望AI监管

作者:金融虎发布时间:2023-06-28

原标题:调查称59%美国互联网用户已在使用ChatGPT 大型科技公司希望AI监管

来源:金融虎网 金泽/译

显然,生成式人工智能并不是空谈。美国银行全球研究(BofA Global Research)的一项新调查发现,超过一半的美国互联网用户使用ChatGPT,而每10名受访者中就有4人表示,他们现在每周使用OpenAI的聊天机器人或谷歌和微软提供的搜索聊天机器人几次。

根据调查,OpenAI的ChatGPT是用户被问及的三种人工智能聊天机器人中最受欢迎的,59%的受访者使用该工具。美国银行的数据显示,51%的受访互联网用户使用微软的必应,31%的用户使用谷歌的必应。

这项调查对1100名年龄在18岁至55岁之间的美国互联网用户进行了调查,但美国银行没有提供有关调查方法的太多细节,只是指出这是由SurveyMonkey进行的。美国银行表示,该调查“偏向于重度互联网用户”,但没有具体说明如何定义重度互联网用户。

尽管如此,这些结果还是提供了一个早期的快照,说明消费者接受新一代生成式人工智能工具的速度有多快。搜索信息和“产生想法”是受访者使用这些工具的两个最常见的原因。

生成式人工智能技术使用所谓的大型语言模型(llm)以对话的方式回答问题。ChatGPT和必应使用相同的名为GPT-4的大型语言模型。在很多方面,这两者被认为是相同的,但微软的必应(Bing)可以从互联网上提取信息,以编写对查询的书面答案,而ChatGPT在2021年9月之前仅限于训练过的信息。

美国银行在报告中表示:“ChatGPT显然吸引了网络上的兴趣和活动。”更重要的是,一半的受访者表示他们会付费订阅ChatGPT。

对于长期以来在搜索市场中无足轻重的微软来说,这项调查也带来了好消息。根据调查,30%的互联网用户每天都在使用微软的必应搜索聊天机器人,40%的人每周使用必应几次。

人们可能会想到的一个问题是,生成式人工智能是否已经开始颠覆谷歌作为搜索引擎的长期统治地位。

根据分析师的说法,谷歌很有可能从生成式人工智能浪潮中受益,45%的人表示,由于整合了像谷歌的Bard这样的对话式人工智能工具,他们将更多地使用谷歌搜索。美国银行(Bank of America)分析师表示:“我们认为,LLM的使用可以逐步扩展到核心搜索领域。”美国银行对谷歌股票的评级为买入。

大型科技公司希望监管人工智能

OpenAI首席执行官萨姆·奥特曼(Sam Altman)上个月警告国会人工智能带来的危险,这让所有人都感到惊讶。突然之间,科技公司似乎从社交媒体的问题中吸取了教训,并希望以不同的方式推出人工智能。更引人注目的是:他们需要政客的帮助。

但一周后,奥特曼在伦敦向记者讲述了一个不同的故事。ChatGPT创始人的负责人表示,他将努力遵守欧盟的规定,但如果事实证明这太难,他的公司将在欧盟“停止运营”。这一言论促使欧盟内部市场专员蒂埃里·布雷顿(Thierry Breton)指责奥特曼“企图勒索”。第二天,奥特曼澄清了他的评论,当首席执行官和专员上周亲自会面时,他们同意他们在监管方面是一致的。

人工智能的发展日新月异。仅在今年头四个月,该行业就筹集了超过10亿美元的风险投资资金,从牙刷到无人机,该系统已经在各种产品中发挥作用。事态发展的程度和速度将在很大程度上取决于政府是否介入。

大型科技公司表示,它们希望得到监管。现实情况要复杂得多。在美国,谷歌(Google)、微软(Microsoft)、IBM和OpenAI已要求立法者监管人工智能。与此同时,在欧盟,政客们最近投票通过了一项立法草案,该草案将为生成式人工智能设置护栏,而这些公司的游说人士正在反对一些措施,他们认为这些措施将不必要地限制科技领域最热门的新领域。

在大西洋两岸,管理科技的规则差别很大。欧盟制定全面的数据保护法已有五年多了,目前正在实施严格的竞争和内容节制指导方针。然而,在美国,20多年来几乎没有任何监管。参与欧盟即将出台的《人工智能法案》(AI Act)的多名官员表示,呼吁在国内进行监管一直是大型科技公司创造良好公关的一种方式,因为它将把欧洲的立法引向更有利的方向。

科技公司知道,它们不能忽视欧盟,尤其是在欧盟的社交媒体和数据保护规则已成为全球标准的情况下。欧盟(European Union)的《人工智能法案》(AI Act)可能在未来两到三年内实施,这将是西方政府监管人工智能的首次尝试,该法案将受到严厉惩罚。如果公司违反该法案,欧盟可能会对其处以相当于公司年营业额6%的罚款,并禁止其产品在欧盟运营。据估计,欧盟占全球人工智能市场的20%至25%,预计10年内全球人工智能市场的价值将超过1.3万亿美元。

这使该行业处于一个微妙的境地。智库DataEthics的联合创始人格里·哈塞尔巴尔奇(Gry Hasselbalch)表示,如果该法案的某个版本成为法律,那么最大的人工智能提供商“将需要从根本上改变它们的透明度,以及它们处理风险和部署模型的方式。”

冒险生意

与科技相比,立法行动缓慢。2021年,欧盟委员会发布了其人工智能法案的初稿,启动了一个涉及三个政府机构、27个国家、数十名游说者和一轮又一轮谈判的过程,谈判可能会在今年晚些时候结束。该提案采取了一种“基于风险”的方法,禁止在极端情况下使用人工智能。

草案的大部分内容集中在针对“高风险”案件的规定上。例如,那些发布人工智能系统来预测犯罪或筛选工作申请的公司,将被限制只能使用高质量的数据,并需要进行风险评估。除此之外,草案还规定了深度造假和聊天机器人的透明度:当人们与人工智能系统交谈时,必须告知他们,生成或操纵的内容需要被标记。文章没有提到生成式人工智能,这是一种机器学习算法的总称,能够创建新的图像、视频、文本和代码,但尚未爆发。

大型科技公司对这种做法表示欢迎。他们还试图软化棱角。虽然草案表示,开发人员将对其系统的使用方式负责,但企业及其行业团体辩称,用户也应承担责任。微软在一份立场文件中辩称,由于生成式人工智能的潜力使公司不可能“预测部署场景的全部范围及其相关风险”,因此“关注部署者对人工智能系统的实际使用”尤为重要。在闭门会议上,科技公司的高管们进一步强调,人工智能本身只是一种反映用户意图的工具。

更重要的是,IBM希望确保“通用人工智能”——一个更广泛的类别,包括图像和语音识别、音频和视频生成、模式检测、问答和翻译——被排除在监管之外,或者在微软的情况下,根据提交给立法者的修正案草案,将由客户来处理监管检查。

许多公司都坚持这一立场。IBM欧盟事务主管让-马克•勒克莱尔在一份声明中写道,我们不是“试图把技术作为一个整体来控制”,而是“敦促继续采取基于风险的方法”。

一些最强大的人工智能系统可以在很大程度上避免监管的想法,在行业观察人士中引起了警觉。由埃隆·马斯克(Elon Musk)部分资助的非营利组织Future of Life当时写道,“未来的人工智能系统将比GPT-3更通用”,需要明确监管。“生命未来”的主席马克斯·泰格马克写道,与其“根据有限的既定目的对它们进行分类”,不如“对它们的所有预期用途(以及可预见的滥用)进行全面的风险评估”。

看起来大型科技公司似乎会得到它想要的东西——一些国家甚至一度考虑将通用人工智能完全排除在文本之外——直到2022年春天,政界人士开始担心他们低估了人工智能的风险。主要是在法国的敦促下,欧盟成员国开始考虑对所有通用人工智能进行监管,无论用例如何。

这是之前一直置身于欧洲立法程序之外的OpenAI决定介入的时刻。2022年6月,该公司的公共政策主管在布鲁塞尔会见了官员。不久之后,该公司向委员会和一些国家代表发送了一份立场文件,《时代》杂志首先报道了这一消息,称他们“担心”一些提议“可能会无意中导致我们所有的通用人工智能系统被默认捕获”。

然而,欧盟国家确实采取了行动,要求所有通用人工智能都必须遵守一些高风险要求,比如风险评估,具体细节将在稍后进行整理。包含这一语言的立法草案在去年12月获得通过——就在ChatGPT发布一周后。

欧洲议会成员被聊天机器人的能力和前所未有的受欢迎程度所震惊,在他们的下一个草案中采取了更加强硬的态度。两周前通过的最新版本规定,OpenAI等“基础模型”的开发者必须总结用于训练大型语言模型的受版权保护的材料,评估该系统可能对民主和环境构成的风险,并设计出无法产生非法内容的产品。

“最终,我们对生成式人工智能模型的要求是一点透明度,”《人工智能法案》的两位主要作者之一Dragos Tudorache解释说。如果“将算法暴露给不好的东西存在危险,那么开发人员就必须努力为此提供保护措施。”

虽然Meta、苹果和亚马逊基本上保持沉默,但其他主要开发商正在反击。谷歌在对议员的评论中表示,议会的控制措施将有效地将通用人工智能视为高风险,而实际上它并非高风险。公司还抗议说,新规定可能会干扰现有规定,有几家公司表示,他们已经实施了自己的控制措施。行业组织CCIA的Boniface de Champris表示:“仅仅是声誉受损的可能性就足以激励企业大规模投资于用户的安全。”

大型语言

随着公众实时目睹生成式人工智能的缺陷,科技公司在要求监管方面变得越来越直言不讳——据官员们称,它们也更愿意谈判。5月底,在奥特曼和谷歌的桑达尔·皮查伊开始与欧盟监管机构会面后,竞争主管玛格丽特·维斯塔格承认,大型科技公司正在转向透明度和风险要求。

Tudorache表示,这种方法“非常务实”,并补充说,反对监管的开发商将“站在历史的错误一端,(并将)拿自己的商业模式冒险。”

一些批评人士还表示,尽早遵守监管规定可能是大公司获得市场主导地位的一种方式。“如果政府现在介入,”柏林赫蒂学院(Hertie School)的伦理与技术教授乔安娜·布莱森(Joanna Bryson)解释说,“那么他们就可以巩固自己的领先地位,并找出谁在接近他们。”

如果你问科技公司,他们会告诉你,他们并不反对监管——他们只是不喜欢他们提出的一些建议。“我们从一开始就认为,微软将在技术堆栈的几个层面受到监管;我们不是在逃避监管,”一位微软发言人写道,表达了许多开发者的观点。该公司还表示支持成立一个新的人工智能监管机构,以确保安全标准并颁发许可证。

与此同时,科技公司和贸易团体继续反对议会和成员国对《人工智能法案》的修改。开发商一直在施压,要求提供更多有关监管在实践中会是什么样子的细节;以及OpenAI将如何评估ChatGPT对民主和环境的影响。在某些情况下,他们接受某些参数,同时挑战其他参数。

例如,根据彭博社看到的评论,OpenAI在4月份写信给立法者,表示支持监控和测试框架,以及一套通用人工智能的新标准。谷歌(Google)最近表示支持美国的“辐条和枢纽”(spoke-and-hub)监管模式,要求将监管分散到许多不同的机构,而不是单一的中央机构。谷歌支持风险评估,但继续支持基于风险的方法。谷歌没有回应置评请求。

然而,随着人工智能的赚钱潜力越来越清晰地显现出来,一些政界人士开始接受业界的观点。法国前数字部长、现为科技顾问的塞德里克•奥(Cedric O)上月警告称,监管过度可能会损害欧洲的竞争力。他得到了法国总统埃马纽埃尔·马克龙的支持,马克龙在议会投票后不久在法国科技会议上表示,欧盟需要注意不要过度监管人工智能。

在对人工智能法案进行最终投票之前,目前还不清楚欧盟将在多大程度上决定监管这项技术。但即使谈判代表尽快采取行动,企业也要到2025年左右才需要遵守该法案。与此同时,该行业正在向前发展。


Copyright © 2025 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1