当前位置:首页|资讯|马斯克|ChatGPT|华尔街|汽车

再不监管AI就完了!马斯克、中国防火墙之父:ChatGPT操纵人类观点 华尔街多家银行禁用

作者:FX168发布时间:2023-03-24

原标题:再不监管AI就完了!马斯克、中国防火墙之父:ChatGPT操纵人类观点 华尔街多家银行禁用

FX168财经报社(香港)讯 人工智能(AI)聊天机器人ChatGPT快速进化下,新版本ChatGPT-4马不停蹄地推出论文,准备向市场推出。但OpenAI联合创始人马斯克(Elon Musk),以及“中国防火墙之父”方滨兴警告市场,市场剩下非常有限的时间对AI进行监管,强调若再不采取行动,人类安全和观点可能会被操纵。

马斯克、中国防火墙之父:再不监管AI就完了

OpenAI首席执行官Sam Altman联合方滨兴和马斯克,一起提出对人工智能(AI)危险的担忧。“我们在这里必须小心,”37岁的奥特曼补充说,“我认为,人们应该为我们对此有点害怕而感到高兴。”

“我特别担心这些模型可能会被用于大规模的虚假信息,现在他们在编写计算机代码方面做得越来越好,AI可能会被用于攻击性网络攻击。”

OpenAI是ChatGPT背后的公司,该公司在不到两周前推出GPT-4。高度成熟的聊天机器人可以在SAT数学考试中取得近乎满分的成绩,并在美国律师考试中取得90%的成绩。

它有竞争对手,他基于人工智能的初创公司也在该领域取得了令人惊讶的进步。RAD AI最近推出了第一个为理解情绪而构建的人工智能营销平台,地球上一些最大的公司已经在使用它。

GenesisAI是一家建立市场的初创公司,允许任何企业将人工智能和自动化集成到他们的业务中。这意味着人工智能可能很快就会像员工本身一样成为企业不可或缺的一部分。

然而根据Altman的说法,ChatGPT-4使用演绎推理与记忆,这可能会导致不准确的结果。

“我最想提醒人们的是我们所说的幻觉问题,”奥特曼告诉美国广播公司新闻。“该模型会自信地陈述事情,就好像它们是事实一样,但它们完全是虚构的。”

Altman认为,总体上需要对AI进行监管。

方炳兴说,这样的聊天机器人会导致信息茧,“人们在从AI那里寻求各种答案时,他们的观点可能会被操纵”。

他还警告说,当人工智能进一步发展时,它可能对人类构成威胁。

“现在它只是用于类似在线聊天场景的软件,如果它被整合到机器人和汽车中,我们需要对它们可能对人类造成的潜在伤害保持警惕。”

马斯克指出,ChatGPT向人们展示AI已经变得多么先进。他表示AI已经进步了一段时间,只是没有一个使用者介面能让大多数人使用。

马斯克表示,虽然飞机、汽车、医药等领域都有监管安全标准,但现在还没有任何规则或法律来控制AI的发展,他认为需要针对AI进行规范,相比飞机、汽车和医药,AI实际上对社会构成的风险更大。

马斯克已在2018年离开OpenAI董事会,不再持有该公司的股份。

华尔街起草禁用ChatGPT

在咨询公司Gartner的调查中,近一半的人力资源负责人表示,他们正在制定有关员工使用OpenAI的AI聊天机器人ChatGPT指南。这些政策最终可能会有很大差异,一些华尔街公司,如美国银行和高盛集团,已经禁止内部员工使用ChatGPT聊天机器人,而对冲基金巨头Citadel则已经接受了它。

与此同时,在接受 Gartner调查的人力资源主管中,有1/3表示他们不打算发布任何关于员工使用ChatGPT的政策,即使专家对侵犯版权和数据隐私表示担忧,并警告用户不要使用聊天机器人的倾向,它们有时只是编造东西。

在雇主评论网站Glassdoor旗下的社交平台Fishbowl的调查中,超过40%的专业人士已经在工作中使用过ChatGPT。软件开发人员、顾问和银行家是使用该工具编写电子邮件、报告和代码的早期采用者。根据Fishbowl的调查,大多数人都变得无赖,在没有告诉老板的情况下试验该工具。

华尔街公司已经开始打击,除了美国银行和高盛,花旗集团、德意志银行和富国银行也禁止使用ChatGPT。但他们只占少数:到目前为止,在接受Gartner调查的人力资源主管中,只有3%表示,他们出于任何商业目的禁止使用ChatGPT。

其他如Citadel公司,正在采取相反的策略,为该工具协商企业范围的许可。“这一技术分支对我们的业务产生了真正的影响,”其亿万富翁创始人Ken Griffin说,“从帮助我们的开发人员编写更好的代码到在不同语言之间翻译软件,再到分析我们在日常工作中分析的各种类型的信息,无所不包。”

微软推出改进后的Office应用程序套件,将OpenAI的新GPT-4 AI模型集成到Excel、PowerPoint、Outlook和Word中。该软件目前正在20家公司进行测试,其中包括8家财富500强公司。

Gartner人力资源业务高级主管分析师Eser Rizaoglu表示,围绕生成式人工智能的使用制定规则的公司可能仍处于探索阶段。

“他们可能会质疑有多少指导,哪些角色可能会使用它或不能使用它,以及他们是否应该完全禁止它,”Rizaoglu解释说。“许多领导者正在与IT、法律、合规和审计部门合作,以了解AI的风险是什么,潜在影响是什么?然后我们如何采取相应的方法?”

同时,在接受Gartne调查的人力资源主管中,有1/3表示他们不打算就员工使用ChatGPT发布任何政策。Rizaoglu指出,这可能是因为新技术可能与他们的组织和他们所在的行业无关,或者他们认为这只是一种过去的趋势。另一组人可能认为,提供指导的责任在于法律或IT部门。

Gartner调查的其他人采取了中间路线,既不禁止也不忽视聊天机器人,但警告工作人员聊天机器人的答案不一定可靠或保密,可以分析它们是否是AI所产生。

尽管如此,考虑到准确性、数据安全和隐私方面的风险,“勤奋的事情是评估组织的潜在风险是什么,并相应地制定一些指导,以确保组织减轻以后可能发生的任何风险,”Rizaoglu最后强调。

]]>


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1