参考消息网4月23日报道(文/张百慧 王栋栋 孙青昊)
当美国开放人工智能研究中心(OpenAI)发布其人工智能(AI)机器人ChatGPT之后,这家人工智能公司的主要投资方之一——微软公司的市值飙升了1150亿美元,涨幅约6.5%。
法国《世界报》网站近日以《“AI正在经历其‘iPhone时刻’并将像2007年的苹果公司那样颠覆社会”》为题发表文章说,华尔街认识到,一场革命正在上演:AI正在经历其“iPhone时刻”,并将像2007年的苹果公司那样颠覆社会。
事实上,几个月以来,华尔街已经不愿再听到人们谈论大型科技公司时的论调:亚马逊、特斯拉、“字母表”、微软、元宇宙平台公司……它们的好日子过去了。趋势发生了反转,AI引擎未来需要数十亿美元的投资,只有这些巨头有条件开发它们。
谷歌前老板埃里克·施密特、美国前国务卿基辛格和美国麻省理工学院计算机学院院长丹尼尔·胡滕洛赫尔在《华尔街日报》发表的论坛文章中也解释了这一点。他们认为,市场应当由几种大型AI模型构成,其价值超过10亿美元,受到成千上万台计算机操控,公司可以推出订阅服务。从逻辑上讲,“这些模型的设计与管理将高度集中”。
施密特、基辛格和胡滕洛赫尔没有嘲笑ChatGPT因“年少”而犯下的个别错误,而是提出了几个真正的问题。他们描述称,这是自印刷术发明以来的空前“哲学与实践挑战”和“智能革命”。印刷术催生了由可复制经验的共享构成的现代科学方法。人工智能则不然,它基于地球上积攒的未经核实的数十亿数据,得出没有来源的结果。作者写道:“启蒙运动时期的科学是在积累确定性。新的人工智能产出的则是累积的模糊性。”
AI的回答源自何处?没有人知道答案,但最终占据上风的正是它的回答。“模型给出表面上完美的回答,将引发对这些结果的过度信任。”作者对此表达了担忧,他们想知道:“医生将从何时开始不再喜欢质疑软件给出的答案?”
这事关整个社会。“AI将影响外交政策和安全战略。”他们断言,同时提出疑问:“我们未来是否能够学会质疑而非服从?还是说我们最终会被迫顺从?AI是否会产生恶意呢?”作者甚至担心,一种拥护AI的玄学将会崛起,它可能会控制大众。“认识世界的第三种方式或将出现,它既非人类的理智,也不是信仰。在这样一个世界中,社会将变成哪般模样?”围绕AI产生的疑问好像太多了。
而英国《新科学家》网站近日则报道说,微软旗下的源码托管服务公司(GitHub)不久前也推出了一款商业工具,可以帮助程序员利用AI编写软件。微软公司利用这款AI工具从人类那里得到文本指令,再将其解读为可以直接控制机器人的代码。在一次测试中,ChatGPT编写代码,并指挥机器臂用木块拼出微软标识。在另一次测试中,它引导一架无人机到达一个航路点,同时避开障碍物。微软公司在一篇博客文章中说,这项研究旨在“测试ChatGPT是否能够超越文本思维,以及对物理世界进行推理,帮助机器人完成任务”。
机器人通常由软件控制,这些软件由人类编写,会发出精确的指令。它们也可以由某种形式相对简单的神经网络AI来控制,这些AI可以基于大量实例来学习如何执行任务。
ChatGPT并非直接、实时地控制机器人,只是生成控制它的代码。微软公司在博客中说,ChatGPT的输出不应在未经“谨慎分析”的情况下直接应用到机器人上,但专家警告说,仅仅产生让AI控制机器的想法,也是危险的。
奥地利维也纳大学的马克·克克尔贝格说,或许需要制定法规,以确定哪些领域可以使用AI,如果出了问题又谁由该负责。
他说:“只说‘让我们把这些计算机的控制权交给AI’,这是非常危险的事情。当代人工智能的问题在于,它对用户不透明。这是一个巨大的问题。”
还有人对语言模型通过编码指令指挥机器人完成复杂任务的能力持怀疑态度。英国德蒙特福特大学的凯瑟琳·理查森说,AI语言模型令人信服,但它们的实际能力——包括控制机器人的适应性——常常被夸大了。
她说:“我认为微软以及大多数机器人设计者,过分夸大了它们能做和不能做的事情。”