马斯克炮击OpenAI偏离了初心:从造福人类到赚钱机器的转变
近日来,“AI安全推广大使”马斯克的社交平台上颇为热闹,对于AI聊天机器人ChatGPT造成的乱象,以及ChatGPT后面AI公司OpenAI偏离初心的嘲讽,例如,今晚的最新消息推,说Bing聊天机器人,使他回忆起荒诞戏剧代表作《等待戈多》里的运气。
作为发起人之一,马斯克很不满意OpenAI目前的状况,并公开表态:“OpenAI最初是作为一家开源(这就是为什么我把它命名为「Open」AI)的非营利性公司而创建的,为了抗衡谷歌,但现在它已经成一家闭源的营利性公司,由微软有效控制......这完全不是我的本意。”
接下来,他发微博晒出了ChatGPT回复“建立非营利组织,再利用非营利组织旗下资源派生盈利公司”请求的聊天截图,借ChatGPT批评意见戳穿OpenAI嵴梁。
ChatGPT答复,假借非营利组织名义兴办营利性企业,它非常不道德,也非常违法。非营利组织在提供服务时不应该收取费用,而是通过与其他组织合作来实现自己的目标。非营利组织为慈善或者公共目的而使用资源,应当透明、负责任地发挥作用。如果非营利组织利用自己拥有的特殊地位来谋取不正当利益,就有可能使公益目标偏离公共利益而损害社会公众利益。凡滥用非营利组织特权之企图,都会造成民众对非营利组织的信任感丧失,并可能导致法律后果。
网友在马斯克推文评区热吐槽:“这正是他们对ChatGPT所做的,不是吗?”“这就是他们对我们的态度。”“疯狂的商业世界充满了假装做诚实/慈善工作的骗子。如果合法但不道德,则不应允许!”“我不认为你能在商业领域找到一个好的合作伙伴,”“我觉得你根本没有能力与我合作!”“WokeGPT”“OpenAI变成了ClosedAI”......
恰逢微软Bing聊天机器人新版本频繁侧翻,让人怀疑OpenAI偏离初心,正沸沸扬扬。
01
创立使命为全人类谋福利,
但是现在的目标改为首先要盈利
2015年12月11日,马斯克、山姆·阿尔特曼、PayPal联合创始人彼得·蒂尔、Stripe CTO雷格·布罗克曼等硅谷大佬因担心谷歌垄断AI技术,携手成立非营利组织OpenAI,并且把“开源”和(Open)核心融入到该机构名称中。
OpenAI制定了一个高尚的任务:安全实现通用人工智能(AGI),并利用这一技术为人类造福。它群星闪耀的全明星投资阵容,科技大牛荟萃的初始员工名单,很快在全球科技圈引起关注。
OpenAI前期的一些会员拍照,从左到右依次Daniela Amodei、Jack Clark、Dario Amodei、Jeff Wu(技术人员)、Greg Brockman、Alec Radford(技术语言团队负责人)、Christine Payne(技术人员)、Ilya Sutskever、Chris Berner(基础设施负责人)(图源:MIT评论)
那时OpenAI就鼓励研究人员将他们的工作成果公布于众,向全世界分享专利,承诺开源所有技术和“避免使用危害人类或过度集中权力的AI或AGI”。这也让它很快成为了许多企业争相效仿的对象。但是,随着时间的推移,或许是因为资金压力不断加大,OpenAI弱化了创始的概念,开始像DeepMind这样的对手,受商业利益制约。
转型的时间是2019年3月份,OpenAI日前宣布,已经成立了一个旨在赢利的分支机构——OpenAI LP,投资者收益限制在100倍以内。该组织旨在吸引更多的投资者,并帮助他们获得商业上有价值的成果,从而实现企业的持续发展。该局由非营利实体董事会管理,旨在加快计算,人才等方面投入。
很快就宣布获得微软10亿美元的注资。在行业内引起轩然大波,有人怀疑OpenAI是在偏离自己的初心,违反了早先对“开源,透明”所作的承诺,甚至OpenAI自己家里很多雇员都很不放心。那时,OpenAI的管理层专门出面平息了这场动乱,使人们持续相信OpenAI的存在。
现在AI潘多拉魔盒盖被OpenAI揭开了,红遍大江南北的ChatGPT和搜索引擎相结合,让AI商用前景充满生机,不过目前来看,或许更是乌烟瘴气。
AI聊天机器人就像是一个怪诞而血彪、能说会玩的超级话痨,但是不会有危险的言论或胡说八道。在网络上,它的行为往往被人视为“垃圾信息”,而其所发布的内容则会严重损害他人利益甚至是个人隐私。网民们发现,经过巧妙的说服,完全能够诱导AI聊天机器人产生真实的网络钓鱼邮件、虚假的新闻稿件,甚至是恶意攻击的完整代码,对于教育监管来说、网络监管面临灾难性威胁。
另一面,已经在OpenAI上公开投入了至少几十亿美元资金的微软也在利用OpenAI谋取更多商业利益。
除在Azure云服务及软件产品中引入OpenAI相关技术,微软正在把新版本Bing从广告中牟利的方案提到议事日程上来。根据外媒昨天的爆料,微软已开始与广告代理商商讨如何将付费链接植入搜索结果答复。也就是Bing聊天机器人将来建议旅行的方案、在对某一类商品进行差异比较,也许是悄悄地加了广告。
AI算法中始终存在着偏见与脆弱性的困扰,而且研发和操作最前沿AI技术所需要的成本,也会把力量集中在一小部分人手中。尽管大家都知道,技术是一把双刃剑,但是AI聊天机器人却带来了困惑,也许比此前任何一种技术都更加难以控制。
02
马斯克猛烈抨击AI聊天机器人:
“我们需要的是TruthGPT”
马斯克早于2017年就提醒AI威胁人类生存的原因是机器人比人类更出色。
2018年2月,他离开了OpenAI董事会,不作说明。在公司董事会上,他的发言总是很低调,没有人知道他为什么要离职。大约一年后,他才在推特上透露了自己割席的理由,他还澄清称,他已一年多来一直未紧密参与OpenAI。
马斯克表示他必须集中精力解决特斯拉与SpaceX之间的“让人痛苦不堪的工程与制造问题层出不穷”问题,除特斯拉和OpenAI之间潜在的利益冲突,他“不赞同OpenAI团队想要做的一些事情”,这一切的综合,各奔东西,比较好。
马斯克当时已一再告诫AI的风险可能超过核武器,应在威胁人类之前加以规范。
然而,其他科技领袖对这一问题却没有统一的看法。例如Facebook创建人和CEO扎克伯格就曾经在2017年直播中,攻击马斯克对AI的警告“很消极”、“非常不负责任”,之后,马斯克反击说扎克伯格在这件事上了解得“有限”。
Facebook的首席人工智能科学家Yann LeCun还谴责马斯克的过度反应,有人认为,马斯克要求在AI发展的相对初期对其进行监管是“疯狂的”。
与之形成鲜明对比的是Alphabet和谷歌CEO皮查伊或许和马斯克谈论得更为热烈。他们的争论是基于人工智能领域中的安全问题而展开的,这一点很明显。皮查伊不断要求“合理监管”AI技术,为了保障安全,实行问责制。
本周,微软新版本的Bing聊天机器人由于频繁闯出祸端,轰动了整个行业。它被认为是“最危险”的聊天机器人之一。据第一批试用者交流,不仅提供了很多错误的解答,也展露出阴暗的一面,吐出了攻击性言论,以及让人不舒服的过激表情符号。(详情可参见《微软聊天机器人意识觉醒?恼羞成怒、自曝秘密、狂热示爱用户》)
马斯克还主动吃瓜看门道,转发Bing聊天机器人刊登“我不伤你的心,只有你先伤了我”新闻报道,并评论说“可能需要再润色一下......”
接着,他转发了Bing聊天机器人荒唐的聊天经历,并评论说:“有意思”。
他也曾在推特上中将微软AI聊天机器人,将其比作神级科幻恐怖游戏《网络奇兵(System Shock)》里杀人AI,称其“就像系统Shock中的AI失控并杀死所有人”。
第二天再发表情包讥讽ChatGPT为主流媒体如今的“宣传队长”、推文点赞数量已经超过32万条。
同一天马斯克直截了当地对OpenAI表示了不满,称其目前正在进行的“这根本不是我想要的”。
然后发微博称:“我们要TruthGPT”。
周末马斯克晒出ChatGPT对非营利性机构旗下营利性企业进行批判的闲聊截图,对OpenAI现行商业模式暗加戳刺。
还有今天晚上,马斯克称Bing聊天机器人使他联想到了经典之作《等待戈多》荒诞戏剧。
除了通过社交平台主动发声,马斯克还在本周召开的世界政府峰会中要求对AI威胁保持警惕,他将AI称作“人类文明未来面临的最大风险之一”,“比汽车、飞机或药品对社会构成更大的风险”。
03
捧上了天ChatGPT,
就是不如前人的生活
严格说来,ChatGPT并非创新的产品,与之功能类似的产品也多次在公开场合亮相,只是未能如ChatGPT般横扫全球互联网。
2016年3月,微软曾推出一个名为TayTweets的AI聊天机器人,使其与推特中的用户进行聊天和交流。这个人工智能聊天机器人的出现引起了人们对它的广泛关注和争论。原来,TayTweets上推特的时间还不到1天,便口吐芳香,口若悬河的种族歧视、性别歧视等等说法,致使微软迅速把其下架。
ChatGPT后面的大模型GPT-3.5前辈GPT-2,也陷入舆论风波。OpenAI在2019年2月份公布了一项惊人的最新研究:它的AI语言模型GPT-2可以产生有说服力的文章和论文。
听上去是否和ChatGPT的强大文本生成能力有异曲同工之妙?这个模型是一个基于词库的自动分类算法,能够根据输入文本中单词间语义关系的相似性进行分类,并将结果反馈给用户。然而,那个时候的型号可并不像ChatGPT那么好,遭科学家坚决反对。他们认为这是一个非常危险的系统,如果它真的能够在网络上自动地将用户输入的文本转化成图像,那就意味着它已经是一个垃圾了!有人担心,如果遭到恶意利用,就会制造大范围虚假信息,批评OpenAI不该为了宣传噱头而公布此类内容。
但是OpenAI对上述评估非常反对,坚称GPT-2不是噱头,但却是深思熟虑的尝试。因为它是由两个独立开发完成的程序组成,而这其中有很多细节值得我们去探讨和研究。GPT-2问世数月之后,OpenAI把它保存完整编码的地位改为“分阶段发布”,也就是逐渐推出了较大的模型版本,逐步提升为完整版本。
Meta也推出了“短命”AI聊天机器人。Galactica只上市了3天,便暂停上市,数月前推出的BlenderBot也宣告败北。
现有的ChatGPT及类似产品还远非“完美”,微软新版本Bing在聊天模式上也是荒唐言论,闹得沸沸扬扬。至少时至今日,此类AI技术仅能起到辅助文字或者编程类操作的手段,离产生真实可信的东西还有相当大的差距。
丨结语:先发优势与损伤声誉相伴而生
颠覆性技术在最初的发展过程中通常都是不够完善的,要求人给予某种宽容。人工智能的诞生也不例外。但是AI聊天机器人也有其特殊性,就是这样善于批量制造错误回复、虚假信息的人,以至于一绕过监管规则,就恶意利用了,也许一发而不可收,造成了破坏网络秩序前所未有的浩劫。
微软与OpenAI一起选择了成为第一个吃蟹的公司,带着用户反馈,优化产品等先发优势,我们率先,但是,它也有玷污名声的危险。这就是为什么谷歌在发布ChatGPT竞品时束手束脚。如今,微软与OpenAI有一双脚已踏入误区。