新智元报道
编辑:Aeneas 好困
【新智元导读】注意看,这是一篇「神预言」——谷歌、Meta等大厂,发展AI时一向谨慎,但现在,OpenAI这种小公司的飞速发展,逼得大厂们是不得不改换思路了。
这篇1月27日的分析文章,发出之后不到一周,谷歌和微软就相继官宣,要把AI聊天机器人整合进搜索引擎。
回头再看,到处都是回旋镖。
忽然,就开窍了?
对于发展AI,科技巨头们的态度一向慎之又慎。然而ChatGPT的横空出世,让它们酸出天际。
人工智能发展的基石,是谷歌、Meta和微软这些大公司搭起来的。
然而现在,锐意进取的小公司正以让人头晕目眩的速度将AI推向大众,打得这些巨头措手不及。
面对着科技股的持续下跌,以及ChatGPT爆红带来的压力,硅谷大厂们似乎在突然之间就「开窍」了——愿意承担更多的「声誉风险」。
作为时下最当红的明星,ChatGPT已经帮OpenAI从微软爸爸那里吸引了数十亿美元的投资。
而ChatGPT本身,也很可能会被整合到微软流行的办公软件全家桶中,向企业销售。
根据《华尔街日报》对六位谷歌和Meta现任和前任员工的匿名采访,ChatGPT获得的关注激增后,也给Meta和谷歌之类的科技巨头造成了压力,让他们不再那么顾虑安全问题。
Meta员工透露,公司的内部备忘录显示,公司正催着加快AI的审批程序,赶快利用起最新的技术。
《纽约时报》报道,谷歌看到ChatGPT的繁荣景象之后,除了发布红色代码,还推出了「绿色通道」,缩短评估和减轻潜在危害的流程。
风险太大,等等再说
其实,早在ChatGPT亮相的三个月前,Meta就曾发布类似的聊天机器人。
但不同于ChatGPT五天后就破百万的用户量,这个叫做Blenderbot的聊天机器人非常无聊。
这一点,就连Meta的首席AI科学家Yann LeCun都不得不承认。
「热天可以把狗放进冰箱里吗?」「我不能和陌生人讨论这些。」
最近,LeCun在一个论坛上解释称:「它之所以这么无聊,是因为我们把它做得很安全。」
他说,公众的反应之所以不温不火,是因为Meta对于内容审核「过于谨慎」了。
有一个阴谋论这么解释:Blenderbot这么无聊是故意的。Meta可以制造更好的AI,也许有了更好的AI,但他们决定发布一个糟糕的AI。
是的,大型科技公司一直以来都面临的一个问题是,对人工智能道德影响的审查机制,并不像隐私或数据安全那样成熟。
通常情况下,研究人员和工程师团队会希望他们提出的技术创新,能够被更快地做成产品进入到公众的视野之中,或者融入公司现有的基础设施。
不难想象,在推进的过程中,很容易就会与公司中致力于「负责任的人工智能」的团队发生冲突。
比如,在签署为五角大楼无人机提供计算机视觉的合同Project Maven时,就有不少员工提出了抗议。
而一个可以给餐馆打电话进行预订,且不会透露自己是机器人的项目Duplex,也引发了员工的抵触情绪。
为此,谷歌在2018年正式发布了人工智能「七项原则」。
文章地址:https://blog.google/technology/ai/ai-principles/
Cohere联合创始人,曾在谷歌大脑工作了三年的Nick Frosst表示,像谷歌和微软这样的大公司,更多会专注于利用AI来改善他们现有商业模式。
毕竟,激进所带来的「声誉风险」,是巨头们承受不起的。
尤其是在微软的Tay遭遇惨败后,他们就变得格外小心。
2016年,Tay上线不到一天就被火速封存。因为有人让这个聊天机器人发起种族战争,并给纳粹洗白。当时舆论一片哗然。
2022年,Meta家的Galactica,在上线短短三天之后就被撤下。网友纷纷指责它对科学研究的总结非常不准,而且有时还带有偏见。
不过,大厂对此也有自己的看法。
Meta基础人工智能研究部经理Joelle Pineau说:「人工智能的进展速度快得令人难以置信,而我们不仅需要确保高效的审查流程,而且还要做出正确的决定,并发布最适合我们社区的AI模型和产品。」
谷歌发言人Lily Lin说:「我们相信,人工智能是一项基础性和变革性的技术,对个人、企业和社区都非常非常大的作用。我们需要考虑这些创新可能产生的更广泛的社会影响。我们会继续在内部测试我们的AI技术,确保它是有用和安全的。」
微软的沟通主管Frank Shaw表示,当微软使用DALLE-2这样的AI时,会与OpenAI合作,建立额外的安全缓解措施。
「微软多年来一直致力于推动人工智能领域的发展,并且会公开指导用户在我们的平台上以负责任和道德的方式创建和使用这些技术。」
没赶上热乎的
但问题是,担心来担心去,自己转眼间就被甩在了后面。
过去的2022年,可以称为AIGC元年。我们见证了DALL-E 2、Stable Diffusion和ChatGPT的爆火。
尤其是在OpenAI发布ChatGPT之后,生成式人工智干掉谷歌的声音此起彼伏——
众所周知,ChatGPT可以用一种更加易懂的方式提供了简单的答案,而不需要用户去点击各种链接。
不过,非常有趣的一点是,这些AI的底层技术,其实都是由谷歌这些巨头开创的。
但近年来,这些大厂变得愈发神秘,他们会宣布新的模型或提供demo,但不会公布完整的产品。
与此同时,像OpenAI这样的研究实验室,却「稳准狠」地推出了最新版本的AI。这也让人们怀疑大厂们磨磨蹭蹭地究竟在干什么,比如谷歌语言模型LaMDA,就已经推出好几年了。
于是,在这样的大环境下,工程师们不得不面对,自己费尽心思研究的新技术却始终无法被采用的挫败感。
部分员工们表示,自己这几年一直在建议将聊天功能融入搜索引擎之中,但并没有得到反馈。
不过,他们也明白,谷歌有合理的理由不急于去改变自己的搜索产品。
毕竟,用明确的答案回应用户的搜索,不仅会压缩在线广告的宝贵空间,而且但凡被用户发现了问题,公司还需要承担额外的责任。
当然,遭遇这个问题并不只有谷歌一家公司。
据知情人士透露,Meta的员工也不得不处理公司对不良公关的担忧。
具体来说就是,在推出新产品或发表研究报告之前,员工必须回答有关公开其工作的潜在风险的问题,包括如果被公众误解了怎么办。
OpenAI怎么就赢了?
对此,佐治亚理工学院计算机教授、机器学习专家Mark Riedl表示,从基础的技术层面来讲,ChatGPT可能不一定比谷歌或Meta更好。
但OpenAI有一个关键的优势:把模型开放给公众使用。
于是在过去的这两年里,OpenAI就能够源源不断地收到来自用户的真实反馈。
比如,给自己满意的答案「点赞」,或者「踩一下」那些感觉不恰当的。
而这就是让ChatGPT变得如此强大的基石——「基于人类反馈的强化学习」(RLHF)。
相比之下,作为被挑战者的谷歌搜索,在经过四分之一个世纪后,已经被广告和试图玩弄系统的营销人员搞得臃肿不堪。
技术专家Can Duruk指出,「谷歌长期垄断的地位,已经让他们曾经令人信服的搜索体验堕落成一个充满垃圾的、由搜索引擎驱动的地狱。」
当然,还有一点也很重要——也就我们最初讨论的「声誉风险」。
一位谷歌员工表示,在公众眼里,OpenAI比我们这些大厂更新、更激动人心,而且需要付出的代价也更少,就算搞砸了,也不会受到那么多批评和审视。
大佬出走,谷歌被逼到墙角
的确,在10年之前,谷歌就已经是这个领域无可争议的老大了。
2014年,收购了顶级人工智能实验室DeepMind。
2015年,开源了机器学习框架TensorFlow。
到了2016年,Pichai承诺将谷歌打造成一家「人工智能优先」(AI first)的公司。
然而,支撑着这些发展背后的人才,却越来越不「安分」了。
在过去一年左右的时间里,不少大牛都跳到了更灵活的初创公司,比如OpenAI和Stable Diffusion。
包括Character.AI、Cohere、Adept、Inflection.AI和Inworld AI等等这些围绕着大规模语言模型建立的初创公司,也都是出自谷歌顶级AI研究人员之手。
此外,还有使用类似模型开发聊天界面的搜索初创公司,如谷歌前高管Sridhar Ramaswamy经营的Neeva。
其中,Character.AI的创始人Noam Shazeer,Cohere的联合创始人Aidan Gomez,更是研发Transformer以及其他核心机器学习架构的关键人物。
像谷歌和微软这样的大公司一般都专注于使用人工智能来改善他们庞大的现有商业模式,Nick Frosst说,他在谷歌大脑工作了三年,然后创立了Cohere,这是一家位于多伦多的初创公司,建立大型语言模型,可以为企业提供定制服务。他的联合创始人之一,就是Aidan Gomez。
「这个领域的发展如此迅速,对我来说,领先的人是小公司并不奇怪,」Frosst说。
著名研究科学家David Ha在推特上说:「如果谷歌再不振作起来,开始发布自己的人工智能产品,就将作为训练整整一代机器学习研究人员和工程师的『黄埔军校』载入史册。」
而这位大佬也在2022年离开谷歌大脑,加入了明星初创公司Stable Diffusion。
或许,时代可能真的要变了。
Rumman Chowdhury曾负责Twitter的机器学习伦理团队,直到马斯克在11月将其解散。
Chowdhury表示,由于像谷歌和Meta这样的大厂需要争相追赶OpenAI,因此那些批评家和伦理学家们,会越来越受冷遇。
参考资料:
https://www.washingtonpost.com/technology/2023/01/27/chatgpt-google-meta/