谷歌突发大动作,旗下两大顶级AI团队谷歌大脑与DeepMind合二为一!
双方人才将并肩作战,以谷歌算力资源为后盾,只为一个目标:
加速AI研究。
△
而且体量小很多的DeepMind,似乎要占主导地位:
重组后,原DeepMind创始人Demis Hassabis担任一把手。
新部门定名Google DeepMind,专攻AI相关的战略级技术,并透露第一个项目就是一系列多模态大模型。
而Google Research中剩下的部分继续负责算法和理论、隐私和安全、健康、气候和可持续性、量子计算等其他方向,由原高级副总裁James Manyika领导。
原谷歌大脑掌门人Jeff Dean则同时在新Google DeepMind和新Goole Research两个部门任首席科学家。
Hassabis表示,对有机会构建AI并最终构建AGI造福人类感到兴奋。
Jeff Dean暂未以个人身份发表观点。
这已不是今年谷歌整合内部AI资源的第一个动作。
二月底,专注大语言模型的蓝移团队(Blueshift)就整体移入Deepmind。
三月底,谷歌的ChatGPT竞品Bard进展受阻后,又传出谷歌大脑与DeepMind在新的大模型项目双子星(Gemini)上合作,这次要直接对标GPT-4。
但即便如此,谷歌在追赶微软+OpenAI的道路上并不顺利。
据统计,今年2月-3月微软必应APP下载量翻了8倍,谷歌APP则下跌了2%。
另外包括BERT之父Jacob Devlin在内的数位顶尖人才都离开谷歌跳槽到OpenAI。
这一次,谷歌终于下定决心搞出大动作。
谷歌大脑,诞生了Tensorflow与GPT中的“T”即Transformer的地方。
DeepMind,创造过AlphaGo掀起上一波AI热潮,也创造过AlphaFold预测全世界已知蛋白质如何折叠的DeepMind。
两大传奇团队,折叠在了一起。
如此便能抗衡微软+OpenAI的强势组合了吗?
乐观的一面,DeepMind虽更以AI下棋、AI辅助科学研究闻名,但近年来在大语言模型上也有不少进展。
21年发布的2800亿参数大模型Gopher(地鼠),已在聊天对话方面表现出惊人的连贯性。
22年的大模型Chinchilla(龙猫),又以GPT-3参数量的零头(700亿vs1750亿)在很多任务上超越其效果。
Chinchilla的研究中发现,此前主流大模型虽数据规模不断扩大但相应的训练量通常不充分,限制了最终效果。
DeepMind据此提出计算优化的模型缩放公式,在今天指导着各大语言模型的训练,被业界称为龙猫定律(Chinchilla Law)。
不过也有很多人对谷歌这次的调整并不看好。
有网友觉得这种动作就是CEO做给股东看的。
CEO可以一直这么做,合并两个团队说成是为了聚焦,两年后再拆散还是可以说成为了聚焦。
也有人提出合并之前两个团队就都比OpenAI人才多资源也多,合并没带来什么本质改变。
并且Deepmind此前都是纯搞研究,没有推出过任何实质产品。
不过在Deepmind一边的声明中,确实也特别提到了产品团队的变化。原谷歌AI产品负责人,Eli Collins担任新团队的产品副总裁。
谷歌产品方面也传出可预测用户需求的新搜索功能(代号Magi)正在抓紧测试。
对于谷歌追上OpenAI这事,你看好吗?
参考链接:
[1]https://blog.google/technology/ai/april-ai-update/
[2]https://www.deepmind.com/blog/announcing-google-deepmind
[3]https://www.teamblind.com/post/bing-market-share--app-usage-jumps-after-gpt-integration-0zVuNcdr[4]https://news.ycombinator.com/item?id=35643049
本文来自微信公众号“量子位”(ID:QbitAI),作者:关注前沿科技,36氪经授权发布。