当前位置:首页|资讯|OpenAI|通义千问

Meta对OpenAI进行了所谓的“硬刚”百模大战,拉开帷幕

作者:大火车AI工具箱发布时间:2024-12-19

“百模大战”的新篇章已经拉开序幕

最近,Meta对OpenAI进行了所谓的“硬刚”,同时,国产的“小模型”也宣布开源,这一系列动作标志着“百模大战”的新篇章已经拉开序幕。

Meta,作为Facebook的母公司,最近发布了大模型Llama2,并且选择了开源免费的方式,让开发者和商业伙伴可以自由使用。这一举措被视为对OpenAI的直接挑战,后者在ChatGPT取得全球成功后选择了闭源发展,其GPT-3和GPT-4模型的代码已成为商业机密。OpenAI的这一策略无疑是为了保持其在生成式AI行业的领先地位,并且通过提供API数据接口服务、聊天机器人订阅服务等方式获得更多营收。据《Fast Company》预测,OpenAI在2023年的收入将达到2亿美元。

与此同时,国内AI开发者社区“魔搭”(ModelScope)上架了两款开源模型Qwen-7B和Qwen-7B-Chat,分别为阿里云通义千问的70亿参数通用模型和对话模型,这两款模型均开源、免费、可商用。这一行动不仅提供了更多的选择,推动了中国AI开源生态的建设,也反映了国内对于开源大模型的重视。

这场“百模大战”不仅仅是关于开源与闭源的选择,更是关于大模型未来发展方向的思考。一方面,大模型的参数规模正在不断膨胀,从-1的1.17亿参数到GPT-4的万亿级别参数,增长了1000多倍。国内大模型如百度文心大模型、腾讯混元大模型、华为盘古大模型等也都达到了千亿级参数。另一方面,大模型的易用性和商业化成为了业界关注的焦点。例如,Qwen-7B模型支持消费级显卡上部署,使得高性能的家用电脑就能运行该模型,这大大降低了使用大模型的门槛。

参数越大并不代表大模型的能力越强。在实际应用中,深耕行业的垂直类大模型,并不需要一味追求“规模大”或是“参数高”,而应该根据客户需求制定相关的模型参数。例如,生物大模型BioGPT-Large仅有15亿参数,但在生物医学专业测试中的准确率却优于千亿级别参数的通用大模型。

未来,“百模大战”的走向可能会呈现出几种趋势:通用大模型可能趋于寡头竞争格局,垂类大模型可能呈现碎片化竞争格局,开源与闭源将持续维持双线发展,AI Agent可能构建“人机协同”的新范式,多模态生成在短中期内可能落地。


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1