当前位置:首页|资讯|OpenAI|微软|LLaMA

开源大模型重击OpenAI!小扎放出LLaMA2炸裂科技圈,联手微软高通冲击市场格局

作者:量子位发布时间:2023-07-19

原标题:开源大模型重击OpenAI!小扎放出LLaMA2炸裂科技圈,联手微软高通冲击市场格局

杨净 发自 凹非寺

量子位 | 公众号 QbitAI

一纸公告, “大模型市场格局变了”

Meta与微软联手发布免费、可直接商用的LLaMA2。而作为首选合作伙伴,微软Windows可本地运行这一版本。

此外在AWS、Hugging Face上也可以获取,高通也官宣成为其合作伙伴。

这种背刺OpenAI的操作,让不少网友直呼刺激。

还有人对这种开放程度表示惊叹,毕竟上个开源版本就已被产学研界广泛使用—— LLaMA访问需求已超10万次,已经有小伙伴开发应用程序供大家免费测试了。

但与此同时,质疑声随之而来:

  • 核心作者已离开Meta,论文正文查无此人;
  • 如此注重安全,以至于最终可能毫无用处;
  • 虽说可商用,实际上有附加限制。

……

有人调侃小扎be Like:

核心作者已离开

此次LLaMA2的发布,从作者列表开始就已经透露不少玄机。

首先,规模更大,团队集成到了 GenAI部门。这是小扎专门应时而设的生成式AI产品部门。

第二,昔日一些核心作者已经不见踪影。比如Armand Joulin, Edouard Grave, Guillaume Lample,Timothee Lacroix等。

其中一位在网上吐槽:

因为核心作者离开公司就将其从论文中删除,这是我很庆幸离开Meta的原因之一。

事实上,在论文的附录上,还能看到他们的名字。不过正文部分已经查无此人。

据小扎和GPT-4介绍,此次LLaMA2共发布了从70亿、130亿、340亿以及700亿参数的预训练和微调模型,将免费提供用于研究和商业用途。

预训练过程,相较于上一代数据增长40%,上下文长度也增加了一倍,并采用分组查询注意力机制(GQA)来提升性能。

微调阶段,其版本称为Llama 2-Chat,共收集了超100万条人工标注用于SFT(监督微调)和RLHF。

值得一提的是,此次还曝光了每个预训练模型GPU所需总时长。

热心的网友测算了下总成本,如果以1.5美元/A100计算,那么 700亿参数模型成本将为260万美元

感兴趣的朋友可进一步前往论文查看哦~ (文末附上链接)

微软成LLaMA2首选伙伴

不过除了LLaMA2本身值得关注之外,其开放合作机制也引发了不少的热议。

公告中虽然强调 “免费用于研究和商业用途”,但仍有不少限制。

因此有人直言:我不明白LLaMA2这次炒作!

比如, 可商用协议实际暗含附加限制

有网友发现在GitHub许可证文件上发现,如果使用者利用LLaMA2提供产品或服务,月活跃用户超过7亿,那么必须向Meta申请许可。

而Meta可自行决定向其授予许可。

还有就是 可接受使用政策限制很多。这样一来,就可能导致“回答得很无聊,最终可能导致毫无用处”。

在政策中可以看到,主要分为四个部分:违反法律或侵犯他人权利;参与、促进、煽动、促进或协助规划或开展对个人造成死亡或身体伤害风险的活动;故意欺骗或误导他人;未能适当向最终用户披露人工智能系统的任何已知危险。

因此有人认为相较ChatGPT而言,LLaMA2少了些灵活性。这可能就是开源与闭源之间的区别。

但不可否认的是,Meta坚定选择开放开源这条路径。

甚至于此次,还邀请了产学研界的伙伴高调地发表了一篇 支持声明

包括英伟达、AMD、HuggingFace、YC、GitHub、 Databricks、Shopify、Zoom等公司的企业高管,还有UC伯克利、MIT等教授,比如CMU教授、MBZUAI大学校长 邢波

以及更多伙伴也顺势官宣与Meta合作,把LLaMA2集成到自己的产品中去,比如高通。

对此此番LLaMA2炸场,你怎么看?

而开源与闭源,在大模型时代,究竟谁才是更优解?

「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「广告营销」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。

点这里 👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1