杨净 发自 凹非寺
量子位 | 公众号 QbitAI
一纸公告, “大模型市场格局变了”。
Meta与微软联手发布免费、可直接商用的LLaMA2。而作为首选合作伙伴,微软Windows可本地运行这一版本。
此外在AWS、Hugging Face上也可以获取,高通也官宣成为其合作伙伴。
这种背刺OpenAI的操作,让不少网友直呼刺激。
还有人对这种开放程度表示惊叹,毕竟上个开源版本就已被产学研界广泛使用—— LLaMA访问需求已超10万次,已经有小伙伴开发应用程序供大家免费测试了。
但与此同时,质疑声随之而来:
……
有人调侃小扎be Like:
核心作者已离开
此次LLaMA2的发布,从作者列表开始就已经透露不少玄机。
首先,规模更大,团队集成到了 GenAI部门。这是小扎专门应时而设的生成式AI产品部门。
第二,昔日一些核心作者已经不见踪影。比如Armand Joulin, Edouard Grave, Guillaume Lample,Timothee Lacroix等。
其中一位在网上吐槽:
因为核心作者离开公司就将其从论文中删除,这是我很庆幸离开Meta的原因之一。
事实上,在论文的附录上,还能看到他们的名字。不过正文部分已经查无此人。
据小扎和GPT-4介绍,此次LLaMA2共发布了从70亿、130亿、340亿以及700亿参数的预训练和微调模型,将免费提供用于研究和商业用途。
预训练过程,相较于上一代数据增长40%,上下文长度也增加了一倍,并采用分组查询注意力机制(GQA)来提升性能。
微调阶段,其版本称为Llama 2-Chat,共收集了超100万条人工标注用于SFT(监督微调)和RLHF。
值得一提的是,此次还曝光了每个预训练模型GPU所需总时长。
热心的网友测算了下总成本,如果以1.5美元/A100计算,那么 700亿参数模型成本将为260万美元。
感兴趣的朋友可进一步前往论文查看哦~ (文末附上链接)
微软成LLaMA2首选伙伴
不过除了LLaMA2本身值得关注之外,其开放合作机制也引发了不少的热议。
公告中虽然强调 “免费用于研究和商业用途”,但仍有不少限制。
因此有人直言:我不明白LLaMA2这次炒作!
比如, 可商用协议实际暗含附加限制。
有网友发现在GitHub许可证文件上发现,如果使用者利用LLaMA2提供产品或服务,月活跃用户超过7亿,那么必须向Meta申请许可。
而Meta可自行决定向其授予许可。
还有就是 可接受使用政策限制很多。这样一来,就可能导致“回答得很无聊,最终可能导致毫无用处”。
在政策中可以看到,主要分为四个部分:违反法律或侵犯他人权利;参与、促进、煽动、促进或协助规划或开展对个人造成死亡或身体伤害风险的活动;故意欺骗或误导他人;未能适当向最终用户披露人工智能系统的任何已知危险。
因此有人认为相较ChatGPT而言,LLaMA2少了些灵活性。这可能就是开源与闭源之间的区别。
但不可否认的是,Meta坚定选择开放开源这条路径。
甚至于此次,还邀请了产学研界的伙伴高调地发表了一篇 支持声明。
包括英伟达、AMD、HuggingFace、YC、GitHub、 Databricks、Shopify、Zoom等公司的企业高管,还有UC伯克利、MIT等教授,比如CMU教授、MBZUAI大学校长 邢波。
以及更多伙伴也顺势官宣与Meta合作,把LLaMA2集成到自己的产品中去,比如高通。
对此此番LLaMA2炸场,你怎么看?
而开源与闭源,在大模型时代,究竟谁才是更优解?
— 完—
「AIGC+垂直领域社群」
招募中!
欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!
请备注您想加入的垂直领域「教育」或「广告营销」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。
点这里 👇关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~