小模型,成为本周的AI爆点。与动辄上千亿参数的大模型相比,小模型的优势是显而易见的:它们不仅计算成本更低,训练和部署也更为便捷,可以满足计算资源受限、数据安全级别较高的各类场景。因此,在大笔投入大模型训练之余,像 OpenAI、谷歌等科技巨头也在积极训练好用的小模型。先是HuggingFace推出了小模型SmoLLM;OpenAI直接杀入小模型战场,发布了GPT-4o mini。GPT-4o mini发布同天,欧洲最强AI初创公司Mistral立马发布旗下最新最强小模型——Mistral NeM
英伟达OpenAI谷歌LLaMA
AI研习所 2024-07-22
HuggingFace自己本身也是一家开源模型库网站平台,它是大模型时代的“github”,对于做AI的人来说,HuggingFace就是个宝藏库,里面超多好用的东西,所以他搞的开源模型排行榜很有公信力。自从…
AI大模型Hugging FaceGitHub
卢松松 2024-07-20
2020-2021年间,他带领团队设计并实现了超大规模的多模态预训练模型M6,在参数数量和低碳训练模式上取得了突破。今年,通义千问开源模型Owen1.5-72B在HuggingFace模型表现榜单上(ChatArena)成为开源模型第一,也是开源社区普遍使用的模型系列之一。
通义千问Hugging Face
机器之心Pro 2024-07-18
Hugging Face
量子位 2024-07-18
本文介绍了如何使用基于Meta Llama 3架构的功能强大的大语言模型(LLM)Hermes 2 Pro-Llama- 38B进行函数调用,并在Hugging Face上运行。
LLaMA大语言模型Hugging Face
51CTO 2024-07-18
文生图开源社区迎来重大突破: 比肩Midjourney-v6的开源文生图大模型来了!目前,可图(Kolors)已在Huggingface平台和GitHub上线,包括模型权重和完整代码
MidjourneyHugging FaceGitHub编程
快手技术 2024-07-12
大模型权威测试,翻车了?!HuggingFace都在用的MMLU-PRO,被扒出评测方法更偏向闭源模型,被网友直接在GitHubIssue提出质疑。此前MMLU原始版本早已经被各家大模型刷爆了,谁考都是高分,对前沿模型已经没有了区分度。号称更强大、更具挑战线性多任务语言基准MMLU-Pro,成了业界对大模型性能的重要参考。
GPT-4Hugging Face提示词
量子位 2024-07-11
今年6月,阿里云通义Qwen2-72B在全球最大开源社区HuggingFace的联合创始人宣布的开源大模型榜单中荣登榜首。这一成绩震惊了全球AI界,表明中国AI大模型已经具备了与国际顶尖水平一较高下的实力。科…
AI大模型Hugging Face
小陈言社会 2024-07-09
Hugging Face研究员:开源不一定被滥用 闭源也不一定更安全
腾讯科技 2024-07-05
国产大模型赛道的选手有很多,不管是大厂还是小厂,只要与AI沾边,都在探索自己的盈利和发展模式。特别是在OpenAI说要严格限制接口调用之后,大家又兴奋了起来,纷纷推出各种优惠政策和推出新技术模型等等。最近看了一圈国内的大模型,发现阿里云的通义千问已经跑到开源赛道第一名去了,Qwen2-72B 在世界开源模型排行榜上荣登榜首!这是Hugging Face联合创始人兼首席执行 Clem Delangue 发的测试数据,他说本次新的榜单测试用了300张H100显卡,进行了多维度的重新评测。大家对AI比较熟悉的话
OpenAI通义千问Hugging Face
果核剥壳 2024-07-05
Copyright © 2024 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1