机器之心报道 编辑:小舟、泽南 用微调的方法,现在羊驼模型也可以打 ChatGPT 了,这不是随便说说,有测试结果为证。 最近,来自华盛顿大学的 QLoRA 成为了 AI 领域的热门,很多人把它形容为...【查看原文】
机器之心报道 编辑:小舟、泽南 「原驼」大模型输出的内容和 ChatGPT 比,人类也无法区分谁好谁坏。 用微调的方法,现在羊驼模型也可以打 ChatGPT 了,这不是随便说说,有测试结果为证。
ChatGPT
机器之心 2023-05-26
这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到<48GB。开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。
量子位 2023-05-25
自动测试分数达到ChatGPT的99.3%,人类难以分辨两者的回答……这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到。开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。以Meta的美洲驼LLaMA为基础,得到原驼650亿参数版只需要48GB显存单卡微调24小时,330亿参数版只需要24GB显存单卡微调12小时。24GB显存,也就是一块消费级RTX3090
ChatGPTLLaMA
一起学chatGPT一起学ai 2023-05-27
大杀器QLoRA终于放出了论文和相关实现。单个GPU即可部署的ChatBot,甚至达到了ChatGPT 99%的能力。只需使用消费级GPU微调12个小时就可以达到97%的ChatGPT水平。同时只用4B就可以保持16B精度的效果。QLoRA通过以下三个创新点来优化资源:1. 4Bit NormalFloat 4比特量化2. Double Quantization 双重量化3. Paged Optimizers 分页优化器QLoRA是在LORA的基础上,先对Transformer进行4Bit量化,
ChatGPTLoRA
AI研习所 2023-05-25
还推出新AI加速技术,光刻计算速度提升40倍
量子位 2023-03-22
“前首富之子”看上了下沉市场
首席商业评论 2024-12-26
打造新一代AI办公产品全家桶。
晓曦 2024-12-26
2025年,会好起来吗?
Odaily星球日报 2024-12-26
前有狼后有虎
正解局 2024-12-26
与阳光电源同场的竞技比亚迪和宁德时代,都是储能电芯的供货商,他们更有核心零部件的成本优势。
阿尔法工场 2024-12-26
AI发展迅速,成本高昂。Scaling Law未撞墙。
新智元 2024-12-26
2024年,网红行业的整治风暴愈演愈烈,不少曾经风光无限的网红因违规行为而遭到平台的严厉处罚。从吴柳芳到MC天佑、羊毛月,这些名字背后的故事不仅是个体的兴衰,更是整个网络红人生态变迁的缩影。
科技旋涡 2024-12-26
多年来一直讨论不休
家办新智点 2024-12-26
千万别拿“时间和年龄”当做借口。
金融八卦女 2024-12-26
京东3C数码发布超级趋势2024年度榜单
时氪分享 2024-12-26
Copyright © 2025 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1