机器之心报道 编辑:小舟、泽南 用微调的方法,现在羊驼模型也可以打 ChatGPT 了,这不是随便说说,有测试结果为证。 最近,来自华盛顿大学的 QLoRA 成为了 AI 领域的热门,很多人把它形容为...【查看原文】
机器之心报道 编辑:小舟、泽南 「原驼」大模型输出的内容和 ChatGPT 比,人类也无法区分谁好谁坏。 用微调的方法,现在羊驼模型也可以打 ChatGPT 了,这不是随便说说,有测试结果为证。
ChatGPT
机器之心 2023-05-26
这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到<48GB。开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。
量子位 2023-05-25
自动测试分数达到ChatGPT的99.3%,人类难以分辨两者的回答……这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到。开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。以Meta的美洲驼LLaMA为基础,得到原驼650亿参数版只需要48GB显存单卡微调24小时,330亿参数版只需要24GB显存单卡微调12小时。24GB显存,也就是一块消费级RTX3090
ChatGPTLLaMA
一起学chatGPT一起学ai 2023-05-27
大杀器QLoRA终于放出了论文和相关实现。单个GPU即可部署的ChatBot,甚至达到了ChatGPT 99%的能力。只需使用消费级GPU微调12个小时就可以达到97%的ChatGPT水平。同时只用4B就可以保持16B精度的效果。QLoRA通过以下三个创新点来优化资源:1. 4Bit NormalFloat 4比特量化2. Double Quantization 双重量化3. Paged Optimizers 分页优化器QLoRA是在LORA的基础上,先对Transformer进行4Bit量化,
ChatGPTLoRA
AI研习所 2023-05-25
还推出新AI加速技术,光刻计算速度提升40倍
量子位 2023-03-22
开端之年。
华商韬略 2024-12-30
何以是杭州?
锌财经 2024-12-30
汽车产业链的突飞猛进再次把比亚迪这座明星工厂推到了聚光灯下。
时代周报 2024-12-30
2025年存储行业将何去何从?本文将带来相关信号。
半导体产业纵横 2024-12-30
朋友圈越做越大,规模效应才会加速显现。
松果财经 2024-12-30
光伏产业链上中下游,各有各的难
一望无际的涨停板,证监会扇不醒的疯狂
尺度商业 2024-12-30
多家机构仍看好银行股2025年走势。
数字幽灵:当AI化身“千面骗子”
腾讯研究院 2024-12-30
好故事仍在发挥作用
ACGx 2024-12-30
Copyright © 2026 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1