当前位置:首页|资讯|LoRA|LLaMA|GPT-4

使用 LoRA 技术对 LLaMA 65B 大模型进行微调及推理

作者:吃果冻不吐果冻皮发布时间:2023-05-26

前几天,Meta 发布了 LIMA 大模型,在LLaMA-65B的基础上,无需使用 RLHF,只用了 1000 个精心准备的样本数据进行微调,就达到了和 GPT-4 相媲美的程度。这激发了我探索 LL...【查看原文】


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1