当前位置:首页|资讯

llama.cpp(本地) + ollama(docker)(超详细实况二)

作者:Jahzo发布时间:2024-10-28

上一篇我们完成了模型的微调和导出,为了在本地也能随时使用,因此我们还需要对微调后的模型文件做一些操作 llama.cpp本地编译构建+ollama部署~...【查看原文】


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1