当前位置:首页|资讯

使用 Imatrix 和 K-Quantization 进行 GGUF 量化以在 CPU 上运行 LLM

作者:雲闪世界发布时间:2024-09-13

​ 适用于您的 CPU 的快速而准确的 GGUF 模型。欢迎来到雲闪世界。 ​ ​ 编辑 ​ GGUF 是一种二进制文件格式,旨在使用 GGML(一种基于 C 的机器学习张量库)进行高效存储和快速大型...【查看原文】


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1