当前位置:首页|资讯

如何利用Ollama在本地浏览器与开源语言大模型对话?

作者:Ai神秘探险家发布时间:2024-11-11

上一期我们更新了如何本地安装Ollama与本地下载开源语言大模型,但是在终端对话却很繁琐,不要紧,我们部署Ollama WebUI则可以实现本地浏览器与开源语言大模型对话。安装Node.js我们在部署Ollama WebUI需要先安装Node.js,直接打开Node.js官网下载安装。安装成功后用指令node -v查询是否安装成功以及版本号。部署Ollama WebUI安装成功Node.js和Git后直接拉取Ollama WebUI代码。git clone https://github.com/ollam...【查看原文】


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1