当前位置:首页|资讯|ChatGPT|OpenAI|编程|LLaMA

用 ChatGPT+LangChain 部署到服务器,打造专属 GPT知识库

作者:余汉波发布时间:2023-04-22

本地部署

  1. 安装 python,小白自己去找安装教程

  2. pip install llama-index,安装 llama-index 库

  3. pip install langchain,安装 langchain 库

  4. pip install gradio,安装 gradio 库

  5. pip install openai,安装 openai 库

  6. 若有报错,那根据报错进行安装相应的库,可能因为网络等原因致安装不成功,或缺少自带的库。

  7. 上面的代码有两处是需要修改的,一是修改文件路径,(我这里是在 D 盘创建了一个 ai 的文件夹,下面是该文件夹为例);二是修改填写你的 open ai 的 api。

  8. 将上面的代码,保存为 app.py,放到 ai 文件夹。同时,在 ai 文件下创建一个文件夹,命名为 docs,用于放需要训练的文本。

  9. 将你的知识库以 md 格式,或者 txt、pdf 等格式放到 docs 文件夹

  10. 一切做完后,用 VS code 等解释器打开 app.py 便可运行。若没有解释器,也可以用 cmd 命令运行,输入 python D:\ai\app.py,进行运行便可。

  11. 运行因电脑算力和训练的文本多少不同,训练完成之后,会有一个本地域名,用浏览器打开,便可像 chat gpt 一样,使用自己专属的 gpt。

  12. 关闭运行的话是在终端,键入 ctrl+c

  13. 注意,每次运行都是对你的知识库进行全部训练,会消耗相应的 api tokens。若不是挂到服务器的话,不建议在 docs 文件中放过多的文件,毕竟电脑总是要关机的。

服务器部署

跟本地部署一致,但我们需要通过域名去访问,所以我们在创建站点之后,要使用到反向代理,对本地的域名进行反向代理,这里以宝塔为例。


代码



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1