当我们部署好ChatGLM后,就可以启动web_demo.py使用了。
但我们想结合LangChain时,就想到如果能把ChatGLM封装的像ChatGPT那样调用API,那样我们就可以把LangChain和ChatGLM解耦,就算以后我们要扩展或升级模型,只要重新封装新的API就行了。
开启的方法很简单,官方就给出了方法
GitHub - THUDM/ChatGLM2-6B: ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
3. 实践过程
我们按照官方给的方法,先执行以下命令安装依赖:
pip install fastapi uvicorn
再启动api.py
python api.py
如下图,启动过程跟web_demo.py区别不大
我们可以用官方给出的 用POST的方法,直接让编程助手(我这里使用讯飞)帮我们写出Python的POST请求,如下图运行没有什么问题
4. 总结
API部署的过程很简单,有了这一步,之后才能结合LangChain一起使用,我们编程的自由度更高。
三垣四象五行二十八宿 2023-08-15