前面在这个视频里已经演示过openai插件调用阿里云通义千问控制homeassistant了
也就是说前面单独开发的通义千问插件没有必要再维护下去了,只要你自己的模型支持tools调用和openai的兼容api,即可以直接替换使用openai插件,只需要替换系统里的base_url即可无缝替换兼容openai的任意国内/本地大模型,我这里给出替换方法,对你有帮助的话,记得三联,这对我很重要哦。
核心思想是替换系统环境变量:OPENAI_BASE_URL
openai插件源代码如下
docker安装替换方法:
直接使用run命令执行时,在命令中加-e指定环境变量
docker run -e OPENAI_BASE_URL=yourai_url
docker-compose文件启动时,在最下面追加environment即可
core安装替换方法:
export OPENAI_BASE_URL=yourai_url
官方给的部署都是基于OS加载项的,没有OS就不能玩本地的语音文字互转和自定义唤醒词了吗?当然不,有docker就行!不废话直接贴docker-compose文件,不知道这是啥的请自行百度,文件里 /home/yourpath 部分请改成自己想要的文件路径,然后每一项的说明见最后,对你有帮助的话,记得三联,这对我很重要哦。
whisper 本地stt
command命令里指定了对应的模型(注释里我列出来了可选项,请根据你自己硬件能力和存储空间执行选择,模型越大越占用空间且消耗性能) 具体使用的模型自己根据自己的设备信息自己选,部署的时候会自动下载配置的模型
我这里在 runtime和deploy里注释掉了,需要使用GPU的人才需要下面的部分,但前提需要自己先安装显卡驱动和 Nvidia container toolkit
piper 本地tts
这里没啥好说的,piper语音转换有点生硬,但也不是不能用,如果有更好的选择请留言分享。嘿嘿
openwakeword 本地语音唤醒
可以按官方文档自己训练其他唤醒词(只支持英文),然后需要把你自己训练的tflite模型文件直接放在'/home/yourpath/models' 目录里