当前位置:首页|资讯|OpenAI

immich智能相册更换支持中文搜索的CLIP大模型教程

作者:大志若勇发布时间:2024-04-17

 

有时间了我录个视频说说,这次先用图文应付一下

废话不多说,直接开干:

【第一步】:下载压缩包

先将网盘里的模型文件下载下来,不限速的网盘链接:

https://www.123pan.com/s/WXqA-EGL6d.html 

如果正文看不见链接,就看看评论区。

 

【第二步】:解压缩

将压缩包解压,其中Smart Search用的模型是:XLM-Roberta-Large-Vit-B-16Plus(支持中文,体验很好,默认的ViT-B-32__openai不支持中文)。

人脸识别Facial Recognition用的模型是:buffalo_l,另外在上面压缩包里加入了antelopev2模型(据说这个模型更好,不过我没试过)。

 

【第三步】:上传模型文件夹

准备工作:建议把群晖通过webdav挂载到电脑,稳定性比浏览器上传好一些。

正式上传:

比如需要中文搜索,那就把“XLM-Roberta-Large-Vit-B-16Plus”文件夹整体上传至映射的clip目录,我的目录如下:/volume2/docker/immich/machine/model-cache/clip

如果找不到这个目录,那就看一下自己“immich-machine-learning”容器的目录映射情况,我的是这样:

    volumes:

      - /volume2/docker/immich/machine/model-cache:/cache

如下图:

上传之后的目录结构:/volume2/docker/immich/machine/model-cache/clip/XLM-Roberta-Large-Vit-B-16Plus

如下图:

 

 

【第四步】:在immich后台修改模型名称

依次点击右上角的“Administration”→左侧的“Settings”→“Machine Learning Settings”→“Smart Search”,在CLIP MODEL里填入“XLM-Roberta-Large-Vit-B-16Plus”,然后保存。如下图:

 

 

 

【第五步】:查看运行状态

看一下“immich-machine-learning”容器的日志,如果显示:“Loading clip model 'XLM-Roberta-Large-Vit-B-16Plus'to memory ”的字样,说明模型加载没问题,如下图:

 

 

【第六步】:重跑Smart Search任务

在immich管理后台的Jobs里点右侧的“All”,跑一下Smart Search任务,然后等待enjoy it

 展示一下结果:


最后,最近也有大佬打包了支持中文CLIP的docker镜像,大家可以拉着试试



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1