Cloudflare全球用户提供了稳定且免费的网络服务,包括内容分发网络(CDN)、网络安全和无服务器计算等。其中,Cloudflare Workers 尤为突出,允许开发者轻松部署代码,并利用其全球边缘计算网络,提供超低延迟的无服务器应用。通过 Workers,开发者无需搭建服务器即可实现复杂的应用逻辑处理。本文将介绍如何使用 Cloudflare Workers 和我的GitHub 仓库,免费部署并运行一个大语言模型(LLM),轻松使用人工智能模型而不增加资源消耗。
准备工作:
在开始之前,需要以下准备:
一个 Cloudflare 账号。
可以正常打开 Cloudflare 和 Github 的网络环境。
一个域名(托管在该 Cloudflare 账号下)。
操作步骤:
步骤 1:访问 Cloudflare 控制台
打开 Cloudflare 控制台(https://dash.cloudflare.com/) 并登录你的账号。
登录后,你将看到 Cloudflare 的仪表盘界面,在这里我们将创建并部署 worker。
步骤 2:创建一个 Cloudflare Worker
在仪表盘左侧,选择 Workers & Pages,进入概览页面。
点击 Create,然后点击 Create Worker 创建一个worker并命名。命名不影响功能,你可以随意命名。
命名后,立即部署 worker。
步骤 3:编辑 Worker 代码
部署成功后,点击 Edit Code。
前往我的 GitHub 仓库(https://github.com/Drigrow/cloudflare-workers-script),打开 chat.js
文件。
复制文件的全部内容。
返回 Cloudflare 的代码编辑器,选中并删除当前代码,粘贴新的 chat.js
代码。
点击右上角的 Deploy。收到部署成功的通知后,返回 Workers & Pages 页面。
步骤 4:绑定自定义域名以便访问
现在模型和站点已经成功部署,但某些地区(如...你懂的)可能无法直接访问。
要解决这个问题,打开刚部署的 worker,进入 Settings,在 Domains and Routes 部分点击 + Add,绑定自定义域名。
步骤 5:使用模型
打开绑定的自定义域名,现在模型应该已经可以使用了。Cloudflare 将为用户提供必要的计算资源来使用 AI 模型。
限制与总结:
尽管模型功能正常,但它对中文的支持不够理想。即使使用引导词进行优化,模型在生成中文内容方面仍存在局限。当前,使用英文提问是最好的方式。我的Github仓库里提供了translation.js可以用于翻译,部署步骤与此文大体相同。
最后,我提供的代码只是 Cloudflare 模板的稍微修改版本。如果有大佬愿意完善代码或提供更好的实现,欢迎在评论区留言!