自从 ChatGPT 面市以来,越来越多的聊天机器人纷纷涌现。这些机器人各有所长,擅长不同的应用场景和领域,而且它们的更新速度之快令人咋舌,以至于即便紧跟新闻报道,也难以及时了解它们的最新动态。聊天机器人的领域正在以日新月异的速度迅速进化。
我们一直在好奇和探索:有没有一个工具让我可以使用所有的聊天机器人,并轻便快速地感受到他们的“聊天”能力,并进行直观地对比?这个想法的实现有两个点:
一是要创造一个容器,装进所有的模型,并且可以轻松地扩展,在有新模型面世时,可以快速地“加入群聊”。
二是要创造一个场景,可以同时观察到模型的输出,对比模型的能力。
基于这两个点,我们最近开源了 OpenAOE - LLM Group Chat Framework(LLM-GCF): chat with multiple LLMs at the same time,一个前沿的大语言模型群聊框架。它内置支持了 OpenAI, Google, Anthropic, Minimax, 科大讯飞和 InternLM 的聊天模型,并支持同时跟多个模型对话。正如俗语所言:“一剑寒霜十四州", OpenAOE 涵盖了目前市面上主流的大语言模型。(文章的最后有福利哟~)
https://github.com/InternLM/OpenAOE
用一张动图来展示:Lisa有两个姐姐,每个姐姐都有两个姐妹,请问Lisa家里一个有几个孩子?
一个问题同时跟三个模型聊天,时间管理大师都直呼内行(开个玩笑)。最直观的感受是,三个模型在输出速度和长短上不一样。外行看热闹,内行看门道,仔细研究会发现三个模型的逻辑思路、计算方式和结构化都不一样,这或许给模型研究者和提示词工程师们提供了一种新的模型体验场景和调试方式?
接入模型
目前 OpenAOE 已支持了 OpenAI 的 GPT-3.5 和 GPT-4,上海人工智能实验室出品的 InternLM2 模型,以及来自Google, Anthropic, Minimax 和科大讯飞的模型。只需要简单配置对应模型的接入凭证(如 apikey,token等),就可以直接和众多模型进行对话了。
除了已接入的模型外,扩展模型列表的方式也很简单,OpenAOE 整合了常见的模型请求结构,支持流式和非流式输出请求,提供统一的标准化接口,您只需在配置文件里加入新模型的配置,即可邀请新朋友加入群聊。
对话模式
我们目前支持串行和并行(俗称群聊)两种模式。在输入框输入 # 快捷键即可轻松切换。
Serial Mode:串行模式,选择其中一个模型,一对一聊天。在聊天过程中,还可以随时切换到其他模型,在一个串行会话里,共享历史聊天记录(当然也可以清除当前聊天和历史聊天记录)。
Parallel Mode:并行模式, 一对多对话,直观地对比哪个大模型回答的更好。你觉得金庸小说里,哪个角色武功最厉害?(不一定是主角)
安装使用
说了这么多,想必大家也开始好奇怎么安装 OpenAOE 吧?为了尽可能的提供开箱即用的环境,降低部署难度,我们提供了三种部署方式供大家选择:pip, docker和源代码。
基于 pip
需要 python 版本 >= 3.9
基于 docker
需要有 docker 运行时环境。
除了使用我们提供的官方镜像外,我们也开源了用于构建 OpenAOE 的 Dockerfile,大家可以按需取用,构建自己的 OpenAOE。
基于源代码
需要 python 版本 >= 3.9,node 版本 >= 18
当然,如果想体验 OpenAOE 最新的特性,大家也可以 clone/fork 我们的项目,在本地基于源代码运行:
福利时间
通过轻松的安装和部署流程,OpenAOE 可迅速变为您的“大语言模型判官小助手”。OpenAOE 不仅默认支持主流的通用大语言模型,我们还热烈欢迎社区将更多引人注目的开源或专业的大模型集成到我们的框架中。此外,我们还有很多有趣的想法,期待付诸实践。诚邀大家加入 OpenAOE 的贡献者行列,共同参与生态系统的构建,一起做有意义的事情。
福利时间到!
即日起,
无论是作为用户,在 官网repo 下提有效的 issue;
还是作为开发者,让OpenAOE的功能更完善、界面更美观、模型更丰富,提出PR并被接受,都可以获得优先接入凭证使用权!
最后的最后,公主、王子们,请点 Star!
https://github.com/InternLM/OpenAOE