ChatGPT发布以来,基于指令学习技术的类ChatGPT模型在我国能否开发成功,成为业界关注的一个焦点。复旦大学自然语言处理实验室也于近日发布了国内第一个对话式大型语言模型MOSS(https://moss.fastnlp.top/)。这个MOSS的命名灵感来自《流浪地球》中的人工智能MOSS,给人留下无限遐想。
该项目由复旦大学的邱锡鹏教授团队开发,其可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。与ChatGPT一样,MOSS的开发过程包括自然语言模型的基座训练、理解人类意图的对话能力训练两个阶段。在对话能力训练阶段,OpenAI收集了至少几十万条人类指令,让各行各业的专业标注员写出指令回复,再将它们输入模型基座,以帮助GPT逐步理解各种指令。而复旦团队则采用不同的技术路线,通过让MOSS和人类以及其他对话模型都进行交互,显著提升了学习效率和研发效率,短时间内就高效完成了对话能力训练。
虽然目前已经开放至公众平台进行内测,不过只限受邀请用户体验,胖胖老师已经申请了内测申请,加入了等待列表。从目前能了解的情况来看,MOSS的训练模型还是偏重于英文,其模型基座学习了3000多亿个英文单词,中文词语只学了约300亿个,因而使用英语进行连续性提问的效果较好。
用来辅助编程也是ok的。
相较于ChatGPT,MOSS还是一个“新生儿”,但相信其凭借着开源的模型算法,能够获得更多开发者的关注,相信不久的未来,MOSS会被赋予更多的能力,如绘图、语音、谱曲和教学,并加强它辅助科学家进行高效科研的能力等,值得期待。