当前位置:首页|资讯|第四范式|Hugging Face

OpenRL强化学习框架,支持单智能体、多智能体训练,还可训练自然语言任务!

作者:OpenRL官方发布时间:2023-05-15

OpenRL 是由第四范式强化学习团队开发的基于PyTorch的强化学习研究框架,支持单智能体、多智能体、自然语言等多种任务的训练。OpenRL基于PyTorch进行开发,目标是为强化学习研究社区提供一个简单易用、灵活高效、可持续扩展的平台。 目前,OpenRL支持的特性包括:

  • 简单易用且支持单智能体、多智能体训练的通用接口

  • 支持自然语言任务(如对话任务)的强化学习训练

  • 支持从 Hugging Face 上导入模型和数据

  • 支持LSTM,GRU,Transformer等模型

  • 支持多种训练加速,例如:自动混合精度训练,半精度策略网络收集数据等

  • 支持用户自定义训练模型、奖励模型、训练数据以及环境

  • 支持 gymnasium 环境

  • 支持字典观测空间

  • 支持 wandb,tensorboardX 等主流训练可视化工具

  • 支持环境的串行和并行训练,同时保证两种模式下的训练效果一致

  • 中英文文档

  • 提供单元测试和代码覆盖测试

  • 符合Black Code Style和类型检查

目前,OpenRL已经在GitHub开源:https://github.com/OpenRL-Lab/openrl

OpenRL初体验

OpenRL目前可以通过 pip 进行安装:

也可以通过conda安装:

OpenRL为强化学习入门用户提供了简单易用的接口, 下面是一个使用PPO算法训练CartPole环境的例子:

使用OpenRL训练智能体只需要简单的四步:创建环境 => 初始化模型 => 初始化智能体 => 开始训练

在普通笔记本电脑上执行以上代码,只需要几秒钟,便可以完成该智能体的训练:

使用OpenRL训练CartPole环境

此外,对于多智能体、自然语言等任务的训练,OpenRL也提供了同样简单易用的接口。例如,对于多智能体任务中的MPE环境,OpenRL也只需要调用几行代码便可以完成训练:

下图展示了通过OpenRL训练前后智能体的表现:

Simple Spread训练前后对比

加载配置文件

此外,OpenRL还同时支持从命令行和配置文件对训练参数进行修改。比如,用户可以通过执行python train_ppo.py --lr 5e-4来快速修改训练时候的学习率。

当配置参数非常多的时候,OpenRL还支持用户编写自己的配置文件来修改训练参数。例如,用户可以自行创建以下配置文件(mpe_ppo.yaml),并修改其中的参数:

最后,用户只需要在执行程序的时候指定该配置文件即可:

训练与测试可视化

此外,通过OpenRL,用户还可以方便地使用 wandb 来可视化训练过程:

Simple Spread训练过程可视化

OpenRL还提供了各种环境可视化的接口,方便用户对并行环境进行可视化。用户可以在创建并行环境的时候设置环境的渲染模式为"group_human",便可以同时对多个并行环境进行可视化:

此外,用户还可以通过引入 GIFWrapper 来把环境运行过程保存为gif动画:

智能体的保存和加载

OpenRL提供 agent.save() 和 agent.load() 接口来保存和加载训练好的智能体,并通过agent.act() 接口来获取测试时的智能体动作:

执行该测试代码,便可以在同级目录下找到保存好的环境运行动画文件(test_simple_spread.gif):

Simple Spread智能体表现


训练自然语言对话任务

最近的研究表明,强化学习也可以用于训练语言模型, 并且能显著提升模型的性能。目前,OpenRL已经支持自然语言对话任务的强化学习训练。OpenRL通过模块化设计,支持用户 加载自己的数据集 , 自定义训练模型, 自定义奖励模型, 自定义wandb信息输出 以及 一键开启混合精度训练 等。

对于对话任务训练,OpenRL提供了同样简单易用的训练接口:

可以看出,OpenRL训练对话任务和其他强化学习任务一样,都是通过创建交互环境的方式进行训练。

加载自定义数据集

训练对话任务,需要对话数据集。这里我们可以使用Hugging Face上的公开数据集(用户可以替换成自己的数据集)。加载数据集,只需要在配置文件中传入数据集的名称或者路径即可:

上述配置文件中的data_path 可以设置为Hugging Face数据集名称 或者 本地数据集路径。 此外,环境参数中的 tokenizer_path 用于指定加载文字编码器的 Hugging Face名称 或者 本地路径。

自定义训练模型

在OpenRL中,我们可以使用Hugging Face上的模型来进行训练。 为了加载Hugging Face上的模型,我们首先需要在配置文件nlp_ppo.yaml中添加以下内容:

然后在train_ppo.py中添加以下代码:

通过以上简单几行的修改,用户便可以使用Hugging Face上的预训练模型进行训练。如果用户希望分别自定义策略网络和价值网络,可以写好 CustomPolicyNetwork 以及 CustomValueNetwork后通过以下方式从外部传入训练网络:

自定义奖励模型

通常,自然语言任务的数据集中并不包含奖励信息。 因此,如果需要使用强化学习来训练自然语言任务,就需要使用额外的奖励模型来生成奖励。在该对话任务中,我们可以使用一个复合的奖励模型,它包含以下三个部分:

  • 意图奖励:即当智能体生成的语句和期望的意图接近时,智能体便可以获得更高的奖励。

  • METEOR指标奖励: METEOR 是一个用于评估文本生成质量的指标,它可以用来衡量生成的语句和期望的语句的相似程度。我们把这个指标作为奖励反馈给智能体,以达到优化生成的语句的效果。

  • KL散度奖励:该奖励用来限制智能体生成的文本偏离预训练模型的程度,防止出现reward hacking的问题。

我们最终的奖励为以上三个奖励的加权和,其中 KL散度奖励 的系数是随着KL散度的大小动态变化的。想在OpenRL中使用该奖励模型,用户无需修改训练代码,只需要在 nlp_ppo.yaml 文件中添加reward_class参数即可:

OpenRL支持用户使用自定义的奖励模型。 首先,用户需要编写自定义奖励模型(需要继承 BaseReward 类)。 接着,用户需要注册自定义的奖励模型,即在train_ppo.py添加以下代码:

最后,用户只需要在配置文件中填写自定义的奖励模型即可:

自定义训练过程信息输出

OpenRL还支持用户自定义wandb和tensorboard的输出内容。 例如,在该任务的训练过程中,我们还需要输出各种类型奖励的信息和KL散度系数的信息, 用户可以在nlp_ppo.yaml文件中加入vec_info_class参数来实现:

修改完配置文件后,在train_ppo.py文件中启用wandb:

然后执行python train_ppo.py –config nlp_ppo.yaml,过一会儿,便可以在wandb中看到如下的输出:

对话任务训练过程可视化

从上图可以看到,wandb输出了各种类型奖励的信息和KL散度系数的信息。

如果用户还需要输出其他信息,还可以参考 NLPVecInfo 类 和 VecInfo 类来实现自己的CustomVecInfo类。 然后,需要在train_ppo.py中注册自定义的CustomVecInfo类:

最后,只需要在nlp_ppo.yaml中填写CustomVecInfo类即可启用:

使用混合精度训练加速

OpenRL还提供了一键开启混合精度训练的功能。用户只需要在配置文件中加入以下参数即可:

对比评测

下表格展示了使用OpenRL训练该对话任务的结果。结果显示使用强化学习训练后,模型各项指标皆有所提升。 另外,从下表可以看出,相较于 RL4LMs , OpenRL的训练速度更快(在同样3090显卡的机器上,速度提升 17% ),最终的性能指标也更好:

对话任务训练结果对比评测

最后,对于训练好的智能体,用户可以方便地通过 agent.chat() 接口进行对话:

执行 python chat.py ,便可以和训练好的智能体进行对话了:

对话演示

总结

OpenRL框架经过了OpenRL-Lab的多次迭代并应用于学术研究和AI竞赛,目前已经成为了一个较为成熟的强化学习框架。 OpenRL-Lab团队将持续维护和更新OpenRL,欢迎大家加入我们的开源社区,一起为强化学习的发展做出贡献。 更多关于OpenRL的信息,可以参考:

  • OpenRL官方仓库:https://github.com/OpenRL-Lab/openrl/

  • OpenRL中文文档:https://openrl-docs.readthedocs.io/zh/latest/

致谢

OpenRL框架的开发吸取了其他强化学习框架的优点:

  • Stable-baselines3: https://github.com/DLR-RM/stable-baselines3

  • pytorch-a2c-ppo-acktr-gail: https://github.com/ikostrikov/pytorch-a2c-ppo-acktr-gail

  • MAPPO: https://github.com/marlbenchmark/on-policy

  • Gymnasium: https://github.com/Farama-Foundation/Gymnasium

  • DI-engine: https://github.com/opendilab/DI-engine/

  • Tianshou: https://github.com/thu-ml/tianshou

  • RL4LMs: https://github.com/allenai/RL4LMs

未来工作

目前,OpenRL还处于持续开发和建设阶段,未来OpenRL将会开源更多功能:

  • 支持智能体自博弈训练

  • 加入离线强化学习、模范学习、逆强化学习算法

  • 加入更多强化学习环境和算法

  • 集成Deepspeed等加速框架

  • 支持多机分布式训练


欢迎更多同学加入OpenRL的讨论和使用:

  • QQ群(367627006):

扫描二维码加入QQ群
  • 实习和全职发送邮件到:huangshiyu@4paradigm.com

  • 加入slack群组: https://join.slack.com/t/openrlhq/shared_invite/zt-1tqwpvthd-Eeh0IxQ~DIaGqYXoW2IUQg

  • 加入Discord群组: https://discord.gg/Hsjtu5Q47y

  • 加入GitHub Discussion: https://github.com/orgs/OpenRL-Lab/discussions

OpenRL Lab团队

OpenRL框架是由OpenRL Lab团队开发,该团队是第四范式公司旗下的强化学习研究团队。第四范式长期致力于强化学习的研发和工业应用。为了促进强化学习的产学研一体化,第四范式成立了OpenRL Lab研究团队,目标是先进技术开源和人工智能前沿探索。成立不到一年,OpenRL Lab团队已经在AAMAS发表过三篇论文,参加谷歌足球游戏 11 vs 11比赛并获得第三的成绩。团队提出的TiZero智能体,实现了首个从零开始,通过课程学习、分布式强化学习、自博弈等技术完成谷歌足球全场游戏智能体的训练:

TiZero智能体和其他智能体性能对比

截止2022年10月28日,Tizero在及第评测平台上排名第一:

TiZero在及第平台排名第一




Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1