这是Stable-Baselines3在Jax上的概念验证版本。
已实现的算法:
对于最新的主分支版本:
pip install git+https://github.com/araffin/sbx
或者:
pip install sbx-rl
import gymnasium as gym from sbx import DDPG, DQN, PPO, SAC, TD3, TQC, CrossQ env = gym.make("Pendulum-v1", render_mode="human") model = TQC("MlpPolicy", env, verbose=1) model.learn(total_timesteps=10_000, progress_bar=True) vec_env = model.get_env() obs = vec_env.reset() for _ in range(1000): vec_env.render() action, _states = model.predict(obs, deterministic=True) obs, reward, done, info = vec_env.step(action) vec_env.close()
由于SBX共享SB3的API,它与RL Zoo兼容,你只需覆盖算法映射:
import rl_zoo3 import rl_zoo3.train from rl_zoo3.train import train from sbx import DDPG, DQN, PPO, SAC, TD3, TQC, CrossQ rl_zoo3.ALGOS["ddpg"] = DDPG rl_zoo3.ALGOS["dqn"] = DQN # 参见下面的注释以使用DroQ配置 # rl_zoo3.ALGOS["droq"] = DroQ rl_zoo3.ALGOS["sac"] = SAC rl_zoo3.ALGOS["ppo"] = PPO rl_zoo3.ALGOS["td3"] = TD3 rl_zoo3.ALGOS["tqc"] = TQC rl_zoo3.ALGOS["crossq"] = CrossQ rl_zoo3.train.ALGOS = rl_zoo3.ALGOS rl_zoo3.exp_manager.ALGOS = rl_zoo3.ALGOS if __name__ == "__main__": train()
然后你可以像使用RL Zoo一样运行这个脚本:
python train.py --algo sac --env HalfCheetah-v4 -params train_freq:4 gradient_steps:4 -P
enjoy脚本也是一样的:
import rl_zoo3 import rl_zoo3.enjoy from rl_zoo3.enjoy import enjoy from sbx import DDPG, DQN, PPO, SAC, TD3, TQC, CrossQ rl_zoo3.ALGOS["ddpg"] = DDPG rl_zoo3.ALGOS["dqn"] = DQN # 参见下面的注释以使用DroQ配置 # rl_zoo3.ALGOS["droq"] = DroQ rl_zoo3.ALGOS["sac"] = SAC rl_zoo3.ALGOS["ppo"] = PPO rl_zoo3.ALGOS["td3"] = TD3 rl_zoo3.ALGOS["tqc"] = TQC rl_zoo3.ALGOS["crossq"] = CrossQ rl_zoo3.enjoy.ALGOS = rl_zoo3.ALGOS rl_zoo3.exp_manager.ALGOS = rl_zoo3.ALGOS if __name__ == "__main__": enjoy()
DroQ是SAC的一种特殊配置。
要使用论文中的超参数配置算法,你应该使用(使用RL Zoo配置格式):
HalfCheetah-v4: n_timesteps: !!float 1e6 policy: 'MlpPolicy' learning_starts: 10000 gradient_steps: 20 policy_delay: 20 policy_kwargs: "dict(dropout_rate=0.01, layer_norm=True)"
然后使用上面定义的RL Zoo脚本:python train.py --algo sac --env HalfCheetah-v4 -c droq.yml -P。
我们建议调整policy_delay和gradient_steps参数以获得更好的速度/效率。
为Q值函数设置更高的学习率也会有帮助:qf_learning_rate: !!float 1e-3。
注意:当使用CrossQ的DroQ配置时,你应该设置layer_norm=False,因为已经有批量归一化了。
部分基准测试可以在OpenRL Benchmark上找到,你还可以在那里找到几个报告。
在出版物中引用此仓库:
@article{stable-baselines3, author = {Antonin Raffin and Ashley Hill and Adam Gleave and Anssi Kanervisto and Maximilian Ernestus and Noah Dormann}, title = {Stable-Baselines3: Reliable Reinforcement Learning Implementations}, journal = {Journal of Machine Learning Research}, year = {2021}, volume = {22}, number = {268}, pages = {1-8}, url = {http://jmlr.org/papers/v22/20-1364.html} }
Stable-Baselines3目前由Ashley Hill(又名@hill-a)、Antonin Raffin(又名@araffin)、Maximilian Ernestus(又名@ernestum)、Adam Gleave(@AdamGleave)、Anssi Kanervisto(@Miffyli)和Quentin Gallouédec(@qgallouedec)维护。
重要提示:我们不提供技术支持、咨询服务,也不回答通过电子邮件发送的个人问题。 在这种情况下,请在RL Discord、Reddit或Stack Overflow上发布你的问题。
对于任何有兴趣改进基线的人,仍然有一些文档工作需要完成。 如果你想贡献,请先阅读CONTRIBUTING.md指南。
我们要感谢我们的贡献者:@jan1854。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法 律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以 让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感 知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。


AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号