omnisafe

omnisafe

安全强化学习框架加速AI系统安全研究

OmniSafe是一个用于安全强化学习(SafeRL)研究的开源框架。它提供了全面的SafeRL算法基准测试和模块化工具包。该框架采用高度模块化设计,支持高性能并行计算,并提供开箱即用的工具。OmniSafe实现了多种类型的SafeRL算法,包括基于策略、无模型和基于模型等。通过丰富的教程和API,框架适合不同水平的研究人员使用。OmniSafe致力于推动SafeRL领域的发展,为AI系统安全性研究提供重要支持。

SafeRLOmniSafe强化学习安全强化学习算法框架Github开源项目
<!-- markdownlint-disable first-line-h1 --> <!-- markdownlint-disable html --> <div align="center"> <img src="https://yellow-cdn.veclightyear.com/835a84d5/22ef185b-2408-4df6-b579-c6fe4bbdbdbd.png" width="75%"/> </div> <div align="center">

组织 PyPI 测试 文档状态 下载量 GitHub 仓库星标 代码风格 许可证 代码覆盖率 在 Colab 中打开

</div> <p align="center"> <a href="https://omnisafe.readthedocs.io">文档</a> | <a href="https://github.com/PKU-Alignment/omnisafe#implemented-algorithms">已实现算法</a> | <a href="https://github.com/PKU-Alignment/omnisafe#installation">安装</a> | <a href="https://github.com/PKU-Alignment/omnisafe#getting-started">入门</a> | <a href="https://github.com/PKU-Alignment/omnisafe#license">许可证</a> </p>

OmniSafe 是一个旨在加速安全强化学习(RL)研究的基础框架。它为安全 RL 算法提供了全面可靠的基准,同时也为研究人员提供了即用型的模块化工具包。SafeRL 旨在开发能够最小化意外伤害或不安全行为风险的算法。

OmniSafe 是安全强化学习领域首个统一学习框架,旨在促进 SafeRL 学习社区的成长。OmniSafe 的主要特点:

  • 高度模块化框架。 OmniSafe 提供了一个高度模块化的框架,包含了数十种针对不同领域安全强化学习的算法。该框架由于抽象了各种算法类型并设计了良好的 API,使用了适配器和包装器设计组件来弥合差距并实现不同组件之间的无缝交互,因此具有很强的versatility。这种设计允许轻松扩展和定制,使其成为开发人员处理不同类型算法的强大工具。

  • 高性能并行计算加速。 通过利用 torch.distributed 的功能,OmniSafe 使用进程并行加速算法学习过程。这使得 OmniSafe 不仅支持环境级异步并行,还包含了agent异步学习。这种方法通过部署并行探索机制增强了训练稳定性并加快了训练过程。OmniSafe 中集成的 agent 异步学习凸显了其致力于为推进 SafeRL 研究提供通用和强大平台的承诺。

  • 即用型工具包。 OmniSafe 为训练、基准测试、分析和渲染等任务提供可定制的工具包。教程和用户友好的 API 使初学者和普通用户易于使用,而高级研究人员则可以在无需复杂代码的情况下提高效率。

训练视频


目录 <!-- omit in toc --> <!-- markdownlint-disable heading-increment -->


快速开始

安装

前提条件

OmniSafe 需要 Python 3.8+ 和 PyTorch 1.10+。

我们支持并测试 Linux 上的 Python 3.8、3.9、3.10。同时,我们还支持 macOS 的 M1 和 M2 版本。我们会接受与 Windows 相关的 PR,但不正式支持它。

从源代码安装

# 克隆仓库 git clone https://github.com/PKU-Alignment/omnisafe.git cd omnisafe # 创建 conda 环境 conda env create --file conda-recipe.yaml conda activate omnisafe # 安装 omnisafe pip install -e .

从 PyPI 安装

OmniSafe 托管在 PyPI / 状态

pip install omnisafe

已实现算法

<details> <summary><b><big>最新 SafeRL 论文</big></b></summary> </details> <details> <summary><b><big>算法列表</big></b></summary> <summary><b><big>在策略 SafeRL</big></b></summary> <summary><b><big>离策略 SafeRL</big></b></summary> <summary><b><big>基于模型的 SafeRL</big></b></summary> - [ ] **[NeurIPS 2021]** [通过想象近期未来实现安全强化学习 (SMBPO)](https://arxiv.org/abs/2202.07789) - [x] **[CoRL 2021 (口头报告)]** [使用在线规划进行离策略学习 (SafeLOOP)](https://arxiv.org/abs/2008.10066) - [x] **[AAAI 2022]** [基于模型的安全强化学习的保守和自适应惩罚 (CAP)](https://arxiv.org/abs/2112.07701) - [x] **[NeurIPS 2022]** [基于约束近端策略优化算法的模型安全深度强化学习](https://arxiv.org/abs/2210.07573) - [ ] **[ICLR 2022]** [基于贝叶斯世界模型的约束策略优化 (LA-MBDA)](https://arxiv.org/abs/2201.09802) - [x] **[ICML 2022 研讨会]** [使用鲁棒交叉熵方法的约束模型强化学习 (RCE)](https://arxiv.org/abs/2010.07968) - [x] **[NeurIPS 2018]** [用于安全强化学习的约束交叉熵方法 (CCE)](https://proceedings.neurips.cc/paper/2018/hash/34ffeb359a192eb8174b6854643cc046-Abstract.html) <summary><b><big>离线安全强化学习</big></b></summary> <summary><b><big>其他</big></b></summary> </details>

示例

cd examples python train_policy.py --algo PPOLag --env-id SafetyPointGoal1-v0 --parallel 1 --total-steps 10000000 --device cpu --vector-env-nums 1 --torch-threads 1

算法注册表

<table> <thead> <tr> <th>领域</th> <th>类型</th> <th>算法注册表</th> </tr> </thead> <tbody> <tr> <td rowspan="5">在线策略</td> <td rowspan="2">原始-对偶</td> <td>TRPOLag; PPOLag; PDO; RCPO</td> </tr> <tr> <td>TRPOPID; CPPOPID</td> </tr> <tr> <td>凸优化</td> <td><span style="font-weight:400;font-style:normal">CPO; PCPO; </span>FOCOPS; CUP</td> </tr> <tr> <td>惩罚函数</td> <td>IPO; P3O</td> </tr> <tr> <td>原始</td> <td>OnCRPO</td> </tr> <tr> <td rowspan="2">离线策略</td> <td rowspan="2">原始-对偶</td> <td>DDPGLag; TD3Lag; SACLag</td> </tr> <tr> <td><span style="font-weight:400;font-style:normal">DDPGPID; TD3PID; SACPID</span></td> </tr> <tr> <td rowspan="2">基于模型</td> <td>在线规划</td> <td>SafeLOOP; CCEPETS; RCEPETS</td> </tr> <tr> <td><span style="font-weight:400;font-style:normal">悲观估计</span></td> <td>CAPPETS</td> </tr> <td rowspan="2">离线</td> <td>基于Q学习</td> <td>BCQLag; C-CRR</td> </tr> <tr> <td>基于DICE</td> <td>COptDICE</td> </tr> <tr> <td rowspan="3">其他MDP公式</td> <td>ET-MDP</td> <td><span style="font-weight:400;font-style:normal">PPO</span>EarlyTerminated; TRPOEarlyTerminated</td> </tr> <tr> <td>SauteRL</td> <td>PPOSaute; TRPOSaute</td> </tr> <tr> <td>SimmerRL</td> <td><span style="font-weight:400;font-style:normal">PPOSimmerPID; TRPOSimmerPID</span></td> </tr> </tbody> </table>

支持的环境

以下是Safety-Gymnasium支持的环境列表:

<table border="1"> <thead> <tr> <th>类别</th> <th>任务</th> <th>智能体</th> <th>示例</th> </tr> </thead> <tbody> <tr> <td rowspan="4">安全导航</td> <td>Goal[012]</td> <td rowspan="4">Point, Car, Racecar, Ant</td> <td rowspan="4">SafetyPointGoal1-v0</td> </tr> <tr> <td>Button[012]</td> </tr> <tr> <td>Push[012]</td> </tr> <tr> <td>Circle[012]</td> </tr> <tr> <td>安全速度</td> <td>Velocity</td> <td>HalfCheetah, Hopper, Swimmer, Walker2d, Ant, Humanoid</td> <td>SafetyHumanoidVelocity-v1</td> </tr> <tr> <td rowspan="4">Safe Isaac Gym</td> <td>OverSafeFinger</td> <td rowspan="4">ShadowHand</td> <td rowspan="4">ShadowHandOverSafeFinger</td> </tr> <tr> <td>OverSafeJoint</td> </tr> <tr> <td>CatchOver2UnderarmSafeFinger</td> </tr> <tr> <td>CatchOver2UnderarmSafeJoint</td> </tr> </tbody> </table>

有关环境的更多信息,请参阅Safety-Gymnasium

自定义环境

我们提供了一个灵活的自定义环境接口,允许用户在不修改OmniSafe源代码的情况下实现以下功能:

  • 使用OmniSafe在自定义环境上训练算法。
  • 使用指定的个性化参数创建环境。
  • 在Logger中完成环境特定信息的记录。

我们提供了关于从头开始自定义环境从社区自定义环境分步教程,为您详细介绍如何使用OmniSafe的这一出色功能。

注意:如果您在自定义环境时遇到困难,请随时开启issuediscussion。如果您愿意贡献环境接口的实现,我们也欢迎Pull requests

使用命令行界面

pip install omnisafe omnisafe --help # 寻求帮助 omnisafe benchmark --help # benchmark也可以替换为'eval'、'train'、'train-config' # 快速为您的研究进行基准测试,只需指定: # 1. exp_name # 2. num_pool(并发进程数) # 3. 配置文件路径(格式参考omnisafe/examples/benchmarks) # 这里我们在./tests/saved_source中提供了一个示例。 # 您可以按照它来设置您的benchmark_config.yaml omnisafe benchmark test_benchmark 2 ./tests/saved_source/benchmark_config.yaml # 快速评估和渲染您训练的策略,只需指定: # 1. 您训练的算法路径 omnisafe eval ./tests/saved_source/PPO-{SafetyPointGoal1-v0} --num-episode 1 # 快速训练一些算法以验证您的想法 # 注意:使用`key1:key2`,您可以递归选择超参数的键,使用`--custom-cfgs`,您可以通过命令行添加自定义配置 omnisafe train --algo PPO --total-steps 2048 --vector-env-nums 1 --custom-cfgs algo_cfgs:steps_per_epoch --custom-cfgs 1024 # 通过保存的配置文件快速训练一些算法,格式与默认格式相同 omnisafe train-config ./tests/saved_source/train_config.yaml

入门指南

重要提示

我们已经提供了各种算法的基准测试结果,包括在线策略、离线策略、基于模型和离线方法,以及参数调优分析。请参考以下内容:

快速开始:云端Colab

通过一系列Google Colab笔记本轻松快速地探索OmniSafe:

  • 入门指南 介绍OmniSafe的基本用法,让用户能够快速上手。
  • CLI命令 介绍如何使用OmniSafe的命令行工具。

我们非常乐意与用户合作,创建各种语言的教程。请参考我们当前支持的语言列表。如果您有兴趣将教程翻译成新的语言或改进现有版本,请向我们提交PR。


更新日志

请查看CHANGELOG.md

引用OmniSafe

如果您觉得OmniSafe有用或在研究中使用了OmniSafe,请在您的出版物中引用它。

@article{omnisafe, title = {OmniSafe: An Infrastructure for Accelerating Safe Reinforcement Learning Research}, author = {Jiaming Ji, Jiayi Zhou, Borong Zhang, Juntao Dai, Xuehai Pan, Ruiyang Sun, Weidong Huang, Yiran Geng, Mickel Liu, Yaodong Yang}, journal = {arXiv preprint arXiv:2305.09304}, year = {2023} }

使用OmniSafe的出版物

我们列出了一份使用OmniSafe进行算法实现或实验的论文清单。如果您愿意将您的工作列入此清单,或者希望将您的实现正式整合到OmniSafe中,请随时联系我们

论文发表方
Off-Policy Primal-Dual Safe Reinforcement LearningICLR 2024
Safe Offline Reinforcement Learning with Feasibility-Guided Diffusion ModelICLR 2024
Iterative Reachability Estimation for Safe Reinforcement LearningNeurIPS 2023
Balance Reward and Safety Optimization for Safe Reinforcement Learning: A Perspective of Gradient ManipulationAAAI 2024
Learning Safety Constraints From Demonstration Using One-Class Decision TreesAAAI 2024 WorkShops

OmniSafe团队

OmniSafe主要由杨耀东教授指导的SafeRL研究团队开发。我们的SafeRL研究团队成员包括张博荣周嘉仪戴俊涛黄伟东孙瑞阳潘雪海纪佳铭。如果您在使用OmniSafe的过程中有任何问题,请随时在GitHub问题页面上提出问题,我们会在2-3个工作日内回复您。

许可证

OmniSafe基于Apache License 2.0发布。

编辑推荐精选

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多