OK-Robot作者: <u>刘沛琪</u>*, <u>Yaswanth Orru</u>*, <u>Jay Vakil</u>, <u>Chris Paxton</u>, <u>Mahi Shafiuallah</u><sup>†</sup>, <u>Lerrel Pinto</u><sup>†</sup>
* 贡献相同, † 指导相同。
OK-Robot是一个零样本模块化框架,有效结合了最先进的导航和操作模型,可以在真实家庭中执行拾取和放置任务。它已在10个真实家庭中对170多个物 体进行了测试,总成功率达到58.5%。
https://github.com/ok-robot/ok-robot/assets/156981262/7221264b-2fa3-4008-a757-0604cdc04e2b
所需硬件:
所需软件:
一旦机器人和工作站都准备就绪,你就可以开始实验了。
首先设置环境,用胶带标记,正确放置机器人并扫描环境以从Record3D获取r3d文件。将其放在/navigation/r3d/中,运行以下命令。
在一个终端中运行导航模块。
mamba activate ok-robot-env
cd ok-robot-navigation
python path_planning.py debug=False min_height={地面胶带的z坐标 + 0.1} dataset_path='r3d/{你的r3d文件名}.r3d' cache_path='{你的r3d文件名}.pt' pointcloud_path='{ 你的r3d文件名}.ply'
在另一个终端中运行操作模块
mamba activate ok-robot-env
cd ok-robot-manipulation/src
python demo.py --open_communication --debug
在机器人上运行任何东西之前,你需要校准它
stretch_robot_home.py
我们的机器人代码依赖于home-robot提供的机器人控制器。就像运行其他基于home-robot的代码一样,你需要在两个终端中同步运行两个进程。
在一个终端中启动home-robot
roslaunch home_robot_hw startup_stretch_hector_slam.launch
在另一个终端中运行机器人控制。更多详情请参见ok-robot-hw
cd ok-robot-hw
python run.py -x1 [x1] -y1 [y1] -x2 [x2] -y2 [y2] -ip [你的工作站ip]
如果你发现这项工作有用,请考虑引用:
@article{liu2024okrobot, title={OK-Robot: What Really Matters in Integrating Open-Knowledge Models for Robotics}, author={Liu, Peiqi and Orru, Yaswanth and Paxton, Chris and Shafiullah, Nur Muhammad Mahi and Pinto, Lerrel}, journal={arXiv preprint arXiv:2401.12202}, year={2024} }
我们的工作依赖于许多其他出版物和开源项目,如果你发现某个特定组件有用,请考虑也引用原作者。
<details> <summary>引用列表</summary></details>@article{fang2023anygrasp, title={Anygrasp: Robust and efficient grasp perception in spatial and temporal domains}, author={Fang, Hao-Shu and Wang, Chenxi and Fang, Hongjie and Gou, Minghao and Liu, Jirong and Yan, Hengxu and Liu, Wenhai and Xie, Yichen and Lu, Cewu}, journal={IEEE Transactions on Robotics}, year={2023}, publisher={IEEE} } @article{minderer2024scaling, title={Scaling open-vocabulary object detection}, author={Minderer, Matthias and Gritsenko, Alexey and Houlsby, Neil}, journal={Advances in Neural Information Processing Systems}, volume={36}, year={2024} } @article{yenamandra2023homerobot, title={HomeRobot: Open-Vocabulary Mobile Manipulation}, author={Yenamandra, Sriram and Ramachandran, Arun and Yadav, Karmesh and Wang, Austin and Khanna, Mukul and Gervet, Theophile and Yang, Tsung-Yen and Jain, Vidhi and Clegg, Alexander William and Turner, John and others}, journal={arXiv preprint arXiv:2306.11565}, year={2023} }
虽然OK-Robot本身就能做很多事情,但我们认为零样本、家居机器人还有很大的改进空间。这就是为什么我们认为OK-Robot是一个持续发展的项目,并将尝试不时地添加新功能。我们也鼓励你查看下面的列表,如果你感兴趣,可以通过为这个项目做出贡献来与社区分享你的改进。


全球首个AI音乐社区
音述AI是全球首个AI音乐社区,致力让每个人都能用音乐表达自我。音述AI提供零门槛AI创作工具,独创GETI法则帮助用户精准定义音乐风格,AI润色功能支持自动优化作品质感。音述AI支持交流讨论、二次创作与价值变现。针对中文用户的语言习惯与文化背景进行专门优化,支持国风融合、C-pop等本土音乐标签 ,让技术更好地承载人文表达。


一站式搞定所有学习需求
不再被海量信息淹没,开始真正理解知识。Lynote 可摘要 YouTube 视频、PDF、文章等内容。即时创建笔记,检测 AI 内容并下载资料,将您的学习效率提升 10 倍。


为AI短剧协作而生
专为AI短剧协作而生的AniShort正式发布,深度重构AI短剧全流程生产模式,整合创意策划、制作执行、实时协作、在线审片、资产复用等全链路功能,独创无限画布、双轨并行工业化工作流与Ani智能体助手,集成多款主流AI大模型,破解素材零散、版本混乱、沟通低效等行业痛点,助力3人团队效率提升800%,打造标准化、可追溯的AI短剧量产体系,是AI短剧团队协同创作、提升制作效率的核心工具。


能听懂你表达的视频模型
Seedance two是基于seedance2.0的中国大模型,支持图像、视频、音频、文本四种模态输入,表达方式更丰富,生成也更可控。


国内直接访问,限时3折
输入简单文字,生成想要的图片,纳米香蕉中文站基于 Google 模型的 AI 图片生成网站,支持文字生图、图生图。官网价格限时3折活动


职场AI,就用扣子
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!


多风格AI绘画神器
堆友平台由阿里巴巴设计团队创建,作为一款AI驱动的设计工具,专为设计师提供一站式增长服务。功能覆盖海量3D素材、AI绘画、实时渲染以及专业抠图,显著提升设计品质和效率。平台不仅提供工具,还是一个促进创意交流和个人发展的空间,界面友好,适合所有级别的设计师和创意工作者。


零代码AI应用开发平台
零代码AI应用开发平台,用户只需一句话简单描述需求,AI能自动生成小程序、APP或H5网页应用,无需编写代码。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号