Unitree G1苹果拾取放置深度数据集:963条高质量RGB-D操作轨迹助力3D感知与机器人学习
Unitree G1苹果拾取放置深度数据集提供了963条高质量RGB-D操作轨迹,包含同步的深度图像和RGB视频数据。该数据集基于MuJoCo和RoboCasa仿真平台构建,采用CuRobo运动规划生成无碰撞轨迹,包含28-DOF双臂机器人完整关节控制数据。数据集特点包括:256×256像素深度图像(共277,592帧)、多模态同步数据、100%无碰撞轨迹,支持3D感知、机器人操作学习和Sim-t
Unitree G1苹果拾取放置深度数据集:963条高质量RGB-D操作轨迹助力3D感知与机器人学习
引言与背景
随着机器人技术的快速发展,深度感知已成为实现精准操作的关键能力。Unitree G1苹果拾取放置深度数据集为RGB-D操作研究提供了宝贵的实验资源,包含963条高质量轨迹数据,每条轨迹均配备同步的深度图像和RGB视频,为机器人学习和3D场景理解提供了丰富的数据支撑。该数据集基于MuJoCo和RoboCasa仿真平台构建,通过CuRobo运动规划生成无碰撞轨迹,确保数据的高质量和实用性。
数据集包含完整的原始文件,包括Parquet格式的轨迹数据、MP4格式的RGB视频以及NPY格式的深度图像文件。此外还包含元数据信息,如数据集统计、任务描述和episode信息等。这些数据对于推动机器人操作领域的研究具有重要价值,可用于训练深度感知模型、开发3D场景理解算法以及实现Sim-to-Real迁移学习。
获取数据请私信
数据基本信息
字段说明
| 字段名称 | 字段类型 | 字段含义 | 数据示例 | 完整性 |
|---|---|---|---|---|
| observation.state | float32 | 关节位置(弧度) | [1.57, 0.0, -0.78, …] | 100% |
| observation.depth | float32 | 深度图像(米) | (256, 256)数组 | 100% |
| action | float32 | 目标关节位置 | [1.57, 0.0, -0.78, …] | 100% |
| observation.images.ego_view | H.264视频 | 第一视角RGB视频 | 256×256, 20FPS | 100% |
| language_instruction | string | 任务描述文本 | “Pick up the red apple…” | 100% |
数据分布
| 分布类型 | 类别 | 记录数量 | 占比 |
|---|---|---|---|
| 关节配置 | 左臂(7DOF) | 277,592帧 | 25% |
| 右臂(7DOF) | 277,592帧 | 25% | |
| 左手(7DOF) | 277,592帧 | 25% | |
| 右手(7DOF) | 277,592帧 | 25% | |
| 轨迹长度 | 180-250帧 | 321条 | 33.3% |
| 251-320帧 | 481条 | 50.0% | |
| 321-400帧 | 161条 | 16.7% |
主要实体分布
| 实体类型 | 名称 | 相关数据 |
|---|---|---|
| 机器人平台 | Unitree G1 | 28-DOF双臂+灵巧手 |
| 仿真引擎 | MuJoCo + RoboCasa | 真实物理模拟 |
| 运动规划 | CuRobo | GPU加速无碰撞轨迹 |
| 深度相机 | rs_view | 头部安装RGB-D传感器 |
数据优势
| 优势特征 | 具体表现 | 应用价值 |
|---|---|---|
| 全量深度数据 | 每条轨迹包含256×256像素深度图像,共277,592帧 | 支持精准3D定位和距离感知抓取 |
| 高自由度控制 | 28-DOF完整关节控制(双臂+双手) | 实现复杂灵巧操作任务 |
| 高质量轨迹 | CuRobo生成无碰撞平滑轨迹,成功率100% | 确保数据可靠性和可用性 |
| 多模态同步 | RGB视频与深度图像精确同步 | 支持多模态融合学习 |
| 完整原始文件 | 包含原始Parquet数据、视频文件和深度图像 | 支持多样化研究需求 |
数据样例
以下展示数据集的多样性特征:
元数据样例(episode_000000):
- 轨迹长度:288帧(约14.4秒)
- 任务描述:“Pick up the red apple and place it on the bowl”
- 关节状态维度:28维
- 深度图像:256×256像素,float32格式
深度图像路径样例:
depth/chunk-000/episode_000000/frame_000000.npy
depth/chunk-000/episode_000000/frame_000050.npy
depth/chunk-000/episode_000000/frame_000100.npy
depth/chunk-000/episode_000001/frame_000000.npy
depth/chunk-000/episode_000002/frame_000000.npy
视频文件路径样例:
videos/chunk-000/observation.images.ego_view/episode_000000.mp4
videos/chunk-000/observation.images.ego_view/episode_000001.mp4
videos/chunk-000/observation.images.ego_view/episode_000002.mp4
Parquet数据样例:
# 读取轨迹数据
df = pd.read_parquet("data/chunk-000/episode_000000.parquet")
print(f"轨迹长度: {len(df)}帧")
print(f"状态维度: {df['observation.state'].iloc[0].shape}")
print(f"动作维度: {df['action'].iloc[0].shape}")
应用场景
1. RGB-D操作学习
基于深度信息的操作学习是机器人领域的重要研究方向。该数据集提供的同步RGB-D数据可用于训练深度感知的操作策略。通过结合视觉信息和深度信息,模型能够更准确地定位目标物体,实现精确抓取。例如,在苹果拾取任务中,深度图像可以帮助机器人判断苹果与手爪之间的距离,避免碰撞并实现稳定抓取。这种能力在实际应用中具有重要价值,如仓储物流中的物品分拣、家庭服务机器人的日常操作等场景。
2. 3D场景理解与重建
深度数据是3D场景理解的基础。该数据集可用于训练从RGB-D数据中重建3D场景的模型,实现点云生成、三维目标检测和场景分割。通过学习深度图像与RGB图像之间的关联,模型能够更好地理解场景的几何结构,为机器人导航和避障提供支持。此外,3D场景理解还可应用于虚拟现实、增强现实等领域,提升用户体验。
3. 深度感知策略学习
传统的视觉策略学习往往依赖于RGB图像,容易受到光照变化和物体遮挡的影响。引入深度信息后,模型可以获得更鲁棒的几何特征,提升策略的泛化能力。该数据集可用于研究深度感知在强化学习中的应用,探索如何有效融合多模态信息。例如,在训练机器人操作策略时,深度信息可以提供额外的约束,帮助策略学习更合理的动作序列。
4. Sim-to-Real迁移研究
仿真数据与真实数据之间存在领域差异,这是机器人学习中的一大挑战。该数据集提供了高质量的仿真深度数据,可用于研究Sim-to-Real迁移方法。通过在仿真环境中训练模型,然后迁移到真实机器人上,可以大大降低训练成本并提高安全性。深度数据在这个过程中尤为重要,因为深度感知在真实环境中往往存在噪声和误差,需要通过迁移学习来适应。
结尾
Unitree G1苹果拾取放置深度数据集为RGB-D操作研究提供了丰富的实验资源。其核心价值在于提供了高质量的深度感知数据,支持多模态融合学习和3D场景理解。数据集包含完整的原始文件,包括深度图像、RGB视频和关节状态数据,为研究者提供了多样化的数据支持。
该数据集的创新点在于将深度感知与机器人操作相结合,为精准操作提供了新的研究方向。通过利用这些数据,研究者可以开发更智能的深度感知算法,推动机器人技术的发展。
如果您需要获取完整数据集或有其他问题,欢迎私信联系获取更多信息。
DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。
更多推荐



所有评论(0)