LET数据集更新 | 开源高质量全身协同数据!

LET数据集更新 | 开源高质量全身协同数据!

Lejurobot

2026-04-17 发布35 浏览 · 0 点赞 · 0 收藏

2026年3月16日,在“开放原子园区行”开源数据集专场上,全球首发全身协同LET数据集,并在OpenLET社区同步上线,面向全球开发者、科研团队免费开放获取。这标志着具身智能领域在“全身协同控制”方向上迈出关键一步,为模型动态平衡能力研究与非结构化场景落地提供关键基础资源。

开源核心目标:解决单一层级数据痛点

长期以来,具身智能数据开源多局限于局部数据。这种单一层级的数据形态,导致模型在面对非结构化环境时泛化能力极差。此次开源全身协同LET数据集的核心目标,正是为了打破这一孤岛,让模型协同动作,以高度拟人的行运动表现真正实现落地应用。

图:LET 数据集中部分典型多任务执行示例

 

五大维度数据,全面支撑动态平衡研究

全身协同LET数据集新增高自由度关节数据,全方位捕捉机器人全身动作细节,具体包含两大核心数据与三大进阶能力:

高自由度关节数据:数据集包含41个关节精细控制信号;

RGB-D视觉数据:高分辨率彩色图+稠密深度图;

任务维度升级:行走站立延伸至深度下蹲、弯腰等高难度全身联动任务;

运动表现高度拟人:动作节奏、平衡维持及交互顺应性上高度拟人;

全身协同维度升级:提升机器人在非结构环境中的适应性与稳定性;

 

全栈自研技术赋能,多模态数据更精准

本体统一采集:全身协同数据是基于标准化的同一本体采集,消除跨模型采集带来的错位,保证数据的一致性和稳定性;

设备采集多样:包含PICO VR套装、动捕服等设备,不仅能精准实现动作映射,还能将身体多关节细节转化为高质量真机数据;

全身协同优势:可实现动作实时重定向,扭腰下蹲轻松自如,多关节协同控制,并具备全向移动跟随能力;

复杂场景采集:覆盖商超理货、PCB上料、SMT下料等场景,可实现灵活转腰放置、较长距离行走与下蹲弯腰拿去,数据具备高可用性。

图:全身协同控制

图:扭腰下蹲轻松自如

图:全向移动跟随

 

全身协同LET数据集是国内首次开源,其价值在于为开发者提供多模态感知全链路真实数据,填补了国内具身智能数据领域空白,打破了局部数据开源生态的局限,推动模型从“实验室”走向“规模化落地”。

现在,高质量全身协同LET数据集已开放,诚邀各位开发者登录乐聚OpenLET社区获取数据、实践验证,同时欢迎分享你的应用案例、提交优化建议,让我们携手丰富物理交互数据生态,共同推动具身智能技术落地!

数据获取渠道

官方申请

官方邮箱:wangsong@lejurobot.com直接申请获取

公开平台

乐聚OpenLET社区:https://ai.atomgit.com/lejurobot/LET-Body-Dataset

声明

本数据集基于 CC BY-NC-SA 4.0协议授权。

您可以自由地使用、修改和分享本数据集,但必须遵循以下条件:署名(注明原作者并链接至本协议)、非商业性使用,且任何衍生作品需以相同方式共享

请前往 登录/注册 即可发表您的看法…