首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >谁来照顾未来的我们?全球首个专家级机器人护理数据集发布

谁来照顾未来的我们?全球首个专家级机器人护理数据集发布

作者头像
一点人工一点智能
发布2025-11-26 16:51:44
发布2025-11-26 16:51:44
1090
举报

编辑:陈萍萍的公主@一点人工一点智能

论文地址:https://arxiv.org/pdf/2511.13707

项目地址:https://emprise.cs.cornell.edu/robo-care/

引言

随着全球人口老龄化加剧及残障人士数量的增加,对护理服务的需求日益增长。根据世界卫生组织的数据,全球约有13亿人存在显著的身体功能限制,其中许多人需要在日常生活中获得协助,即日常生活活动(ADLs)的支持。然而,专业护理人员和职业治疗师的数量远远无法满足这一需求。辅助机器人技术因此被视为缓解护理人力短缺的重要途径之一。近年来,机器人在进食、穿衣、洗浴、转移等ADL任务中取得了显著进展,显示出巨大的应用潜力。

尽管如此,机器人护理仍面临诸多技术挑战。以床上洗浴为例,机器人需具备在遮挡条件下准确感知人体状态的能力,能够安全地进行双手或移动式的人体肢体操作,并在不确定性下进行长时程任务规划,同时还需个性化适应用户的身体功能和偏好,并能根据人类反馈进行动态调整。这些挑战要求机器人系统具备高度的感知、决策与交互能力。为了应对这些挑战,近年来研究者开始采用基于学习的方法,尤其是从人类示范中学习护理任务。然而,现有数据集多为任务特定型,缺乏多样性、多模态性,且鲜有来自专业护理人员的真实示范数据,限制了机器人护理系统的泛化与适应能力。

相关工作

现有的护理相关数据集主要分为三类:护理调查数据集、物理人机交互数据集和人类活动识别数据集。护理调查数据集多基于问卷或访谈,关注护理的社会与健康维度,而非具体的物理护理过程。物理人机交互数据集如Bagewadi等人收集的拥抱交互数据、SBU Kinect Interaction数据集等,虽然涉及多模态感知,但任务单一,且缺乏护理场景的专业性。人类活动识别数据集虽涵盖家庭与医院环境,但多数未针对护理任务设计,缺乏对护理过程中关键交互的捕捉。

相比之下,OpenRoboCare是首个集多任务、多模态与专业护理人员示范于一身的数据集。如表I所示,它在任务数量、模态完整性、专家参与度等方面均优于现有数据集。该数据集不仅包含视觉与触觉数据,还引入了眼动追踪与动作标注,为研究护理行为中的注意力分配与任务分解提供了可能。

任务选择与护理协议

为构建具有现实意义的数据集,研究团队与职业治疗师合作,选取了六项基本ADLs中的五项——洗浴、如厕、穿衣、转移和梳理,排除了已有较多研究的进食任务。共设计了15项具体任务,涵盖不同身体部位、衣物类型与支撑环境。例如,穿衣任务包括在床上或轮椅上为模特穿脱T恤、背心与短裤等10种场景,以捕捉护理策略的多样性。

数据收集过程遵循严格的伦理与操作规范,所有参与者均为职业治疗师或相关专业学生,确保了示范的专业性与一致性。每位治疗师在两名不同体型与性别的模特上执行任务,每次任务约一小时,全程记录多模态数据。该协议不仅模拟了真实护理场景,还通过标准化设备布置与任务流程,保证了数据的可重复性与可比性。

数据收集设置

数据采集在一个模拟家庭护理环境的封闭空间中进行,配备了医院床、电动轮椅、Hoyer吊带等标准护理设备。为全面捕捉护理交互过程,系统集成了五种模态的传感器:

· RGB-D视频:使用三台Intel RealSense D435i相机从不同角度捕捉场景的视觉与深度信息。

· 触觉皮肤:自主研发的柔性压阻式触觉传感器覆盖模特全身,共88个传感单元,通过电压-力标定实现对接触力的高精度测量。其输出电压 V 与施加力 F 之间的关系通过标定曲线建模,具有非线性但在0.05–3 N/cm²范围内稳定。

· 姿态追踪:采用12台OptiTrack PrimeX 13运动捕捉相机,配合标记点追踪护理者与模特的全身运动。为解决遮挡问题,研究团队结合手动标注与YOLOv11模型进行姿态估计,并通过多视角三角化提升3D姿态估计的鲁棒性。

· 眼动追踪:使用Pupil Labs眼动仪记录护理者的视觉注意力分布,结合头部姿态数据进行视线方向估计与平滑处理。

· 任务与动作标注:通过GoPro录制视频与护理者的语音描述,由职业治疗师对任务进行分段标注,形成结构化的任务分解与执行流程。

所有传感器数据通过时间服务器进行同步,以RGB-D视频的15 Hz时间轴为基准,对各模态数据进行对齐,形成统一的多模态数据流。

数据集特性与分析

OpenRoboCare共包含315次护理示范,总时长19.8小时,涵盖21名职业治疗师执行的15项任务,生成31,185个多模态样本。数据集不仅规模庞大,还蕴含丰富的护理专业知识与行为模式。

5.1 护理者人口统计与指导原则

所有参与者均为女性,年龄跨度为22至75岁,其中包含具有40年临床经验的资深治疗师。通过对示范行为的观察与分析,研究团队提炼出三条核心护理原则:

· 预定位(P1):在执行任务前调整护理对象的姿势与支撑条件,以确保安全与稳定性。

· 预判(P2):提前规划身体与肢体的运动轨迹,以优化控制与后续动作衔接。

· 效率(P3):在保证安全的前提下尽可能缩短任务时间,减少护理对象的不适与生理压力。

5.2 典型护理技术示例

这些原则在实际操作中体现为多种具体技术。例如:

· 桥式策略:在如厕任务中通过弯曲膝盖并施加压力以抬升骨盆,便于放置便盆。

· 分段翻身:在洗浴与如厕中逐步转动护理对象身体,以控制运动速度与方向。

· 轮椅后倾:在转移任务中将轮椅向后倾斜45度,以优化体位并减少后续调整。

· 关键控制点稳定:通过控制骨盆、肩部与头部等关键点,实现对身体运动的有效引导。

5.3 任务执行与物理交互分析

数据集还揭示了任务执行的时间分布、策略选择与力作用模式。例如:

· 任务时长:床椅转移任务最为耗时,平均可达9分钟,反映了其长时程与多设备协调的复杂性。

· 策略偏好:在穿衣任务中,超过90%的治疗师偏好“先穿袖子”策略,而在脱衣中则更常采用“先脱头部”的方式。

· 接触与力分析:不同任务在身体各区域的接触频率与力大小存在显著差异。洗浴任务接触最频繁,而转移任务所需力最大,峰值力可达20–30 N。力分布函数Fbody(t) 在任务过程中呈现动态变化,如在翻身时全身各区域力同时上升,而在局部清洁时力集中于特定区域。

5.4 机器人护理设计指南

基于对护理者行为的分析,研究团队提出了一系列机器人设计建议:

· 视觉注意力建模:护理者的视线转移速度(约2.02秒的前瞻时间)可为机器人任务规划提供时序参考。

· 触觉力控制:机器人需具备从轻柔接触(0.1–2 N)到高力交互(>20 N)的广泛力控能力,并应在整条臂部集成分布式传感与柔顺机制。

· 工作空间定义:护理者的操作范围可为机器人硬件设计提供空间约束。

评估与开放挑战

为验证数据集的实用性与挑战性,研究团队对当前最先进的感知与规划方法进行了评估。

6.1 感知:人体姿态估计

在2D姿态估计任务中,使用mAP₅₀–₉₅作为评价指标。预训练的YOLOv11模型在护理任务中表现不佳,但在使用OpenRoboCare中少量标注数据微调后,其在遮挡严重的任务(如穿衣与转移)中的性能显著提升。例如,在5名治疗师数据上微调后,mAP从0.02左右提升至0.66–0.82之间,显示出数据集中护理场景特有的姿态模式对模型泛化的重要性。

在3D姿态估计中,使用MPJPE(平均每关节位置误差)作为指标。现有方法如RTMW、MixSTE等在护理数据上的误差均在120–160 mm之间,表明其在多人体交互、遮挡与特殊姿态下的估计仍存在较大挑战。

6.2 规划:长时程任务识别

使用VidChapters-7M模型对21个视频进行任务识别测试。结果显示,现有模型在护理术语理解与长时程任务分解方面存在明显不足。例如,模型将“放置Hoyer吊带”误识别为“放置foyer”,反映出其对护理领域知识的缺乏。此外,任务计划的多样性与长时程特性也增加了识别与分解的难度。

讨论与未来工作

OpenRoboCare作为首个多任务、多模态、专家驱动的机器人护理数据集,为相关研究提供了重要基础。尽管数据集已具备相当规模与多样性,未来仍可进一步扩展,例如引入部分感知数据、增加部分能动护理对象的交互场景,以更好地模拟现实中的协作式护理。此外,如何将数据集中的专家策略转化为可学习的机器人策略,仍是一个开放的研究方向。

结论

OpenRoboCare通过系统化的数据收集、多模态融合与专业分析,为机器人护理研究提供了宝贵的资源。其丰富的任务设置、专业的护理示范与多模态数据结构,不仅推动了护理机器人感知与规划技术的发展,也为理解人类护理行为提供了新的视角。该数据集的发布将有助于加速学习型护理机器人的开发,为实现安全、适应性与个性化的辅助护理系统奠定基础。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-11-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 一点人工一点智能 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档