在某中心的运营体系中,商品流动是核心环节。如何将客户订购的商品快速高效地从源头运送至客户手中,需要经过多个仓库的装卸、分拣和路由处理。在这一过程中,人类员工至关重要,而机器人操纵器的作用也日益凸显。
罗宾机械臂及其计算机视觉系统是这一领域的明星技术。该系统的视觉感知算法能够识别传送带上的包裹位置,甚至在杂乱堆叠的包裹中区分单个包裹及其类型。这种被称为"分割"的感知能力,是开发灵活自适应机器人流程的核心技术。
新项目团队面临的首要挑战往往是训练数据不足。获取与仓库流程相关的图像需要大量时间和资源,而手动标注图像更是耗时费力。每个训练图像可能需要绘制多个多边形标注包裹,在杂乱场景下单张图像标注就需要五分钟。
由于缺乏任务特定的训练数据,团队往往只能基于几百张图像构建感知模型。当从原型环境转入生产环境时,系统会遇到大量未见过的场景,导致识别失败。
为解决数据稀缺问题,研究人员开发了能够泛化到任何包裹分割任务的通用模型。该模型首先利用公开数据集获得基本分类能力,然后通过整合罗宾项目等多个团队近年收集的近50万张标注图像进行精细化训练。
这些图像包含从不同角度拍摄的各种包装类型(塑料袋、填充邮件、纸箱等)和不同背景,使得数据集适用于任何需要机器人感知的仓库场景。
使用通用模型可将视觉机器学习解决方案的开发时间从6-12个月缩短至1-2个月。在卡迪纳机器人手臂系统的测试中,通用模型仅用1000张新训练图像就达到了专用模型的准确度。
随着数据多样性的增加,通用模型已开始包含未包装物品的图像,能够支持更多仓库流程的分割任务。多模态识别、自动损伤检测等项目积累的产品特定数据,以及自主机器人拍摄的图像,都将持续丰富模型能力。
这种数据聚合方式特别适合某中心的机器人感知需求,能够应对客户需求变化、新包装形式以及可持续发展要求带来的视觉多样性挑战。通过通用模型的持续优化,未来机器人流程的试验和部署速度将得到显著提升。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。