首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【公开数据集】动态驾驶场景分割数据集

MIT DriveSeg Dataset for Dynamic Driving Scene Segmentation

动态驾驶场景分割数据集

导读

迄今为止,提供给研究界的自动驾驶数据主要包括大量静态的、单一的图像,这些图像可用于识别和跟踪道路内和周围的常见物体,例如自行车、行人或通过交通灯的交通信号灯。使用“边界框”。

相比之下,DriveSeg 包含许多相同的常见道路对象的更精确的像素级表示,但通过连续视频驾驶场景的镜头。这种类型的全场景分割对于识别不总是具有如此明确和统一形状的更多无定形对象(例如道路建设和植被)特别有用。数据集由两部分组成:

DriveSeg(手动)

在连续白天驾驶通过拥挤的城市街道时,从移动的车辆中捕获的前向逐帧像素级语义标记数据集。

DriveSeg (Semi-auto)

一组前向的逐帧像素级语义标记数据集(通过麻省理工学院开发的新型半自动注释方法粗略注释)从行驶的移动车辆中捕获从MIT 先进车辆技术 (AVT) 联盟数据中提取的一系列真实世界场景。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20220310A09B5U00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券