首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ECCV 2018挑战赛报名开启,三大挑战九个奖项等你来拿

ECCV,全称 European Conference on Computer Vision,欧洲计算机视觉国际会议,与 CVPR、ICCV 共称为计算机视觉领域三大顶级学术会议,每两年举办一次。9月8日-14日,ECCV 2018将在德国慕尼黑召开,并举办挑战赛。

本次 ECCV 2018挑战赛要求参赛者基于 3D 视觉系统来完成自动驾驶相关的一些相关任务ApolloScape作为 Apollo 开源平台的一部分,将为本次大会的计算机视觉社区提供一个大规模和高质量的真实场景数据集。

自动驾驶需要许多技术,但强大的 3D 感知是车辆与周围环境互动的先决条件。目前,最标准的方法是基于 Lidar 来检测和识别物体,发现可行驶道路和相关任务。相比于 Lidar,基于视觉信息(如图像或视频)的 3D 感知对降低成本也至关重要。

登录

http://apolloscape.auto/ECCV/index.html

参赛报名,一展实力!

ApolloScape

ApolloScape是百度在2017年创立的的 Apollo 自动驾驶开源平台的一部分。为了刻画高细粒度的静态 3D 世界,我们使用移动激光雷达扫描仪器从 Reigl 收集点云。这种方法产生的三维点云要比 Velodyne 产生点云更精确更稠密。在采集车车顶上安装有标定好的高分辨率相机以每一米一帧的速率同步记录采集车周围的场景。而且,整个系统配有高精度 GPS 和 IMU,相机的实时位姿都可以被同步记录。我们的采集图像来自于中国的不同城市,比如北京、上海和深圳等。

ApolloScape 拥有来自现实世界的高质量的静态场景的 3D 标注与动态物体的 2D 标注。通过高精度的采集、标注,创造了全球最大的三维自动驾驶数据集 Scene Parsing(场景解析)。

目前,ApolloScape 已经产出了14.7万张标注,覆盖了来自三个城市的三个站点周围 10KM 的地域,向全球的自动驾驶技术研究人员提供更为实用的数据资源。而且,每个区域都在不同的天气和光照条件下进行了重复扫描。最终,ApolloSacpe 将会发展成为一个不断更新进化的数据集,来自新的城市的数据标注也会陆续的加入其中。

此外,ApolloScape 计划为数据集拓展更多类型、更多属性的数据:通过添加红外图像,帮助自动驾驶算法更容易进行夜间检测;提取更稠密的轨迹信息,用于对驾驶行为进行建模;以及通过众包模式采集立体视觉的驾驶特殊事件图像。开发者也可以参照我们在 CVPR 上发表的有关自动驾驶数据集的论文,以便于更好的使用 ApolloScape 数据集。

ApolloSacpe 计划产出至少20万张图片用于举行不同的挑战赛,其中将会覆盖来自三个城市的5个站点的 20KM 的道路。

挑战赛简介

时间截至:

2018年9月5日

颁奖时间&Workshop:

2018年9月9日

共包含三个挑战赛,每项挑战赛将分别选出前三名获得比赛奖金:

一等奖:每人将获得3000美金奖金

二等奖:每人将获得2000美金奖金

三等奖:每人将获得1000美金奖金

对于所有的挑战,除了测试精准度外(精准度会用来给算法排名次),我们也要求参与者具体说明他们所使用的算法的速度和执行细节。我们会鼓励实时运行的算法,例如 30 fps,也会将他们突出标注在排行榜上,因为速度是实际应用的关键属性。基于视觉的细粒度车道标记分割。

挑战内容

1.

基于视觉的细粒度车道标记分割

具有车道标记的高精地图通常用作自动驾驶车辆的后端导航。目前,大多数高精地图的生产主要由手工标记构建。在此挑战中,我们要求参与者设计实现基于 RGB 图像的道路基本元素的自动检测算法。这些分割结果直接用于高精地图的生产或更新环节。这项任务的挑战之处在于不清晰的车道标注和拥挤复杂的交通环境。

整个数据集的 Ground truth 是在三维点云上标注完成的。然后通过投影得到 2D 图像的 Ground truth。 此外, 移动障碍物的遮挡问题我们也通过 2D 图像上的手动标注来完成了。参与者还可以利用相应的视频、相机内参和位置来帮助分割任务。我们在图一中举例说明了 3D 车道标记,在图二中列出了 2D 的 Ground truth。

详细的评估标准请参考我们的 ECCV 挑战赛网站:

http://apolloscape.auto/ECCV/index.html

2.

实时自定位

基于视觉的自定位,即通过图像或视频估计相机的6自由度位姿。与使用 LIDAR 相比, 具有成本低的优势,但同时也具有更高的挑战。在我们的数据集上我们测试了最新的自定位算法如 VidLoc [1],然而我们发现离工业应用仍然有很大的差距(定位精度必须小于15cm)。此外,自我定位算法的实时性对于自动驾驶也至关重要。

在这次挑战中,我们提供了大量的带有精度相机位姿的训练视频。同时我们的测试视频也来自于同一个场景,但是在不同的时间、不同的天气以及交通状况下采集的。我们的指标与DeLS-3D[2]和 PoseNet [3]相同。在图3中,我们突出标记了地面实况摄像头姿势。我们已经将所有的 Ground truth 与 ApolloScape 发布的数据结合起来。

详细的评估标准请参考我们的 ECCV 挑战赛网站:

http://apolloscape.auto/ECCV/index.html

3.

3D汽车实例了解

对于自动驾驶车辆来说,检测其他车辆、行人、乘客等是非常重要的。系统必须了解每个图像帧中每个物体的 3D 关系,尤其是自动驾驶车辆周围或附近的物体。在该挑战中,参赛者需要检测,重建和估计图像中所有车辆的 3D 形状。图4中显示了两帧标注图像的样例。

我们将基于平均精度(AP)来评估车辆的 3D 边框果,3D 形状和姿势。这与 2D 实例检测和分割类似。

详细的评估标准请参考我们的 ECCV 挑战赛网站:

http://apolloscape.auto/ECCV/index.html

相关论文阅读

1、《ApolloScape自动驾驶数据集》

The ApolloScape Dataset for Autonomous Driving

论文地址:

http://openaccess.thecvf.com/content_cvpr_2018_workshops/papers/w14/Huang_The_ApolloScape_Dataset_CVPR_2018_paper.pdf

2、《VidLoc:用于6-DoF视频剪辑重定位的深度时空模型》

VidLoc: A deep spatio-temporal model for 6-DoF video-clip relocalization

论文地址:

https://arxiv.org/abs/1702.06521

3、《DeLS-3D:使用3D语义地图进行深度定位和分割》

DeLS-3D: Deep Localization and Segmentation with a 3D Semantic Map

论文地址:

http://openaccess.thecvf.com/content_cvpr_2018/papers/Wang_DeLS-3D_Deep_Localization_CVPR_2018_paper.pdf

4、《PoseNet:用于实时6-DOF摄像头重定位的卷积网络》

PoseNet: A Convolutional Network for Real-Time 6-DOF Camera Relocalization

论文地址:

https://arxiv.org/abs/1505.07427

点击原文参赛报名

Apollo

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180822B1J86F00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券