前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【星光04】Mmdetection3dlab 使用指南

【星光04】Mmdetection3dlab 使用指南

作者头像
杨丝儿
发布2022-04-11 16:22:54
7410
发布2022-04-11 16:22:54
举报
文章被收录于专栏:杨丝儿的小站

MMDetection3D 是一个基于 PyTorch目标检测开源工具箱, 下一代面向3D检测的平台 对安装 MMDetection3D有问题的同学可以看:【星光02】MMDetection3D 目标检测框架的 Docker 环境制作和改良

✨本文结合官方文档,梳理了基于 mmdet3d 开发人工智能模型的基本流程,整理相关的代码和小工具。如遇任何问题,可以查阅官方文档,MMDetection3D 的官方文档还是写得很好的(就是有一些多模态的代码跑不通,本文会注释部分问题命令)

一、数据预处理

官方对数据集预处理的文档:3D 目标检测 KITTI 数据集,流程如下:

解压所有 Kitti 数据集,并将文件按如下方式组织:

代码语言:javascript
复制
mmdetection3d
├── data
|   ├── kitti
|   |   ├── ImageSets
|   |   ├── testing
|   │   │   ├── calib
|   │   │   ├── image_2
|   │   │   ├── velodyne
|   |   ├── training
|   │   │   ├── calib
|   │   │   ├── image_2
|   │   │   ├── velodyne
|   │   │   ├── label_2

执行

代码语言:javascript
复制
mkdir ./data/kitti/ && mkdir ./data/kitti/ImageSets

# 下载数据划分文件
wget -c  https://raw.githubusercontent.com/traveller59/second.pytorch/master/second/data/ImageSets/test.txt --no-check-certificate --content-disposition -O ./data/kitti/ImageSets/test.txt
wget -c  https://raw.githubusercontent.com/traveller59/second.pytorch/master/second/data/ImageSets/train.txt --no-check-certificate --content-disposition -O ./data/kitti/ImageSets/train.txt
wget -c  https://raw.githubusercontent.com/traveller59/second.pytorch/master/second/data/ImageSets/val.txt --no-check-certificate --content-disposition -O ./data/kitti/ImageSets/val.txt
wget -c  https://raw.githubusercontent.com/traveller59/second.pytorch/master/second/data/ImageSets/trainval.txt --no-check-certificate --content-disposition -O ./data/kitti/ImageSets/trainval.txt

python tools/create_data.py kitti --root-path ./data/kitti --out-dir ./data/kitti --extra-tag kitti

二、测试模型

代码语言:javascript
复制
# 单块显卡测试
python 
    tools/test.py 
        ${CONFIG_FILE} 
        ${CHECKPOINT_FILE} 
        [--out ${RESULT_FILE}] 
        [--eval ${EVAL_METRICS}] 
        [--show]
        [--show-dir ${SHOW_DIR}] 

# 多块显卡测试
./tools/dist_test.sh 
    ${CONFIG_FILE} 
    ${CHECKPOINT_FILE} 
    ${GPU_NUM} 
    [--out ${RESULT_FILE}] 
    [--eval ${EVAL_METRICS}]

可选参数:

  • RESULT_FILE:输出结果(pickle 格式)的文件名,如果未指定,结果不会被保存。
  • EVAL_METRICS:在结果上评测的项,不同的数据集有不同的合法值。具体来说,我们默认对不同的数据集都使用各自的官方度量方法进行评测,所以对 nuScenes、Lyft、ScanNet 和 SUNRGBD 这些数据集来说在检测任务上可以简单设置为 mAP;对 KITTI 数据集来说,如果我们只想评测 2D 检测效果,可以将度量方法设置为 img_bbox;对于 Waymo 数据集,我们提供了 KITTI 风格(不稳定)和 Waymo 官方风格这两种评测方法,分别对应 kittiwaymo,我们推荐使用默认的官方度量方法,它的性能稳定而且可以与其它算法公平比较;同样地,对 S3DIS、ScanNet 这些数据集来说,在分割任务上的度量方法可以设置为 mIoU
  • --show:如果被指定,检测结果会在静默模式下被保存,用于调试和可视化,但只在单块GPU测试的情况下生效,和 --show-dir 搭配使用。
  • --show-dir:如果被指定,检测结果会被保存在指定文件夹下的 ***_points.obj***_pred.obj 文件中,用于调试和可视化,但只在单块GPU测试的情况下生效,对于这个选项,图形化界面在你的环境中不是必需的。

示例:

代码语言:javascript
复制
CONFIG_FILE="configs/mvxnet/dv_mvx-fpn_second_secfpn_adamw_2x8_80e_kitti-3d-3class.py"
CHECKPOINT_FILE="checkpoints/dv_mvx-fpn_second_secfpn_adamw_2x8_80e_kitti-3d-3class_20200621_003904-10140f2d.pth"
RESULT_FILE="assets/result.pickle"
EVAL_METRICS="img_bbox"
SHOW_DIR="assets/kitti_pred/"

python \
    tools/test.py \
        ${CONFIG_FILE} \
        ${CHECKPOINT_FILE} \
        --eval ${EVAL_METRICS} \
        --show \
        --show-dir ${SHOW_DIR}

注意 图像显示接口还不太稳定,需要大量调试。加上 --show 绘制多模态检测框会报错。如果需要得到检测图像,可以使用 demo/multi_modality_demo.py 生成。

三、训练模型

代码语言:javascript
复制
# 使用单块显卡进行训练
python
    tools/train.py 
        ${CONFIG_FILE} 
        [optional arguments]

# 使用多块显卡进行训练
./tools/dist_train.sh 
    ${CONFIG_FILE} 
    ${GPU_NUM} 
    [optional arguments]

可选参数:

  • --no-validate不推荐):默认情况下,代码在训练阶段每 k(默认值是1,可以像这里一样修改)个周期做一次评测,如果要取消评测,使用 --no-validate
  • --work-dir ${WORK_DIR}:覆盖配置文件中的指定工作目录。
  • --resume-from ${CHECKPOINT_FILE}:从之前的模型权重文件中恢复。
  • --options 'Key=value':覆盖使用的配置中的一些设定。
代码语言:javascript
复制
CONFIG_FILE="configs/mvxnet/dv_mvx-fpn_second_secfpn_adamw_2x8_80e_kitti-3d-3class.py"

python \
    tools/train.py \
        ${CONFIG_FILE}

四、开发模型

官方:自定义模型

通常把模型的各个组成成分分成6种类型:

  • 编码器(encoder):包括 voxel layer、voxel encoder 和 middle encoder 等进入 backbone 前所使用的基于 voxel 的方法,如 HardVFE 和 PointPillarsScatter。
  • 骨干网络(backbone):通常采用 FCN 网络来提取特征图,如 ResNet 和 SECOND。
  • 颈部网络(neck):位于 backbones 和 heads 之间的组成模块,如 FPN 和 SECONDFPN。
  • 检测头(head):用于特定任务的组成模块,如检测框的预测和掩码的预测。
  • RoI 提取器(RoI extractor):用于从特征图中提取 RoI 特征的组成模块,如 H3DRoIHead 和 PartAggregationROIHead。
  • 损失函数(loss):heads 中用于计算损失函数的组成模块,如 FocalLoss、L1Loss 和 GHMLoss。

mmdetection3d/mmdet3d/models/ 中创建对应位置的模型组成成分,然后在配置文件中进行配置。

五、配置文件修改

X、补充

官方教程:实用工具与脚本

代码语言:javascript
复制
# 显示载入的数据和真值标签
python 
    tools/misc/browse_dataset.py 
        ${CONFIG_FILE} 
        --task ${TASK}
        --output-dir ${OUTPUT_DIR} 
        [--online]

可选参数

  • online:事实显示结果。需要图形化界面支持,同时需要安装open3d==0.9.0.0

示例:

代码语言:javascript
复制
# 显示 2D 图像以及投影的 3D 边界框,多模态 MVXNET

TASK="multi_modality-det"
CONFIG_FILE="configs/mvxnet/dv_mvx-fpn_second_secfpn_adamw_2x8_80e_kitti-3d-3class.py"
OUTPUT_DIR="assets/kitti_true"

python \
    tools/misc/browse_dataset.py \
        ${CONFIG_FILE} \
        --task ${TASK} \
        --output-dir ${OUTPUT_DIR} 

注意 官方版本的 mvxnet 配置中缺少必要的检测框信息,需要做如下修改:

代码语言:javascript
复制
# 将配置中的 eval_pipeline 中的
dict(type='Collect3D', keys=['points', 'img'])

# 增加 'gt_bboxes_3d'。
dict(type='Collect3D', keys=['points', 'gt_bboxes_3d', 'img'])
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-03-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、数据预处理
  • 二、测试模型
  • 三、训练模型
  • 四、开发模型
  • 五、配置文件修改
  • X、补充
相关产品与服务
图像处理
图像处理基于腾讯云深度学习等人工智能技术,提供综合性的图像优化处理服务,包括图像质量评估、图像清晰度增强、图像智能裁剪等。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档