前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【图像分割】LabelMe基本使用/标注标签格式转换及可视化

【图像分割】LabelMe基本使用/标注标签格式转换及可视化

作者头像
zstar
发布2023-04-27 14:21:55
8.1K0
发布2023-04-27 14:21:55
举报
文章被收录于专栏:往期博文

前言

之前一直在做目标检测的相关内容,使用LabelImg标注检测数据轻车熟路。不过最近尝试探索一下图像分割场景,需要用到LabelMe标注用于分割的数据标签,本文进行过程记录。

图像分割数据标签示例

以道路分割为例,下图是deepglobe数据集中的一组数据,右侧是卫星拍摄影像,左侧为该影像标签,以Mask的方式来标注出图像。

LabelMe安装

安装很简单,用pip安装即可:

代码语言:javascript
复制
pip install labelme

数据准备

在启动之前,先按照下面目录整理好数据位置:

  • annotations:空文件夹,准备用来保存标注后的标签
  • images:放置图片,将图片数据拷贝到里面
  • label.txt:这个主要用来预先设定类别 label.txt文件内容如下:
代码语言:javascript
复制
__ignore__
_background_
road

前行内容固定,和后面处理脚本相关,第三行开始为类别名称,我这里只需要分割道路,因此就一个road类别。

软件使用

首先在Anaconda Prompt里面进入到数据文件根目录:

代码语言:javascript
复制
cd D:\Dataset\road_dataset

然后启动labelme:

代码语言:javascript
复制
labelme --labels label.txt

选择OpenDir导入图片:

设置标签输出文件夹:

`

设定为之前建的annotations

点击Create Polygons(快捷键Ctrl+N),围绕目标点一圈,类似PS里的抠图,首尾相连,保存即可。

格式转换

标注完之后,可以得到json格式的标签。 下面需要根据该标签进行格式转换,得到图像类型的标签。

下面这段转换代码修改自labelme官方仓库,主要修改了文件加载逻辑和路径:

代码语言:javascript
复制
#!/usr/bin/env python

from __future__ import print_function

import argparse
import glob
import os
import os.path as osp

import imgviz
import numpy as np

import labelme


def main():
    parser = argparse.ArgumentParser(
        formatter_class=argparse.ArgumentDefaultsHelpFormatter
    )
    parser.add_argument("--input_dir", default="D:/Dataset/road_dataset/annotations", help="input annotated directory")
    parser.add_argument("--output_dir", default="D:/Dataset/road_dataset", help="output dataset directory")
    parser.add_argument("--labels", default="D:/Dataset/road_dataset/label.txt", help="labels file")
    args = parser.parse_args()
    args.noviz = False

    if not osp.exists(args.output_dir):
        os.makedirs(args.output_dir)
    os.makedirs(osp.join(args.output_dir, "JPEGImages"))
    os.makedirs(osp.join(args.output_dir, "SegmentationClass"))
    os.makedirs(osp.join(args.output_dir, "SegmentationClassPNG"))

    if not args.noviz:
        os.makedirs(
            osp.join(args.output_dir, "SegmentationClassVisualization")
        )
    print("Creating dataset:", args.output_dir)

    class_names = []
    class_name_to_id = {}
    for i, line in enumerate(open(args.labels).readlines()):
        class_id = i - 1  # starts with -1
        class_name = line.strip()
        class_name_to_id[class_name] = class_id
        if class_id == -1:
            assert class_name == "__ignore__"
            continue
        elif class_id == 0:
            assert class_name == "_background_"
        class_names.append(class_name)
    class_names = tuple(class_names)
    print("class_names:", class_names)
    out_class_names_file = osp.join(args.output_dir, "class_names.txt")
    with open(out_class_names_file, "w") as f:
        f.writelines("\n".join(class_names))
    print("Saved class_names:", out_class_names_file)

    for filename in glob.glob(osp.join(args.input_dir, "*.json")):
        print("Generating dataset from:", filename)

        label_file = labelme.LabelFile(filename=filename)

        base = osp.splitext(osp.basename(filename))[0]
        out_img_file = osp.join(args.output_dir, "JPEGImages", base + ".jpg")
        out_lbl_file = osp.join(
            args.output_dir, "SegmentationClass", base + ".npy"
        )
        out_png_file = osp.join(
            args.output_dir, "SegmentationClassPNG", base + ".png"
        )
        if not args.noviz:
            out_viz_file = osp.join(
                args.output_dir,
                "SegmentationClassVisualization",
                base + ".jpg",
            )

        with open(out_img_file, "wb") as f:
            f.write(label_file.imageData)
        img = labelme.utils.img_data_to_arr(label_file.imageData)

        lbl, _ = labelme.utils.shapes_to_label(
            img_shape=img.shape,
            shapes=label_file.shapes,
            label_name_to_value=class_name_to_id,
        )
        labelme.utils.lblsave(out_png_file, lbl)

        np.save(out_lbl_file, lbl)

        if not args.noviz:
            viz = imgviz.label2rgb(
                lbl,
                imgviz.rgb2gray(img),
                font_size=15,
                label_names=class_names,
                loc="rb",
            )
            imgviz.io.imsave(out_viz_file, viz)


if __name__ == "__main__":
    main()

运行之后,会多出几个文件夹:

  • JPEGImages:原始图像
  • SegmentationClass:npy格式label
  • SegmentationClassPNG:掩码图像
  • SegmentationClassVisualization:掩码图像和实景图像叠加显示
  • class_names.txt:全部类别(包括背景)

标签可视化

对于此任务,我仅需要白色掩码图像,但是labelme的mask可视化没给相关颜色接口。 因此自己用opencv重撸一个mask可视化程序:

代码语言:javascript
复制
import json
import cv2
import numpy as np
from tqdm import tqdm
import os

fill_color = (255, 255, 255)
root_dir = 'D:/Dataset/road_dataset'


def visualize_one(label_name):
    with open(root_dir + '/annotations' + '/' + label_name + '.json', 'r') as obj:
        dict = json.load(obj)
    img = cv2.imread(root_dir + '/images' + '/' + label_name + '.jpg')
    for label in dict['shapes']:
        points = np.array(label['points'], dtype=np.int32)
        black_img = np.zeros(img.shape)
        cv2.polylines(black_img, [points], isClosed=True, color=fill_color, thickness=1)
        cv2.fillPoly(black_img, [points], color=fill_color)

    cv2.imwrite(root_dir + '/labels' + '/' + label_name + '.jpg', black_img)


if __name__ == '__main__':
    os.mkdir(root_dir + '/labels')
    for i in tqdm(os.listdir(os.path.join(root_dir, "annotations"))):
        label_name = i[:-5]
        visualize_one(label_name)

运行之后,可以顺利得到相应的标签。

参考

[1] Labelme分割标注软件使用 https://blog.csdn.net/qq_37541097/article/details/120162702

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-04-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 图像分割数据标签示例
  • LabelMe安装
  • 数据准备
  • 软件使用
  • 格式转换
  • 标签可视化
  • 参考
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档