前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >YOLACT++:目前最热门的实时实例分割开源库

YOLACT++:目前最热门的实时实例分割开源库

作者头像
CV君
发布2019-12-27 15:29:41
2.1K0
发布2019-12-27 15:29:41
举报

YOLACT 是ICCV 2019 接收的实时实例分割论文 YOLACT: Real-time Instance Segmentation 提出的算法,近期该文作者又对此进行了扩展,提出YOLACT++:Better Real-time Instance Segmentation,其 resnet50 模型在Titan Xp 上运行速度达 33.5 fps,在COCO 的test-dev数据集上达到34.1 mAP,并开源了代码。

论文作者/代码开发者来自加州大学戴维斯分校。

下图为YOLACT/YOLACT++ 与其他实例分割算法速度和精度的比较:

可见 YOLACT 系列具有较大的速度优势,YOLACT++ 则又在 YOLACT基础上精度提高不少。

以下视频为该文作者在ICCV 2019 公布的实例分割Demo:

这些结果并非后期处理的,而是在GPU上实时运行出来的。

YOLACT 网络架构:

在COCO数据集上与其他算法更详细的比较结果:

YOLACT / YOLACT++ 取得了速度最快的同时,取得了不错的分割精度。

作者已经开源了多个模型:

并提供了代码,可以很方便在COCO数据集上评测性能:

代码语言:javascript
复制
# Display qualitative results on COCO. From here on I'll use a confidence threshold of 0.15.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --display

以及对图像和视频上跑实例分割:

代码语言:javascript
复制
# Display qualitative results on the specified image.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=my_image.png

# Process an image and save it to another file.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=input_image.png:output_image.png

# Process a whole folder of images.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --images=path/to/input/folder:path/to/output/folder
代码语言:javascript
复制
# Display a video in real-time. "--video_multiframe" will process that many frames at once for improved performance.
# If you want, use "--display_fps" to draw the FPS directly on the frame.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --video_multiframe=4 --video=my_video.mp4

# Display a webcam feed in real-time. If you have multiple webcams pass the index of the webcam you want instead of 0.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --video_multiframe=4 --video=0

# Process a video and save it to another file. This uses the same pipeline as the ones above now, so it's fast!
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --video_multiframe=4 --video=input_video.mp4:output_video.mp4

同时该代码也开放了训练程序,开发者可以很轻松在COCO 、Pascal SBD上训练模型,并添加 多GPU 支持。

如果开发者想要在自己的数据集上训练实例分割,只需要有COCO风格的目标检测标注JSON数据即可。

以下是分割结果示例:

论文地址:

https://arxiv.org/pdf/1912.06218.pdf

开源地址:

https://github.com/dbolya/yolact

目前该代码已经获得 2K+ 颗星,是近期最热门的实例分割开源库。


本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-12-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 我爱计算机视觉 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档