前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >语义分割

语义分割

作者头像
用户1148525
发布2019-05-26 11:52:10
4340
发布2019-05-26 11:52:10
举报
文章被收录于专栏:机器学习、深度学习

LinkNet: Exploiting Encoder Representations for Efficient Semantic Segmentation

https://arxiv.org/abs/1707.03718

Torch7 code: https://github.com/e-lab/LinkNet

本文主要侧重语义分割的速度问题,算法思路类似 U-Net,引入了 residual blocks

LinkNet Architecture

这里写图片描述
这里写图片描述

conv means convolution 和 full-conv means full convolution /2 denotes downsampling by a factor of 2 which is achieved by performing strided convolution 降采样2倍 ∗2 means upsampling by a factor of 2 上采样2倍

输入图像首先使用一个 7*7的卷积核卷积,再用一个 步长为2的 3*3 spatial max-pooling

encoder-block 如下:

这里写图片描述
这里写图片描述

decoder-block 如下:

这里写图片描述
这里写图片描述

各个模块特征图数量:

这里写图片描述
这里写图片描述

首先来看看速度如何:

这里写图片描述
这里写图片描述

模型大小和运算量:

这里写图片描述
这里写图片描述

再来看看性能

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017年07月14日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档