语义分割--Global Deconvolutional Networks for Semantic Segmentation

语义分割 Global Deconvolutional Networks for Semantic Segmentation BMVC 2016 https://github.com/DrSleep/GDN

基于CNN的语义分割在近两年得到飞速的发展,但是这种 pixel-wise labelling with CNNs has its own unique challenges: 特征图的精确放大 + context 信息的嵌入 1)an accurate deconvolution, or upsampling, of low-resolution output into a higher-resolution segmentation mask 2)an inclusion of global information, or context, within locally extracted features

本文提出一个网络结构 Global Deconvolutional Network 解决这两个问题。本文的模型最大亮点是在保持较高精度同时 significantly 降低了模型的参数量

3 Global Deconvolutional Network 3.1 Baseline Models 这里我们选择了两个开源的基准分割模型: FCN-32s and DeepLab ,他们两个都是基于 VGG 16-layer net,将全连接层变为卷积层,目标函数用 pixel-wise softmax loss 表示

3.2 Global Interpolation 输入图像经过一系列卷积和池化后得到一个 encoded image,其尺寸降采样很多。为了输出原始图像尺寸的分割图像,我们需要同时对这个 encoded image 进行 decode and upsample。 这里我们设计了一个 a learnable global interpolation

假定 x 表示 decoded information, 输入RGB图像为 I , 上采样后的信号为 y

我们的这个上采样不是根据最近的四个点数据信息来计算的,而是包括了更多的信息进来 Opposite to a simple bilinear interpolation, which operates only on the closest four points, the equation above allows to include much more information on the rectangular grid

this operation is differentiable

3.3 Multi-task loss loss functions 定义如下:

本文提出的每个模型其目的都是为了提取全局信息,将其嵌入到网络中去。本文提出的这个插值方法也是有效的上采样方法。 Overall, each component of the proposed approach aims to capture global information and incorporate it into the network, hence the name global deconvolutional network. Besides that, the proposed interpolation also effectively upsamples the coarse output and a nonlinear upsampling can be achieved with the addition of an activation function on the top of the block.

4 Experiments

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏算法channel

最小二乘法原理(后):梯度下降求权重参数

在上一篇推送中总结了用数学方法直接求解最小二乘项的权重参数,然而有时参数是无法直接求解的,此时我们就得借助梯度下降法,不断迭代直到收敛得到最终的权重参数。首先介...

3847
来自专栏SIGAI学习与实践平台

流形学习概述

在很多应用中,数据的维数会很高。以图像数据为例,我们要识别32x32的手写数字图像,如果将像素按行或者列拼接起来形成向量,这个向量的维数是1024。高维的数据不...

1264
来自专栏技术翻译

用数学方法解密神经网络

在本文中,我们将讨论简单神经网络背后的数学概念。其主要目的是说明在建立我们自己的人工智能模型时,数学是如何发挥巨大作用的。

1290
来自专栏jennyxia的专栏

深度学习简易入门

深度学习是机器学习中的一个重要的方向,深度学习其实就是神经网络学习,这里“深度”就是说神经网络中众多的层。那么深度学习是用来干嘛的呢?

4900
来自专栏红色石头的机器学习之路

台湾大学林轩田机器学习基石课程学习笔记10 -- Logistic Regression

上一节课,我们介绍了Linear Regression线性回归,以及用平方错误来寻找最佳的权重向量w,获得最好的线性预测。本节课将介绍Logistic Regr...

2290
来自专栏智能算法

机器学习三人行(系列五)----你不了解的线性模型(附代码)

到目前为止,我们已经将机器学习模型和他们的训练算法大部分视为黑盒子。 如果你经历了前面系列的一些操作,如回归系统、数字图像分类器,甚至从头开始建立一个垃圾邮件分...

37116
来自专栏Spark学习技巧

【深度学习】③--神经网络细节与训练注意点

1. 权重的初始化 1.1 fine-tuning 神经网络的训练的有两种方式,第一种是自己从头到尾训练一遍;第二种是使用别人训练好的模型,然后根据自己的实际需...

4345
来自专栏贾志刚-OpenCV学堂

干货 | MTCNN实时人脸检测网络详解与代码演示

多任务卷积神经网络(MTCNN)实现人脸检测与对齐是在一个网络里实现了人脸检测与五点标定的模型,主要是通过CNN模型级联实现了多任务学习网络。整个模型分为三个阶...

1161
来自专栏机器学习算法工程师

特征工程最后一个要点 : 特征预处理

地址:https://www.cnblogs.com/pinard/p/9093890.html

993
来自专栏和蔼的张星的图像处理专栏

3. 经典卷积网络之GooleInceptionNet

GooleInceptionNet首次出现是在2014年的ILSVRC的比赛中,当时是第一名,最大的特点就是控制计算量的同时获得了比较好的分类性能--top-5...

1412

扫码关注云+社区