首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

深度学习工程师(二)——二分分类与逻辑回归

二分分类

    逻辑回归是一个二分类模型,比如用逻辑回归来判断一张图片是否是小猫。如下图所示,我们的计算机是以红、绿、蓝三种颜色的亮度来表示图片的,计算机是不能理解图像的,所以我们需要把图片转换为计算机方便理解的形式。

    假设上面的小猫图片是64X64大小的,我们把红、绿、蓝三个矩阵的所有元素全部取出,构成一个特征向量,就像下面这个样子。他是一个n=12288维的特征向量,好像维数比较大。

    这只是一个样本,我们每一个样本使用的是列向量,所以如果有m个样本,那么就可以构建一个nXm的特征矩阵,每一列就是一个训练样本;相应的y标签,就是一个1Xm的特征向量,图中右上角的数字表示第几个。

逻辑回归

    逻辑回归是一个监督学习算法,输出的y标签是1或者0,即一个二元分类问题。比如我们输入的x值是一张图片的特征向量,我们想要这个算法给我们预测这张图片是否是猫,更准确的说,我们希望这个算法给出的是一个概率,取值范围为0~1之间。

    我们的输入x是特征向量,训练标签y是0或者1。逻辑回归函数的权重(参数)为w,也是一个n维的向量;b是一个实数,最终我们可以得到一个像下图表示的线性函数。

    但是很明显,上面的函数取值不是介于0~1之间的,所以我们还需要对这个函数做进一步的处理,于是可以将sigmoid函数作用在上述函数上面,它是一个光滑的连续函数。

    上图是sigmoid函数的大致形状,这个函数相信都很熟悉,它在z=0时的取值为0.5,z值越大,概率趋近于1;z值越小,概率越趋近于0。而此处我们的z又代表逻辑回归函数。最后我们可以得到图下图所示的算法。

    当我们实现逻辑回归时,实际上是在学习w和b,如果是二维的,就是我们初中所学的线性回归了,不过咱们一般还是高维的。我们在使用神经网络时,更多的是将w和b两个参数分开。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180526G1CNFL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券