前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习算法原理——Softmax Regression

深度学习算法原理——Softmax Regression

作者头像
felixzhao
发布2018-03-20 13:37:08
1.7K0
发布2018-03-20 13:37:08
举报
文章被收录于专栏:null的专栏null的专栏

一、Logistic回归简介

二、Softmax回归

2.1、Softmax回归简介

2.2、Softmax回归的代价函数

2.3、Softmax回归的求解

5、Softmax回归中的参数特点

5、Softmax与Logistic回归的关系

6、多分类算法和二分类算法的选择

有人会觉得对于一个多分类问题,可以使用多个二分类来完成,对于多分类问题是直接选择多分类的分类器还是选择多个二分类的分类器进行叠加,在UFLDL中,作者给出了这样的解释:取决于类别之间是否互斥。

对于一个多分类的问题,是直接选择多分类器直接计算还是选择多个二分类器进行计算取决于问题中类别之间是否互斥。

  • 是互斥的 –> Softmax回归
  • 不是互斥的 –> 多个独立的Logistic回归

对于Softmax回归更多内容,包括实验可见博客简单易学的机器学习算法——Softmax Regression

参考文献

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、Logistic回归简介
  • 二、Softmax回归
    • 2.1、Softmax回归简介
      • 2.2、Softmax回归的代价函数
        • 2.3、Softmax回归的求解
          • 5、Softmax回归中的参数特点
            • 5、Softmax与Logistic回归的关系
              • 6、多分类算法和二分类算法的选择
              • 参考文献
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档