首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习(4)——逻辑回归Logistic回归softmax回归

机器学习(4)——逻辑回归Logistic回归softmax回归

作者头像
DC童生
发布2018-04-27 17:43:22
1.6K0
发布2018-04-27 17:43:22
举报
文章被收录于专栏:机器学习原理机器学习原理

前言:这里是分类问题,之所以放到线性回归的下面介绍,是因为逻辑回归的步骤几乎是和前面一样的,写出目标函数,找到损失函数,求最小值,求解参数,建立模型,模型评估。分类算法,概率模型,返回的是属于这类模型的概率多大,交叉对数损失函数,其微分方程和梯度下降一样 softmax分类,解决数据不平均的问题,提高准确率

Logistic回归

  • sogmid函数
  • 损失函数函数 解决二分类问题,训练模型,输出属于该目标值的概率。

损失函数为使得概率函数最大,则损失函数为:

  • 求解过程

softmax回归

解决多分类问题

  • 写出概率函数:

注:为什么用指数函数,为了表示数据的微小变动引起的概率的指数级增大,

  • 写出损失函数

第一求和符号是指m个样本,第二个k是指,一个样本中y=j时所有的样本概率和,为什么用对数函数?因为0-1范围对数变化率大,

  • 求导

  • 梯度下降求解参数
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.03.10 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Logistic回归
  • softmax回归
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档