首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

七月在线机器学习笔记——1

6.23晚,第一课。

整体概念

监督学习——有标签,又分为:分类,回归

无监督学习——没标签,在电商应用比较多

强化学习——有标签,但是Y的反馈延迟,比如围棋,滴滴派单

数据驱动 = 数据 +模型

模型 = 假设函数 + 优化

优化 =损失函数 + 优化算法

线性回归

模型 h(x)=系数转置 * x ,系数和x都是列向量

损失函数 = (每一样本预测值-实际值)的平方和,除以(2*样本数)

注意点:是样本数m,不是系数n。2是为了求导运算方便,没有实际含义。

优化算法,用梯度下降算法,梯度下降中有步长,是一个超参数。

需要加上正则项,以防止过拟合,L2正则化之后,是全部的惩罚函数。

逻辑回归:把正无穷到负无穷的范围转化到(0,1),需要用到sigmoid函数。常用的一种g(z),它的数学特性,g(z)导数=g(z)*(1-g(z))

线性回归——拟合曲线——决策边界

因为数学特性的关系,要方便找到全局最优,所以我们需要重新定义一个新的损失函数

cost(h(x),y)=-logh(x) y=1

cost(h(x),y)=-log(1-h(x)) y=0

h(x)是预测出来的概率,y=1,p越大越好,所以损失函数加符号,y=0,同理。

加Log是因为,每个p连乘,都是小于1的,可能会溢出,所以加Log变成连加。

多分类问题的解决思路:

one vs one 4种东西就要做6个分类器

one vs rest 4种东西就要做4个分类器

LR应用经验:

可解释性强,训练快,添加特征简单,输出概率可以排序。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180624G0EP6L00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券