首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

每天十分钟机器学习之五:代价函数的定义

上一讲中提到了单变量的预测函数,就是这样的线性函数形式:

上面的公式中有两个参数:θ和θ1,如果把上式看成是一条直线的话,那么这两个参数便是直线的斜率和在y轴上的截距,这个大家应该不难理解。

吴恩达老师的原话:选择的参数决定了我们得到的直线相对于训练集的准确程度,模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差(modelingerror),也就是下图中的y(i)和hθ(xi)之间的差距。

那么代价函数的定义就是建模误差的平方和:

代价函数知道了,接下来的目标是什么,找到合适的参数使其代价函数最小。

我们绘制一个等高线图,三个坐标分别为θ和θ1和J(θ0,θ1):

则可以看出在三维空间中存在一个使得 J(θ0,θ1)最小的点。

代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。还有其他的代价函数也能很好地发挥作用,但是平方误差代价函数可能是解决回归问题最常用的手段了。

也许这个函数J(θ0,θ1)有点抽象,可能你仍然不知道它的内涵,不过不用担心,在接下来的讲解中你会约来越清楚的。

祝您的机器学习之旅愉快!

本文参考资料:斯坦福吴恩达老师的机器学习讲义,图片直接来自讲义。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181031G1DGH700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券