每天十分钟机器学习之七:代价函数的直观理解之二

回顾上一讲中,为了将代价函数可视化,我们将使用一个简化地假设函数hθ(x)=θ1x(令θ0=0,类似y=kx这样一个函数),通过θ1取不同的值,我们可以看出代价函数J(θ1)是一个关于θ1的二次曲线,在这个曲线一定能找到合适的θ1让代价函数J(θ1)达到最小值,如下图。

这一讲中,我们将更深入地学习代价函数的作用:θ0和θ1都不为零的情况。代价函数的样子如下图,可以看出在三维空间中存在一个使得J(θ0,θ1)最小的点。

如果要充分理解上面的三维图形,必须要理解等高线的概念,下图中右图就是等高线,对于上面的图像,你可以想像是一座倒立的小山,我们拿一把很牛的激光刀,水平等间距的切它,把每个切面投影到水平地面,下图右侧中最里面的小红点就是使代价函数达到最小值的点,就是这一点的θ0和θ1取值,使得原假设函数h(x)拟合最好,如下图中左图所示。

现实中我们会遇到更复杂、更高维度、更多参数的情况,而这些情况是很难画出图的,因此更无法将其可视化,所以我们需要的是编写程序来找出这些最小化代价函数的θ和θ1的值,好的下一节开始介绍这些方法。

祝您的机器学习之旅愉快!

本文参考资料:斯坦福吴恩达老师的机器学习讲义,图片直接来自讲义;

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181105G1CZGL00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券