本文是吴恩达《机器学习》视频笔记第8篇,对应第1周第8个视频。
“3Model and Cost Function5_Cost Function - Intuition I”
01
—
视频
02
—
笔记
上一视频中给出了代价函数的数学定义,即估计值与实际值的差。也就是我们有自变量x,用模型算出对应的输出,和这个x对应的实际的输出y之差。
以一元线性模型为例:
假设函数有两个参数,表现为平面直角坐标系中的直线。我们的目标就是调整这两个参数让代价函数(cost function)最小。
利用我们初中时学过的知识,通过平移坐标系,我们有办法让第一个参数为零,只需要考虑直线的斜率就行了,也就是说我们可以让代价函数变得更简单一点。
这里有两个函数,分别是模型描述的函数h(x),和与之有关的代价函数J.
如下图,这两个函数比较有意思的是:每个
在左边的坐标系中确定一条直线,而对应右边坐标系中的一个点。如果我们找到右边最小点对应的那个\theta, 我们也就找到了左边能最好拟合测试样本的那条最靓的直线。
那么,代价函数的作用也就很明显了,通过代价函数的帮助,我们可以把求最好的那个拟合直线的问题变成一个求极值点的问题,复杂的问题好像简单化了。
那是不是这样呢?还要继续往下学习。