我一直在尝试用python实现AndrewNg练习的解决方案,但我不确定为什么我不能让梯度下降正常工作。这是我用来做梯度下降的代码: def gradientDescent(x, y, theta, alpha, num_iter): for i in range:array([[0.05839135],[0.6532885 ]]) 必需值为:array([[-3.6
最近,我完成了由安德鲁斯·吴( Andrews Ng )执导的“课程”中的ML课程。这是一个很棒的课程。我一直在用八度音阶完成整个课程。但是,与八度相比,蟒蛇很受欢迎。所以,我现在已经开始学习蟒蛇了。我正在使用python实现线性回归。因为我什么都没做。简单地调用线性回归的预定义函数。但是,在八度音阶中,我经常从头开始编写代码。我必须使用梯度<e
我在理解如何在Coursera上提供的机器学习课程上向量化函数时遇到了问题。在课程中,AndrewNg解释说,假设可以向量化为theta乘以x的转置:我的第一个问题是当我在练习中实现它的时候。为什么纸上的向量化是θ乘以x的转置,而在Octave上是X乘θ?
theta'*X % leads to errors while multiplyi
我是机器学习的新手,愿意学习机器并与机器学习一起工作。只是在某些情况下,与梯度下降相比,我仍然无法理解使用正规方程的好处。我用安德鲁·吴( Andrew )的课程“古瑟拉”,但这个符号确实让我很难理解。
我想知道更多关于多项式回归的成本函数$J(\theta)$的推导,以及他为什么使用向量$x(i)$的转置。