首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Iterative Shrinkage Thresholding Algorithm

    对于一个基本的线性逆问题: y = A x + w (1) {y}={A} {x}+{w}\tag{1} y=Ax+w(1) 其中 A ∈ R M × N A\in \mathbb{R}^{M\times N} A∈RM×N, y ∈ R M × 1 y\in \mathbb{R}^{M\times 1} y∈RM×1, w w w是未知噪声。(1)式可用最小二乘法来求解: x ^ L S = arg ⁡ mi ⁡ x n ∥ A x − y ∥ 2 2 (2) \hat{ {x}}_{L S}=\underset{ {x}}{\arg \operatorname{mi}} n\|{A} {x}-{y}\|_{2}^{2}\tag{2} x^LS​=xargmi​n∥Ax−y∥22​(2) 当 M = N M=N M=N 且 A A A 非奇异时,最小二乘法的解等价于 A − 1 y A^{-1}y A−1y。然而,在很多情况下, A A A 是病态的(ill-conditioned)。最小二乘是一种无偏估计方法,如果系统是病态的,则会导致其估计方差很大,因此最小二乘法不适用于求解病态方程。

    01

    学习July博文总结——支持向量机(SVM)的深入理解(下)

    接上篇博文《学习July博文总结——支持向量机(SVM)的深入理解(上) 》; 三、证明SVM 凡是涉及到要证明的内容和理论,一般都不是怎么好惹的东西。绝大部分时候,看懂一个东西不难,但证明一个东西则需要点数学功底;进一步,证明一个东西也不是特别难,难的是从零开始发明创造这个东西的时候,则显艰难。因为任何时代,大部分人的研究所得都不过是基于前人的研究成果,前人所做的是开创性工作,而这往往是最艰难最有价值的,他们被称为真正的先驱。牛顿也曾说过,他不过是站在巨人的肩上。你,我则更是如此。正如陈希孺院士在他的著作

    09

    最小二乘法的极大似然解释

    最开始学习机器学习的时候,首先遇到的就是回归算法,回归算法里最最重要的就是最小二乘法,为什么损失函数要用平方和,而且还得是最小?仔细想想最小二乘法视乎很合理,但是合理在哪,怎么用数学方法来证明它合理。 J(\theta) = \frac{1}{2}\sum_{i=1}^m(h_\theta(x^{(i)}) - y^{(i)})^2   在真实数据中,一个x值可能对应多个y值,因为实际y值可能是受多种因素影响,所以我们可以假设任意一个x对于的y的真实值服从正态分布。我们什么时候可以认为模型 \begin{equation}\begin{split} L(\theta) &= \prod_{i=1}^m p(y^{(i)}|x{^{(i)};\theta}) \ &=\prod_{i=1}^m \frac{1}{\sqrt{2\pi}\sigma}e^{(-\frac{(y^{(i)}-\theta^Tx{^{(i)}})^2}{2\sigma^2})} \end{split}\end{equation} \   上式中,\frac{1}{2}\sum_{i=1}^m(h_\theta(x^{(i)}) - y^{(i)})^2最小,于是我们就得到了最小二乘。 J(\theta) = \frac{1}{2}\sum_{i=1}^m(h_\theta(x^{(i)}) - y^{(i)})^2   其实通过这个公式我们可以求得关于\theta的解析解,可以直接计算出\theta,但我们一般不这么做,因为求解析解过程中需要求矩阵的逆,这是一个非常耗时的工作(时间复杂度\Theta(n^3)),另外矩阵也不一定可逆,一般都是用梯度下降。但我们还是看下如何求\theta的解析解。 J(\theta) = \frac{1}{2}\sum_{i=1}^m(h_\theta(x^{(i)}) - y^{(i)})^2 =\frac{1}{2}(X\theta-y)^T(X\theta-y) 对J(\theta)求一阶导得到梯度。 \begin{equation}\begin{split} \nabla_{\theta} J(\theta) &= \nabla_{\theta} (\frac{1}{2}(X\theta-y)^T(X\theta-y)) \ &= \nabla_{\theta} (\frac{1}{2}(\theta^TX^T-y^T)(X\theta-y)) \ &=\nabla_{\theta}(\frac{1}{2} ( \theta^T X^T X \theta - \theta^T X^T y - y^TX\theta + y^Ty) ) \ &=\frac{1}{2}(2X^TX\theta - X^Ty - (y^TX)^T) \ &= X^TX\theta-X^Ty \end{split}\end{equation} \ 因为J(\theta)是存在极小值的凸函数,什么时候取最小值呢?当然是梯度为0的时候。 X^TX\theta-X^Ty = 0 \ X^TX\theta=X^Ty \ \theta = (X^TX)^{-1}X^Ty

    03

    一文读懂量子机器学习:量子算法基石已经奠定

    【新智元导读】在计算能力增加和算法进步的推动下,机器学习技术已成为从数据中寻找模式的强大工具。量子系统能生产出一些非典型(atypical)模式,而一般认为经典系统无法高效地生产出这些模式。所以,有理由假定,量子计算机在某些机器学习任务上将优于经典计算机。量子机器学习这一研究领域探索如何设计和实现量子软件,如何使量子机器学习速度比经典计算机更快。该领域最近的工作已经建造出了可以担当机器学习程序基石的量子算法,但在硬件和软件方面仍面临巨大挑战。 在人类拥有计算机之前,人类就从数据中寻找模式。托勒密将对星系运动

    06
    领券