首页
学习
活动
专区
工具
TVP
发布

AI机器学习与深度学习算法

专栏作者
223
文章
406204
阅读量
53
订阅数
详解 Numpy 中的视图和副本
在编程的过程中很可能会使用到原数组,这就涉及到视图和副本的概念,简单来说视图与副本是使用原数组的两种不同的方式。
触摸壹缕阳光
2020-08-25
1K0
机器学习入门 7-9 人脸识别与特征脸
本系列是《玩转机器学习教程》一个整理的视频笔记。本章的最后一个小节介绍PCA在人脸识别领域的一个特殊的应用,也就是所谓的特征脸。本小节会介绍什么是特征脸,并通过可视化的方式直观的感受特征脸。
触摸壹缕阳光
2019-11-23
1.1K0
机器学习入门 6-9 有关梯度下降法的更多深入讨论
本系列是《玩转机器学习教程》一个整理的视频笔记。这是梯度下降法的最后一小节,这一小节对梯度下降法做一个总结。
触摸壹缕阳光
2019-11-13
1.3K4
机器学习入门 7-1 什么是主成分分析法PCA?
本系列是《玩转机器学习教程》一个整理的视频笔记。本小节主要介绍什么是主成分分析法PCA。
触摸壹缕阳光
2019-11-13
9680
机器学习入门 7-8 使用PCA对数据进行降噪
根据上面虚拟数据集展示出来的分布判断这个数据集实际情况可能就是一根直线。因此,这个数据集展现的是在一根直线的上下进行抖动式的分布,而这种抖动和这根直线本身之间的距离就是噪声,而产生这种噪声的因素有很多:
触摸壹缕阳光
2019-11-13
2.8K0
机器学习入门 7-6 scikit-learn中的PCA
sklearn封装的PCA与前几个小节我们自己封装的PCA,虽然他们大体流程基本一致,但是他们之间还是有很多不同的地方。
触摸壹缕阳光
2019-11-13
8740
机器学习入门 7-5 高维数据映射为低维数据
我们此时有一个m行n列的样本矩阵X,此时的X样本矩阵代表有m个样本n个特征。通过前面的关于主成分的学习,此时假设我们已经求出针对X样本矩阵来说前k个主成分,每一个主成分对应的一个单位方向,用W矩阵来表示,此时的W矩阵为k行n列,代表前k个主成分,每一个主成分有n个元素。在上一小节提到主成分分析的本质就是从一组坐标系转移到另外一组新的坐标系的过程,而由于我们原来为n维坐标系,因此转换之后的坐标系也有n个维度,只不过对于转换后的坐标系来说,取出前k个更加重要的方向,因此W是k行n列的矩阵。
触摸壹缕阳光
2019-11-13
3.1K0
机器学习入门 7-4 求数据的前n个主成分
前几个小节我们将二维样本映射到一个轴上,使得映射后的样本在这个轴上的方差最大,通过公式推导将求方差最大转换为最优化问题,进而使用基于搜索策略的梯度上升法来求解。下图红色的轴就是使用梯度上升法求解出来的第一个主成分。
触摸壹缕阳光
2019-11-13
4510
机器学习入门 7-3 求数据的主成分pca
首先创建一个虚拟的测试样本,样本具有两个特征,并且两个特征之间具有相应的线性关系。这里之所以让两个特征之间具有一定的线性关系是因为对这样的两个特征进行降维效果会比较明显。
触摸壹缕阳光
2019-11-13
5770
机器学习入门 7-2 使用梯度上升法求解主成分分析
优化中有最小化的损失函数以及最大化的效用函数,在一般情况下使用g(X)来表示损失函数,因此此处的最大化效用函数使用f(X)来表示。其实梯度上升法和梯度下降法的基本原理是一样的,只不过梯度下降法参数更新向着梯度下降的方向,而梯度上升法参数更新向着梯度上升的方向,推导的公式都是一致的"下一个参数值 = 当前参数值 - 学习率 * 梯度"。因此不论是梯度下降法还是梯度上升法最重要的还是要求目标函数对参数的梯度。
触摸壹缕阳光
2019-11-13
6910
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档