首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

趣读机器学习

总有热心人在替平凡人想着更远大的事儿,比如最近的又火的硅谷新一任扛把子/现实版钢铁侠埃隆·马斯克,一直在思考哪些事情最有可能影响到人类未来;机器学习大佬Chris Albon绘制了一系列关于机器学习的卡片图,他用简洁明了的图文解释ML枯燥的推导,极大解放了诸多深陷ML数学公式理解的ML-er。总而言之:不要尝试记忆,而要尝试去理解;如果你理解了,就自动记住了;空闲的时候看看,你或许就懂了。

下面就选取其中69张卡片进行解读。

范数正则/惩罚

条件概率

如何避免算法过拟合(欠拟合,过拟合,刚刚好)

约定1(符号约定)

trick核(向量机,用核取代点乘)

典型的丢弃率(dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃)

偏导数(一个多变量的函数的偏导数,就是它关于其中一个变量的导数而保持其他变量恒定(相对于全导数,在其中所有变量都允许变化))

验证曲线

Out-of-bag误差

多项式的逻辑回归

类比均值漂移

F1打分

最大值正则

铰链损失(用于支持向量机分类)

决策边界

反向传播

损失函数(代价函数,误差函数)

预处理步骤(训练,测试)

稀疏性

准确率

多重共线性

闵式距离

曼哈顿距离

超平面

one-hot编码

卡方分布(独立同分布于标准正态分布)

线性整流函数(Rectified Linear Unit, ReLU)激活函数

F检验统计量

特征选择中方差

偏置

k最近邻

核主成分分析(Principal components analysis,PCA)

线性判别式分析(Linear Discriminant Analysis, LDA)

基于半径的最近邻分类

前向传播

损失函数的由来

置信区间

vif

T检验统计量

自然对数

感知器

r2

梯度下降

随机森林的随机性

布莱尔分数

岭回归(一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法)

0-1损失函数

k最近邻

平方根

常用数学记号

PCA

参数模型的论据

softmax归一化

感知器学习

监督与非监督

过拟合与欠拟合

bagging算法

原生贝叶斯分类

异方差性

单元阶跃激活函数

避免过拟合

贝叶斯定理

克里克语

数据中心分布

L2规范化

模型复杂性

噪声线性整流

支持向量

相关网站:

https://chrisalbon.com/

https://www.reddit.com/user/chrisalbon

https://machinelearningflashcards.com/

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180210G0KN5Y00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券