首页
学习
活动
专区
工具
TVP
发布

红色石头的机器学习之路

专栏作者
237
文章
217820
阅读量
54
订阅数
中国台湾大学林轩田机器学习基石课程学习笔记2 -- Learning to Answer Yes/No
本文介绍了线性感知机模型,以及解决这类感知机分类问题的简单算法:PLA。详细证明了对于线性可分问题,PLA可以停下来并实现完全正确分类。对于不是线性可分的问题,可以使用PLA的修正算法Pocket Algorithm来解决。
红色石头
2017-12-28
7000
中国台湾大学林轩田机器学习基石课程学习笔记6 -- Theory of Generalization
本文主要介绍了如何通过分析一个机器学习算法在训练集和验证集上的表现,来推断该算法在未见过的数据上的性能表现。这个过程被称为泛化。作者通过一个2D perceptron模型来演示如何通过在训练数据上学习一个分割超平面,来对新的数据点进行分类。通过推导和数学证明,得到了一个称为Vapnik-Chervonenkis(VC) bound的结果,该结果提供了一个关于算法泛化性能的上界。这一理论框架为后来的机器学习算法,如支持向量机、神经网络等,提供了重要的基础。
红色石头
2017-12-28
6200
中国台湾大学林轩田机器学习基石课程学习笔记7 -- The VC Dimension
本文介绍了VC Dimension在机器学习中的概念和应用,以及其在Perceptron算法中的计算方法。通过实验,我们得知选取合适的VC Dimension能够提高模型的泛化能力。同时,文章还探讨了VC Dimension在实际应用中的一些问题,如样本复杂度、模型复杂度等。
红色石头
2017-12-28
7730
中国台湾大学林轩田机器学习基石课程学习笔记5 -- Training versus Testing
本文探讨了机器学习的可行性,并分析了影响机器学习可行性的因素。文章还介绍了2D感知器模型的机器学习可行性,并探讨了如何通过成长函数来衡量机器学习的可行性。最后,文章提出了一个猜想,即2D感知器的成长函数与break point之间存在某种关系。
红色石头
2017-12-28
7980
中国台湾大学林轩田机器学习基石课程学习笔记8 -- Noise and Error
本文主要介绍了在数据有噪声的情况下,如何通过机器学习算法来推断出目标函数,并介绍了两种错误测量方法和一种算法复杂度测量方法。
红色石头
2017-12-28
7020
Ubuntu 16.04 Spark单机环境搭建
红色石头
2017-12-28
9810
中国台湾大学林轩田机器学习基石课程学习笔记9 -- Linear Regression
本文介绍了线性回归算法的理论基石,包括线性回归的数学表达、线性回归的求解方法、最小二乘法的推导、最小二乘法的几何意义以及线性回归的求解过程。同时,本文还介绍了线性回归算法的应用,包括基于线性回归算法的预测模型、基于线性回归算法的分类算法以及线性回归算法的求解策略。最后,本文还探讨了线性回归算法在机器学习中的地位和作用,并给出了一些未来研究方向。
红色石头
2017-12-28
7460
中国台湾大学林轩田机器学习基石课程学习笔记15 -- Validation
本文介绍了Validation验证,包括Validation的常见方法、使用场景、注意事项以及如何进行模型选择。同时,本文还通过一个手写数字识别的例子,详细讲解了Validation的具体实施过程。
红色石头
2017-12-28
8780
中国台湾大学林轩田机器学习基石课程学习笔记10 -- Logistic Regression
本文介绍了逻辑回归(Logistic Regression)算法的基本原理、训练过程以及总结。首先,作者通过一个简单的例子,介绍了逻辑回归算法的基本思想,即如何通过已知的特征来预测一个二元分类的结果。然后,作者详细介绍了逻辑回归算法的实现过程,包括如何构建模型、如何利用训练数据进行学习以及如何评估模型的性能。最后,作者对逻辑回归算法进行了总结,并介绍了梯度下降算法和基于梯度下降的Logistic Regression算法。
红色石头
2017-12-28
7490
中国台湾大学林轩田机器学习基石课程学习笔记14 -- Regularization
本文介绍了机器学习中Regularization技术的原理和应用,包括L1正则化和L2正则化,以及它们在逻辑回归、线性回归、神经网络等模型中的应用。同时,还探讨了如何选取合适的λ来获得最佳的模型性能。
红色石头
2017-12-28
7070
中国台湾大学林轩田机器学习基石课程学习笔记11 -- Linear Models for Classification
本文介绍了分类问题的三种线性模型:linear classification、linear regression和logistic regression。首先介绍了这三种linear models都可以用来进行binary classification,然后介绍了比梯度下降算法更加高效的SGD算法来进行logistic regression分析,最后讲解了两种多分类方法,一种是OVA,另一种是OVO。这两种方法各有优缺点,当类别数量k不多的时候,建议选择OVA,以减少分类次数。
红色石头
2017-12-28
6930
中国台湾大学林轩田机器学习基石课程学习笔记13 -- Hazard of Overfitting
本文介绍了机器学习中过拟合和欠拟合的概念,以及如何解决过拟合问题。作者通过实验和分析,得出了在数据量不足的情况下,使用数据增强能够很好地解决过拟合问题。同时,对于模型复杂度不足的情况,可以通过增加模型复杂度来解决过拟合问题。在实际应用中,可以通过数据清洗、数据增强、模型正则化等方式来解决过拟合问题,提高模型的泛化能力。
红色石头
2017-12-28
6730
中国台湾大学林轩田机器学习技法课程学习笔记1 -- Linear Support Vector Machine
关于中国台湾大学林轩田老师的《机器学习基石》课程,我们已经总结了16节课的笔记。这里附上基石第一节课的博客地址: 中国台湾大学林轩田机器学习基石课程学习笔记1 – The Learning Pr
红色石头
2017-12-28
7940
中国台湾大学林轩田机器学习基石课程学习笔记12 -- Nonlinear Transformation
上一节课,我们介绍了分类问题的三种线性模型,可以用来解决binary classification和multiclass classification问题。本节课主要介绍非线性的模型来解决分类问题。
红色石头
2017-12-28
6200
中国台湾大学林轩田机器学习技法课程学习笔记2 -- Dual Support Vector Machine
上节课我们主要介绍了线性支持向量机(Linear Support Vector Machine)。Linear SVM的目标是找出最“胖”的分割线进行正负类的分离,方法是使用二次规划来求出分类线。本
红色石头
2017-12-28
6210
中国台湾大学林轩田机器学习基石课程学习笔记16(完结) -- Three Learning Principles
本文主要介绍了机器学习中的三个重要锦囊妙计:Occam’s Razor, Sampling Bias, Data Snooping。这些方法可以帮助我们在机器学习模型选择中避免一些常见的错误和陷阱。同时,作者还介绍了机器学习中的三个理论保证:Hoeffding、Multi-Bin Hoeffding和VC。这些理论保证为我们提供了机器学习模型选择中的一些理论指导。最后,作者还介绍了一些机器学习中的工具,包括Feature Transform、Regularization和Validation。这些工具可以帮助我们更好地进行机器学习模型的训练和评估。整个机器学习基石课程笔记总结完毕,后续将会推出机器学习技法的学习笔记,敬请期待!
红色石头
2017-12-28
7310
中国台湾大学林轩田机器学习技法课程学习笔记3 -- Kernel Support Vector Machine
本文介绍了Kernel Support Vector Machine的原理、优点、使用方法以及不同核函数的特点,包括线性核、多项式核、高斯核等。通过本文,读者可以了解到SVM算法的底层实现以及如何使用不同的核函数来提高分类效果。
红色石头
2017-12-28
6720
中国台湾大学林轩田机器学习技法课程学习笔记4 -- Soft-Margin Support Vector Machine
上节课我们主要介绍了Kernel SVM。先将特征转换和计算内积这两个步骤合并起来,简化计算、提高计算速度,再用Dual SVM的求解方法来解决。Kernel SVM不仅能解决简单的线性分类问题,也
红色石头
2017-12-28
7570
中国台湾大学林轩田机器学习技法课程学习笔记5 -- Kernel Logistic Regression
本文介绍了四篇研究论文,分别是:1)基于对抗训练的图像分类方法,提高了准确率;2)使用预训练语言模型作为文本分类器,分类效果显著;3)基于CNN的文本分类方法,利用卷积神经网络提取文本特征;4)基于树的文本分类方法,提出了一种自适应阈值算法。
红色石头
2017-12-28
6380
中国台湾大学林轩田机器学习技法课程学习笔记6 -- Support Vector Regression
上节课我们主要介绍了Kernel Logistic Regression,讨论如何把SVM的技巧应用在soft-binary classification上。方法是使用2-level learnin
红色石头
2017-12-28
9160
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档