首页
学习
活动
专区
工具
TVP
发布

WD学习记录

专栏作者
205
文章
186906
阅读量
40
订阅数
机器学习深度学习 笔试面试题目整理(3)
(2)逻辑回归的基本概念    这个最好从广义线性模型的角度分析,逻辑回归是假设y服从Bernoulli分布。
2018-09-04
1.1K0
机器学习深度学习 笔试面试题目整理(2)
(1) 思想    改变全连接为局部连接,这是由于图片的特殊性造成的(图像的一部分的统计特性与其他部分是一样的),通过局部连接和参数共享大范围的减少参数值。可以通过使用多个filter来提取图片的不同特征(多卷积核)。  (2)filter尺寸的选择    通常尺寸多为奇数(1,3,5,7) 
2018-09-04
1.1K0
牛客网 机器学习题目
SVM核函数:线性核函数、多项式核函数、径向基核函数、高斯核函数、幂指数核函数、拉普拉斯核函数、ANOVA核函数、二次有理核函数、多元二次核函数、逆多元二次核函数以及Sigmoid核函数,傅里叶核,样条核 参考SVM核函数
2018-09-04
1.1K0
机器学习深度学习 笔试面试题目整理(1)
梯度消失:这本质上是由于激活函数的选择导致的, 最简单的sigmoid函数为例,在函数的两端梯度求导结果非常小(饱和区),导致后向传播过程中由于多次用到激活函数的导数值使得整体的乘积梯度结果变得越来越小,也就出现了梯度消失的现象。  梯度爆炸:同理,出现在激活函数处在激活区,而且权重W过大的情况下。但是梯度爆炸不如梯度消失出现的机会多。
2018-09-04
1.4K0
机器学习 学习笔记(24) 序列建模:循环和递归网络
循环神经网络(recurrent nerual network)或RNN是一类用于处理序列数据的神经网络,就像卷积网络是专门用于处理网格化数据X的神经网络。循环神经网络是专门用于处理序列
2018-09-04
1.8K0
机器学习 学习笔记(23) 卷积网络
卷积网络(convolutional network),也叫做卷积神经网络(convolutional neural network,CNN),是一种专门用来处理具有类似网格结构的数据的神经网络。例如时间序列数据(可以认为是在时间轴桑有规律地采样形成的一维网格)和图像数据(可以看做二维的像素网格)。
2018-09-04
1.2K0
机器学习 学习笔记(22) 深度模型中的优化
用于深度模型训练的优化算法与传统的优化算法在几个方面有所不同。机器学习通常是简接作用的,再打所述机器学习问题中,我们关注某些性能度量P,其定义于测试集上并且可能是不可解的。因此,我们只是间接地优化P,我们希望通过降低代价函数
2018-09-04
1.4K0
机器学习 学习笔记(21)深度学习中的正则化
在机器学习中,许多策略被显式的设计来减少测试误差(可能会以增大训练误差为代价)。这些策略统称为正则化。
2018-09-04
1.9K0
机器学习 学习笔记(20)深度前馈网络
深度前馈网络(deep feedforward network),也叫做前馈神经网络(feedforward neural network)或者多层感知机(multilayer perceptron,MLP),是典型的深度学习模型。前馈网络的目标是近似某个函数
2018-09-04
1.6K0
机器学习 学习笔记(19)神经网络
神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。
2018-09-04
5050
机器学习 学习笔记(18) 提升树
提升树是以分类树或回归树为基本分类器的提升方法,提升树被认为是统计学习中性能最好的方法之一。
2018-09-04
8810
机器学习 学习笔记(17) 集成学习
集成学习通过构建并结合多个学习器来完成学习任务,有时候也被称为多分类器系统(multi-classifier system)、基于委员会的学习(committee-based learning)等。
2018-09-04
8240
机器学习 学习笔记(16) 特征选择与稀疏学习
对当前学习任务有用的属性称为相关特征,没什么用的属性称为无关特征,从给定的特征集合中选择出相关特征自己的过程,称为特征选择。
2018-09-04
2.3K0
机器学习 学习笔记(15) 低维嵌入 主成分分析
在高维情形下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临的严重障碍,被称为维数灾难。
2018-09-04
3.8K0
机器学习 学习笔记(14)k近邻学习
k近邻是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个邻居的信息来进行预测。通常在分类任务中可以使用投票法,即选择这k个样本中出现最多的类别标记作为预测结果,在回归任务中可以使用平均法,即将这个k个样本的实值输出标记的平均值作为预测结构,还可以基于距离远近进行加权平均或加权投票,距离越近的样本权重越大。
2018-09-04
3200
机器学习 学习笔记(13)聚类
在无监督学习中,训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础,此类学习任务中研究最多、应用最广的是聚类。
2018-09-04
9320
机器学习 学习笔记(12) EM算法
在实际情况中,往往会遇到未观测变量,未观测变量的学名是隐变量(latent variable)。令X表示已观测变量集,Z表示隐变量集,
2018-09-04
5730
机器学习 学习笔记(11) 贝叶斯分类器
贝叶斯决策论是在概率框架下实施决策的基本方法。对分类任务来说,在所有相关概率都已知的理想情形下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记,
2018-09-04
1.2K0
机器学习 学习笔记(5) 线性回归
给定数据集D={(x1,y1),(x2,y2),...,(xm,ym)},其中xi=(xi1;xi2;xi3;...;xid),yi是实数。线性回归试图学得一个线性模型以尽可能准确地预测实值输出标记。
2018-09-03
8010
机器学习 学习笔记(3) 梯度下降
梯度下降法是一种常用的一阶优化方法,是求解无约束优化问题最简单、最经典的方法之一。
2018-09-03
4170
点击加载更多
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档