首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

收藏!机器学习与深度学习面试问题总结.....

生成模型负责生成最好数据骗过判别模型,而判别模型负责识别出哪些是真的哪些是生成模型生成。但是这些只是在了解了GAN之后才体会到,但是为什么这样会有效呢?...因为我们前面说可以变成软间隔问题,引入了惩罚系数,这样还可以引出hinge损失等价形式(这样可以用梯度下降思想求解SVM了)。我个人认为难地方在于求解参数SMO算法。...用知乎大神解释吧 (6)处理数据偏斜 可以对数量类使得惩罚系数C越小表示越不重视,相反另数量类惩罚系数变大。...4、Boosting和Bagging (1)随机森林 随机森林改变了决策树容易拟合问题,这主要是由两个操作所优化:1、Boostrap从袋内有放回抽取样本值2、每次随机抽取一定数量特征(通常为...解决方法如下: 采样,对小样本加噪声采样,对大样本进行下采样 进行特殊加权,如在Adaboost或者SVM 采用对不平衡数据集不敏感算法 改变评价标准:用AUC/ROC来进行评价 采用Bagging

96670

收藏!机器学习与深度学习面试问题总结.....

生成模型负责生成最好数据骗过判别模型,而判别模型负责识别出哪些是真的哪些是生成模型生成。但是这些只是在了解了GAN之后才体会到,但是为什么这样会有效呢?...因为我们前面说可以变成软间隔问题,引入了惩罚系数,这样还可以引出hinge损失等价形式(这样可以用梯度下降思想求解SVM了)。我个人认为难地方在于求解参数SMO算法。...用知乎大神解释吧 (6)处理数据偏斜 可以对数量类使得惩罚系数C越小表示越不重视,相反另数量类惩罚系数变大。...4、Boosting和Bagging (1)随机森林 随机森林改变了决策树容易拟合问题,这主要是由两个操作所优化:1、Boostrap从袋内有放回抽取样本值2、每次随机抽取一定数量特征(通常为...解决方法如下: 采样,对小样本加噪声采样,对大样本进行下采样 进行特殊加权,如在Adaboost或者SVM 采用对不平衡数据集不敏感算法 改变评价标准:用AUC/ROC来进行评价 采用Bagging

68420
您找到你想要的搜索结果了吗?
是的
没有找到

深度学习相关面试题

图片敏感 3.Upsampling:上采样。...2.dropout是一种CNN训练过程防止拟合提高效果方法 3.dropout带来缺点是可能减慢收敛速度:由于每次迭代只有一部分参数更新,可能导致梯度下降变慢 4.测试时,需要每个权值乘以P...2.early stop 3.参数规则化 4.用更简单模型 5.dropout 6.加噪声 7.预训练网络freeze某几层 6.LSTM防止梯度弥散和爆炸 LSTM用加和方式取代了乘积,使得很难出现梯度弥散...但是相应更大几率会出现梯度爆炸,但是可以通过给梯度加门限解决这一问题 7.为什么很多做人脸Paper最后加入一个Local Connected Conv?...若使用池化层,则降低了特征图size,需在高层阶段使用上采样,由于池化损失信息,所以此方法会影响导致精度降低; 若使用较小卷积核尺寸,虽可以实现输入输出特征图size相同,但输出特征图各个节点感受野小

68020

深度学习方法有哪些?看这篇就够了

训练技巧相关 梯度归一化: 计算出来梯度之后,要除以minibatch数量,这样就不显式依赖minibatch size。 梯度限制: 限制最大梯度,超过阈值乘一个衰减系数,防止梯度爆炸。...传统编码解码结构存在最大问题是:输入序列不论长短都会被编码成一个固定长度向量表示,而解码则受限于该固定长度向量表示,尤其是当输入序列比较长时,模型性能变得很差。...又知sigmoid函数特性是把+∞~-∞之间输入压缩到0~1之间,所以反向传播时,梯度以指数级减小,靠近输入层系数得不到更新,导致梯度弥散。...而如果初始化时候采用|w| > 1 系数,又会导致梯度以指数级增大,靠近输入层系数得到梯度过大,导致梯度爆炸。...为什么LSTM在预防梯度弥散与梯度爆炸上性能由于RNN 传统RNN对状态维护是通过乘积方式,这导致在链式求导梯度时,梯度被表示为连积形式,造成梯度爆炸或弥散。

3.4K30

【小白学AI】八种应对样本不均衡策略

【F-Score和Kappa系数已经在历史文章中讲解啦】 2 10种解决办法 解决办法主要有下面10种不同方法。...下图很形象展示出这个过程: ? ---- 【简单上采样】 就是有放回随机抽取少数量样本,饭后不断复制抽取随机样本,直到少数量样本与多数量样本处于同一数量级。但是这样容易造成拟合问题。...为什么造成拟合呢? 最极端例子就是把一个样本复制100次,这样就有了一个100样本数据库。模型训练出来很可能得到100%正确率,但是这模型真的学到东西了吗?...2.2 调整损失函数 调整损失函数目的本身是为了使模型对少数量样本更加敏感。...3 为什么模型不担心这个问题 要解释这个问题,首先要理解这两个算法拟合样本本质。 逻辑回归算法,采用是经验风险最小化作为模型学习准则,即,他优化目标是最小化模型在训练集上平均损失。

70110

Resnet

采样:在数据量分布不均衡情况下,直接拿这样数据建模容易出问题 直接拿原始数据建模问题在于数量类别容易被分错,而下采样就是在数量类别采取一部分数据作为训练数据去建模。...常见采样方法有EasyEnsemble (数量类别划分为n个子集,之后集成)、 BalanceCascade(多数类样本抽样得来子集与少数类样本结合起来训练一个基学习器H,训练完后多数类能被...在接下来第n+1轮,从被剔除后多数类样本中产生子集用于与少数类样本结合起来训练,最后将不同基学习器集成起来)以及nearmiss(启发式算法) 上采样则往往可以是插值等方式。...decay 不对bias做正则化,可以防止拟合 Label Smoothing one-hot编码无法输出每一个类别的概率信息,通过对标签进行平滑处理,能够增加模型泛化能力 Mixup 典,太经典了...Knowledge Distillation 教师、学生模型 除此之外,还有针对flops操作,但对于“小作坊”,意义似乎不大,至少对我意义不大,此处不再介绍 Explanation 解释一 为什么神经网络无法做到精确变换

14810

特征选择

特征选择特征选择概述Filter 过滤法方差选择法相关系数法卡方检验互信息法Wrapper 包装法稳定性选择(Stability Selection)递归特征消除特征值排序选择Embedded 嵌入法线性模型正则化树模型类别标签不平衡处理欠采样采样加权处理...由于L2惩罚项系数是二次方,这使得L2和L1有着诸多差异,最明显一点就是,L2正则化系数取值变得平均。...所谓采样是指把占比少类别 B 样本数量(N=100)扩增到占比多类别 A 样本数量(M=900)一致,然后进行训练。...第一种方法(随机采样): 由于随机采样采取简单复制样本策略来增加少数类样本,这样容易产生模型拟合问题, 即使得模型学习到信息过于特别(Specific)而不够泛化(General),因此很少使用这种方法...方法, 当由边界样本与其他样本进行采样差值时, 很容易生成一些噪音数据.

1.1K31

【小白学ML】随机森林 全解 (从bagging到variance)

为什么现在还要学习随机森林?...6 随机森林特点 6.1 优点 在当前算法,具有极好准确率 能够运行在大数据上 能够处理具有高维特征输入样本,不需要降维 能够计算各个特征重要度 能够防止拟合 其实在一些大数据竞赛,随机森林也是我第一个尝试模型哦...这里所有的 ,都是从所有数据集中随机采样,所以可以理解为都是服从相同分布。所以不断增加B数量,增加随机森林中树数量,是不会减小模型偏差。...这样可以看出来了,RF数量越多,RF方差第二项不断减小,但是第一项不变。也就是说,第一项就是RF模型偏差下极限了。...虽然也是集成模型,但是可以想到,每一个GBDT树,所学习数据分布都是不同,这意味着在GBDT模型方差随着决策树数量增多,不断地增加。

1.3K10

ResNet与常见ODE初值问题数值解法

我们特意寻找到ResNet梯度爆炸设置,高阶堆叠ResNet同样可以正常快速收敛。 基于这个现象,我们对鲁棒性也进行了进一步测试。...对比两种情况:1,下采样发生在Conv(3,64)阶段,在升维过程,下采样。2.在第一个Conv(64,64)layer下采样。...以实际参数量和符点运算次数相等情况来做公平对比,因此虽然名义上是高阶堆叠ResNet,但由于Block数量不同,在对比过程是完全同层数,深度,参数量和计算量。 ?...自适应系数 二阶,三阶和四阶方法是固定系数,二分之一,三分之二,二加减根号二之类。在更高阶方法,block内中间状态在shortcut出去时候会有抑制系数。...这个系数根据每次迭代返回误差值动态调整。我们目前实验暂时还没有找到一个特别好用变化方法。个人感觉这种形式和SEblock以及多头注意力都有点联系。 数据集 数据集确实太小了,我太穷了嗷。

1.1K40

ResNet详解与分析

我们知道,对浅层网络逐渐叠加layers,模型在训练集和测试集上性能变好,因为模型复杂度更高了,表达能力更强了,可以对潜在映射关系拟合得更好。...如果不是拟合以及梯度消失导致,那原因是什么?...更好解明明存在,为什么找不到?找到反而是更差解? 显然,这是个优化问题,反映出结构相似的模型,其优化难度是不一样,且难度增长并不是线性,越深模型越难以优化。...image.png 反向传播这个\(1\)具有一个很好性质,任意两层间反向传播,这一项都是\(1\),可以有效地避免梯度消失和梯度爆炸。...所以,网络“实际深度”是在训练过程决定,即ResNet具有某种深度自适应能力。 深度自适应能解释不会“退化”,但为什么可以更好?

2.2K40

深度神经网络总结

上标3代表线性系数w所在层数,而下标对应是输出第三层索引2和输入第二层索引4。你也许问,为什么不是w342, 呢?...对于梯度爆炸,则一般可以通过调整DNN模型初始化参数得以解决。...常用机器学习Bagging算法,随机森林是最流行。它通过随机采样构建若干个相互独立弱决策树学习器,最后采用加权平均法或者投票法决定集成输出。在DNN同样可以使用Bagging思路。...ReLU单侧抑制会使一部分神经元输出为 0,提供了网络稀疏表达能力,并且减少了参数相互依存关系,可以缓解拟合。 缺点 使用Relu激活函数在训练过程Relu导致神经元不可逆死亡。...,减少拟合,增强模型泛化能力。

56820

Tensorflow入门教程(三十九)——GER-VNet

第一个是数据增强,是常见有效方法,虽然数据增强可以让CNN学习到不同变换特征,但是学习到CNN特征参数大小会变大从而导致特征参数过度冗余,拟合风险也越高。...尽管旋转卷积核可以在每个卷积层不同方向上实现局部对称,但是这些解决方案通过限制了网络深度和全局旋转不变性,这是由于维数爆炸和方向池化操作产生了加剧噪声所致。...3、论文灵感来自于图像常规分类组不变CNN。通过将平移,旋转和反射结合在一起来建立对称组,以显着提高每个内核利用率并减少过滤器数量。...组上采样层:与传统常规CNN采样操作一样,可以使用最近邻和双线性插值来完成上采样,不过与传统不同之处是组上采样是在8个方向上同时上采样,而传统是在1个方向上。...然后将所有方向组输出层结果变换到单通道二值预测图。由于池化操作降低特征图分辨率,对于分割是不利,所以在组隐藏层采用不同步长来替换池化。

41920

机器学习入门 9-6 在逻辑回归中使用多项式特征

Pipleline管道传入是一个列表,列表每一个元素代表一个步骤用一个元组来表示。...如果我们完全遵守这种设计标准,在使用Sklearn其它模块时候,Sklearn认为这个模块和Sklearn自己定义模块是一样,它就能无缝衔接起来,这也是为什么这个课程要全部使用Sklearn...当然现在我们学习还比较浅显,所以能够利用上这个机制优点地方可能主要就是在使用管道这部分,但是以后随着深入使用更多方法来解决复杂问题,慢慢体会到这种机制优点。...当添加多项式逻辑回归中多项式阶数也就是degree值越大,模型就会越复杂,模型更容易过渡拟合训练数据,导致拟合,而对应决策边界就会越来越不规则。...前面学习了解决拟合问题一些思路,可以通过减小degree值进而简化模型,除此之外,还有一个非常通用思路,就是进行模型正则化。

1.5K30

自动数据增强:概述和SOTA

我们通过模型向前传递每个“C”增广,损失越高,增广越有用。这是MuAugment。 为什么高损耗意味着有用增益?...然而,当输入到模型时,纯噪声产生很高损失,所以使用MuAugment可以选择那些创建时无法识别的图像。...对于这个问题没有简单解决方案,除了选择适当超参数,以减少难以理解图像生成,所以保持合成变换数量“N”小于4,每个变换大小“M”小于6是一个好的开始。 如果你有时间,试试网格搜索。...所以,在网格搜索采样M值时要记住这一点。 总结 我们对数据增强策略搜索算法区系进行了调查。有些游戏在我们任务之上叠加了另一个AI模型。其他使用更少参数和一个随机样本集合变换。...进入MuAugment: ai模型和基于随机性方法混合。它从一个变换列表随机采样合成,并且只使用最有用(即损耗最大)来训练数据。为了得到最好结果,将变换大小不同值放入网格搜索

45110

使用Imblearn对不平衡数据进行随机重采样

采样采样采样和欠采样组合采样器。我们可以采用相关方法或算法并将其应用于需要处理数据。...采样 我们用随机采样器将合成行添加到数据。我们通过增加少数分类来使目标值数量相等。这对于分类有益还是有害取决于具体任务 ,所以需要对于具体任务来说需要进行测试。...这些重采样方法常见用法是将它们组合在管道。不建议在大型数据集中仅使用其中之一,这是多数和少数类之间重要区别。...使用流水线管道 如上所述,不建议仅将过采样或欠采样方法应用于在类之间具有显着差异大量数据。我们有一个额外选择,我们可以在流水线同时应用过采样和欠采样方法。...接下来,采用0.5采样策略RandomUnderSampler将多数类数量减少为“ 2 *少数类”。在管道最后,少数类和多数类之间比率将为0.5。

3.5K20

深度学习优化方法

如果你改变过实验模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不⼀定更准确。这是为什么呢?...⼀般来说,如果训练数据集中样本数过少,特别是⽐模型参数数量(按元素计)更少时,拟合更容易发⽣。此外,泛化误差不会随训练数据集⾥样本数量增加而增⼤。...本质上,梯度消失和爆炸是一种情况。在深层网络,由于网络过深,如果初始得到梯度过小,或者传播途中在某一层上过小,则在之后层上得到梯度越来越小,即产生了梯度消失。梯度爆炸也是同样。...**数据集进行下采样操作,**使得符合数据同分布。 数据集增强、正则或者半监督学习等方式来解决小样本数据集训练问题。 9. 如何提升模型稳定性?...特征选择:过高特征维度会使模型拟合,减少特征维度和正则一样可能处理好方差问题,但是同时会增大偏差。 10. 有哪些改善模型思路 **数据角度 ** 增强数据集。

63710

【Python机器学习实战】决策树与集成学习(三)——集成学习(1)Bagging方法和提升树

上面提到通常特征选择数量为m=log2d,当减小选择特征数量m时,树相关性和分类能力都会同时降低,增大m时,树相关性和分类能力也提升,因此需要平衡二者选取合适m。...同时从方差公式来看,整体模型方差小于等于基模型方差,随着模型数量m增多,整体方差也在逐渐减小,从而防止拟合能力变强,但是,当模型数量达到一定数量时,方差第二项对于方差改变作用很小,因此防止拟合能力达到极致...,这也解释了为什么数量为什么不能无限大。   ...小孩、用脚踩、小气球是否会发生爆炸,那么根据上面建立森林,进行投票表决(上图中红线路径),爆炸票数1,不爆炸票数2,因此最终结果为不爆炸(也可以用概率线性加权,最终结果也是不爆炸)。   ...,形成强分类器: “”“”   在用Boosting进行提升学习过程,不宜选择学习能力较强模型,这样可能导致提升没有意义或者不兼容,因为Boosting是让弱模型专注某一个方面,最后再进行集中表决

77600

关于处理样本不平衡问题Trick整理

MCC:观察和预测二进制分类之间相关系数。 AUC:正确率与误报率之间关系。 2.重新采样训练集 欠采样通过减少冗余类数量来平衡数据集。...通过将所有样本保存在少数类,并在多数类随机选择相等数量样本,可以检索平衡新数据集以进一步建模。 相反,当数据量不足时应采用过采样,尝试通过增加稀有样本数量来平衡数据集。...3.以正确方式使用K-fold交叉验证 需要注意是,使用过采样方法来解决不平衡问题时,应适当地应用交叉验证。采样观察到稀有的样本,并根据分布函数自举生成新随机数据。...如果在过采样之后应用交叉验证,那么我们所做就是将模型过度适应于特定的人工引导结果。这就是为什么在过采样数据之前应该始终进行交叉验证,就像实现特征选择一样。...只有对数据进行重复采样,可以将随机性引入到数据集中,以确保不会出现拟合问题。 4.组合不同采样数据集 生成通用模型最简单方法是使用更多数据。

1.3K60

独家 | 在时间关系数据上AutoML:一个新前沿

AutoML最新进展主要包括从时间关系数据库自动发现有意义表间关系复杂功能合成(例如,深度特征综合),使用模型自动调整进行概念漂移(例如,AutoGBT),以及深度学习模型自动设计(例如,神经结构搜索...它还包括分类特征频率编码,而特征是使用子表聚合指标的时间联接自动合成。多数类实例将进行下列采样以保持1:3比率。...模型选择 在计算和存储方面,尝试几种线性和非线性模型成本可能非常昂贵。由于梯度增强决策树在处理分类特征和可扩展性方面的鲁棒性,我们将模型组合限制在CatBoost实现上。...同时使用交叉验证对超参数(例如树数量)进行调整,以避免过度拟合。 我们解决方案拓展了现有的AutoML研究项目组合,允许使用涉及时态关系数据库学习用例。...尽管AutoML最初专注于最佳机器学习管道自动构建,随着时间推移,对此类管道自动维护处理它范围正在扩大,模型自治性进一步增加。

84010

机器学习与深度学习常见面试题(上)

我们可以使用无监督学习某些指标或人为地去评估模型性能,以此来判断是否拟合。 3.什么是k折交叉验证?...增加神经网络层数,确实可能提高模型泛化性能,但不能绝对地说更深网络能带来更小错误率,还是要根据实际应用来判断,比如导致拟合等问题,因此只能选C。...输入数据本身存在nan值,或者梯度爆炸了(可以降低学习率、或者设置梯度阈值) 9.卷积神经网络CNN池化层有什么作用? 减小图像尺寸即数据降维,缓解拟合,保持一定程度旋转和平移不变性。...13.如何解决不平衡数据集分类问题? 可以扩充数据集,对数据重新采样,改变评价指标等。 14.残差网络为什么能做到很深层?...一个扩张率为23×3卷积核,感受野与5×5卷积核相同,但参数数量仅为9个。 17.解释下卷积神经网络感受野概念?

2.3K10
领券