首页
学习
活动
专区
圈层
工具
发布
技术百科首页 >引导聚合算法 >引导聚合算法(Bagging)如何提高模型的鲁棒性?

引导聚合算法(Bagging)如何提高模型的鲁棒性?

词条归属:引导聚合算法

Bagging可以提高模型的鲁棒性,具体方法如下:

随机性

Bagging使用随机抽样的方式构建多个子模型,每个子模型使用的样本和特征都是随机选择的,这样可以减少过拟合,提高模型的鲁棒性。

平均化

Bagging将多个子模型的预测结果进行平均化,这样可以降低单个模型的误差,提高模型的准确性和鲁棒性。

抗噪声

Bagging使用多个子模型的预测结果,可以减少噪声对模型的影响,提高模型的鲁棒性。

弱化异常值

Bagging的子模型对异常值的敏感性比较低,因为每个子模型只使用部分样本,且样本是随机选择的,这可以弱化异常值对模型的影响,提高模型的鲁棒性。

可解释性

Bagging可以通过多个子模型的预测结果来进行解释和分析,这可以提高模型的可解释性和鲁棒性。

相关文章
WSDM‘21 | 如何增加GNN的鲁棒性?
GNN 模型通常是根据拓扑结构,利用节点特征构建消息传递过程。然而,并不是所有的节点都需要参与消息传递过程,因此,需要一种选择的方法来刻画哪些边上的消息传递是真正需要的,也就是对边信息进行去噪。作者首先给出了一个GCN在Cora上的实验小例子,这个实验将相同标签的节点连接成正边,否则为负,对这些边进行随机移除,发现负边的移除会使得模型准确率上升:
Houye
2021-12-10
1.2K0
大模型如何可靠?IBM等学者最新《基础模型的基础鲁棒性》教程|NeurIPS 2022
---- 新智元报道   作者:专知 编辑:Aeneas 【新智元导读】在第36届NeurIPS上,来自IBM研究中心等学者讲述关于大模型的鲁棒性,非常值得关注! 作为当前全球最负盛名的 AI 学术会议之一,NeurIPS 是每年学界的重要事件,全称是 Neural Information Processing Systems,神经信息处理系统大会,通常在每年 12 月由 NeurIPS 基金会主办。 大会讨论的内容包含深度学习、计算机视觉、大规模机器学习、学习理论、优化、稀疏理论等众多细分领域。 今
新智元
2023-02-24
3870
利用生物视觉机制提高神经网络的对抗鲁棒性 | NeurIPS 2020
本文将两种生物视觉机制,分别是视网膜的非均匀采样机制和多种不同大小的感受野存在机制,应用到神经网络中,提高了神经网络的对抗鲁棒性。
红色石头
2022-01-20
5170
NIPS'20 | 用信息瓶颈增强图模型的鲁棒性
信息瓶颈(Information Bottleneck, IB)一般说的是对于信息的一种压缩方法,目标是有损压缩数据,保真关于其关于目标的信息。之前有用来做神经网络的解释性分析,虽然似乎被怼了,但是可以用来做其他事情啊,比如这篇文章就是说的用信息瓶颈来增强模型的鲁棒性。这篇文章讲的是一种在图上做信息瓶颈压缩结构与节点信息,旨在希望能滤除不重要的邻居节点,增强模型鲁棒性。
Houye
2021-08-26
7050
如何提升NLP模型鲁棒性?试试从样本上多做做工作
在CV领域,研究者发现,通过对原始输入图片进行某些微小的扰动,扰动前后的图片人来看其实是没有差别的,但是输入到训练好的深度学习模型中,模型预测的结果会和原始样本的预测结果产生较大的差别。这表明这些深度学习模型容易受到这种样本的“攻击”。对抗攻击研究的就是如何对原始数据做最小的改动,在原始样本的含义完全不变的情况下,能让模型预测结果产生最大的loss,预测结果发生较大变化。
圆圆的算法笔记
2022-09-22
1.1K0
点击加载更多
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
领券