前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >英特尔实验室引入全局剪辑器,提高基于 Transformer 目标检测模型对软错误的鲁棒性 !

英特尔实验室引入全局剪辑器,提高基于 Transformer 目标检测模型对软错误的鲁棒性 !

作者头像
AIGC 先锋科技
发布2024-07-08 14:04:14
1430
发布2024-07-08 14:04:14
举报
文章被收录于专栏:AIGC 先锋科技AIGC 先锋科技

随着基于 Transformer 的目标检测模型的进步,它们在自动驾驶和航空等关键领域的影响预计将会增长。在推理过程中导致的软错误会引起位翻转,这显著影响了深度神经网络性能,改变了预测结果。传统的针对卷积神经网络的范围限制解决方案对于 Transformer 来说并不充分。 本研究引入了全局剪辑器(Global Clipper)和全局混合剪辑器(Global Hybrid Clipper),这些是专门为基于 Transformer 的模型设计的有效缓解策略。 它们显著提高了模型对软错误的鲁棒性,并将错误推理减少到接近0%。 作者还详细介绍了跨越64种以上场景的广泛测试,测试涉及两个 Transformer 模型(DINO-DETR和Lite-DETR)和两个卷积神经网络模型(YOLOv3和SSD),使用三个数据集,总共大约330万次推理,以全面评估模型的鲁棒性。 此外,本文探讨了 Transformer 中注意力块的独特方面及其与卷积神经网络的操作差异。

1 Motivation

深度神经网络(DNNs)的采用对包括自动驾驶车辆[1],航空,医疗保健[2]和太空探索[3]在内的各个领域产生了重大影响,在这些领域中,高安全性和可靠性至关重要。这推动了专注于安全人工智能的计算机视觉研究社区的蓬勃发展,研究领域包括分布外检测[4],对抗性鲁棒性和模型互操作性[5]。基于DNN的计算机视觉模型处理图像以分类目标并预测它们的边界框。

推理过程中的错误可能导致错误的边界框,显著改变系统行为,强调了在模型执行过程中对更安全硬件的迫切需求。

DNN加速器通过构建计算图在高 Level 执行模型,该计算图使用通用矩阵到矩阵乘法(GEMM)[6]进行大量层输入和权重乘法。这一过程中的关键组成部分是图1[7]中较低加速器 Level 的乘积累加(MAC)单元。DNN加速器中的MAC单元缺乏ECC保护,使它们特别容易受到软错误的影响——这是一个主要的可靠性问题。

这些错误通常由辐射、芯片老化、制造变化或热问题引起,可能会改变中间计算值,导致推理错误。研究表明,随着晶体管密度的增加、特征尺寸的减小和核心数量的增加,软错误率将会增加。例如,一个100核系统可能因为软错误每1.5小时就会失败一次,当这些错误在层间传播时,如图1所示,这会显著影响预测。尽管软错误不会造成永久性损害,但它们可能导致可靠性严重下降。

本文提出了一种在应用层减轻目标检测模型中软错误的技术。作者使用PytorchALFI[14]来模拟软错误,这是一个开源工具,它将大规模故障注入能力与PyTorch集成在一起。

范围限制解决方案通过在每一激活层应用预计算的界限,有效减轻了基于CNN的DNN模型中的软错误,这些界限是通过使用20%的验证图像来确定的最低和最高限制[15]。

然而,当前的防护措施对于基于 Transformer 的视觉模型中的软错误效果不佳,这是由于其架构的复杂性。作者的分析表明,现有的解决方案是不够的,这需要为这些先进系统显著增强错误缓解策略。

如果没有这些改进,基于 Transformer 的模型的鲁棒性就会受损,这突显了迫切需要更复杂和定制化的保护机制。 Transformer 模型[16, 17],以其自注意力和大型线性层为特征,特别容易受到攻击,因为位翻转错误可以级联并显著改变预测。

例如,在具有4800万参数的CoCo训练的DINO-DETR模型[16]的第50个自注意力层中注入单一位翻转错误,会导致如图2b所示的错误推理,如幽灵目标。这些错误要么创建随机的高置信度检测,要么删除它们,可能会破坏依赖于这些模型进行目标跟踪等任务的系统[18]。

这强调了复杂网络中微小错误的重要影响。然而,如图2c所示,应用现有的范围限制不能缓解所有幽灵目标。

作者提出全局剪辑器(Global Clipper)和全局混合剪辑器(Global Hybrid Clipper)范围限制层作为直接但至关重要的增强措施,以减轻复杂 Transformer 模型中软错误的影响。这些层实现在自注意力块中的激活和线性层中,这些关键点容易受到可能严重影响网络性能的错误的影响。

这一策略涉及到细致的平衡:在确保网络能够处理多样化的数据输入的同时,确保网络对可能导致输出重大不准确性的错误具有鲁棒性。通过添加这些范围限制层,全局剪辑器有效地保护了网络的功能,同时不损害其学习能力,确保即使在具有挑战性的条件下也能保持高性能。例如,在添加全局剪辑器后,由故障注入创建的所有错误幽灵目标都已被移除,如图2d所示。

总之,本文的主要贡献如下:

  1. 作者为基于 Transformer 的目标检测模型引入了全局剪辑器和全局混合剪辑器故障缓解技术(第4节)。
  2. 作者通过故障注入实验对CNN和 Transformer 模型进行了全面研究,使用三个数据集,总计330万的推理,来分析这些视觉系统的脆弱性。作者证明了所提出的技巧在将错误率从6%降低到接近0%方面是有效的(第5.3节)。
  3. 作者探讨了 Transformer 与CNN中注意力块的独特特性,提供了对于提升部署 Transformer 模型整个生命周期内安全性的模型脆弱性见解(第5.4节)。

以下论文部分首先将探讨解决基于 Transformer (transformer)的深度神经网络模型中软错误的方法。接着,本文将详细阐述所考虑的故障注入模型(如上文贡献中所述的第二项)。

接下来,将介绍作者提出的解决方案——全局剪辑器(第一项),强调其在减轻软错误方面的有效性。随后,将对实施全局剪辑器进行彻底的消融研究(第二项)。最后,将提供在不同的数据集上 Transformer (Transformers)和卷积神经网络(CNN)的脆弱性特征的检查和比较(第三项)。

2 Related Work

在应用和硬件层面,通过各种指标来评估安全关键型深度神经网络(DNN)模型的可靠性,从而提高它们的安全性和可靠性[19, 20, 15, 18]。研究表明,DNN容易受到软错误的影响,单个位翻转的实例可能导致错误的推理[21, 22, 23, 18]。传统上,硬件中对软错误的防护主要涉及对内存使用错误检测或纠正码(EDC或ECC)[24],以及计算中使用残差。这些机制通常在高端服务器级CPU中实现,但由于成本考虑或典型的宽松应用要求,在GPU中实现较少。基于冗余的其他技术,如双模冗余(DMR)和三模冗余(TMR)也被使用。尽管采取了这些措施,运行DNN的加速器可能缺乏固有的保护。

软件中的典型矩阵操作解决方案,如基于算法的容错(ABFT),已经被适配用于DNN,但受到检查DNN应用中典型的大矩阵乘法开销的限制[25, 26]。研究行人还在应用层面基于软件层面的范围限制解决方案开发了针对DNN的特定解决方案,特别是对于CNN模型,并探索使用激活模式来检测软错误[27, 15, 26]。一个维度减少的小型机器学习模块分析这些模式以识别并拒绝错误的推理。然而,这些方法面临可扩展性和复杂性的挑战。

DNN对软错误的脆弱性,包括CNN和基于变换的模型,已有充分记录。然而,以前的研究没有广泛探索目标检测中的变换模型,也没有进行详细的大规模故障注入研究[34, 33]。本研究旨在通过检查变换架构的弹性并探索这些架构中针对软错误的有效缓解策略来填补这一空白。

3 Fault Models

作者考虑AI硬件加速器中的软错误,重点关注它们对系统可靠性的影响。这些错误通常表现为单个或多个位翻转,通过改变模型的权重和神经元,可能会损害数据完整性,进而潜在地扭曲计算和决策。深度神经网络操作中的这种中断在图1中得到了说明,突显了对抗这些问题的鲁棒性策略的必要性。

奇偶校验或错误校正码(ECC)保护内存免受软错误的影响,这对于重要内存块尤为关键,因为其显著降低了开销[35]。尽管ECC,特别是SECDED(单错误校正,双错误检测)码,能够检测并校正单一位错误,但它仅限于检测不能校正的双位错误。这强调了除了ECC之外,还需要其他技术来尽量减少多比特错误。

作者的实验设置在推理过程中注入单比特或10比特翻转错误,故障注入针对模型的神经元或权重之一,但不同时针对两者。这种方法确保了有针对性的、简单的故障分析,每个推理过程只经历一次故障改变。作者研究中所有模型均采用32位数据类型。

4 Global Clipper

范围限制解决方案[15, 27]通过专注于卷积层关注局部图像区域的激活层,有效地解决了基于CNN模型的软错误引起的位翻转问题。这种将偏差限制在局部特征图区域内的做法有助于防止广泛的错误。然而,这些方法对于采用广泛线性层的全局注意力机制的 Transformer 模型[36]效果不佳。在 Transformer 模型中,一个位翻转可能会在多头注意力层传播错误,显著改变向量表示并影响预测。这需要针对 Transformer 全局处理特性定制不同的缓解策略。

作者提出了对现有范围限制层的至关重要改进,如图3所示,将值监控和截断从激活层扩展到自注意力块内的线性层。这种策略增强了 Transformer 架构对软错误引起的位翻转的抵抗能力。全局剪辑器在部署前将超出范围的值截断到预定义的区间内,在任何激活或线性层上操作,具体如公式(1)中的界限B_{\text{lower}},B_{\text{upper}}。同样,全局范围器将值限制在指定范围内,确保所有层的输出符合预期的范围。

这些层可以在应用 Level 无缝融合,确保开销最小。确定上下限的方法遵循先前范围限制解决方案(如Ranger[15])中概述的方法。具体来说,这些界限是通过使用20%的训练数据集计算得出的,涵盖基于 Transformer 的模型中的所有激活层和线性层,如图4所示。

L_{global\_clipper}(x)=\begin{cases}0&\text{if }xB_{upper}\\ 0&\text{if Inf 或 NaN}\\ x&\text{其他情况}\end{cases} \tag{1}

图4:全局剪辑技术定义了用于范围限制的上下限,包括DINO-DETR模型的激活层和自注意力块内的线性层。

作者通过两个实验证明了全局剪辑器解决方案的有效性,这些实验涉及在现有模型的卷积层和线性层中注入故障,以及作者提出的方法。使用一个样本图像,作者在DINO-DETR模型的ResNet50 Backbone 网的第二个卷积层中随机MSB位置引入位翻转错误。然后作者监控紧随ResNet50编码器之后的第20个ReLU激活层和第51个自注意力块中的线性层的均值和方差。这个过程,如图5所示,使作者能够评估全局剪辑器的性能,并将其与其他缓解策略进行比较。

在第一个实验中,作者在ReLU激活层注入故障,并应用了各种缓解解决方案,如图5(a)所示。Ranger方法[15]将数据点限制在种群簇内。相比之下,Clipper[27]以及作者提出全局范围器和全局剪辑器更紧密地将数据限制在非故障推理区域。尽管所有技术都保持了可接受的公差,但Ranger和Clipper倾向于将数据点从原始非故障位置推移得更远,特别是在线性层。

在第二个实验中,作者在线性层注入故障并激活各种缓解解决方案。然而,由于自注意力层对故障的敏感性,Ranger和Clipper均无法将值限制在其原始位置。

Ranger和Clipper通常只在激活层应用限制;但是,自注意力包括一个SoftMax层,不能在不损害块的功能和准确性的情况下进行类似的限制。因此,引入图3中的全局剪辑器对于保护注意力块免受故障至关重要。

当在第51个线性层引入故障时,全局剪辑器成功地保持了数据点接近其原始位置,如图5(b)所示。

5 Experiments

Experimental Setup

正如第1节所介绍,软错误在应用 Level 上以瞬态位翻转错误为特征,影响单个推理,并且仅在下次从内存获取数据之前持续。位翻转发生在尾数的符号位和最高有效位时,对值范围的影响最小;然而,在IEEE 754浮点运算的符号位和指数位发生翻转时,可能会改变预测,这种改变在测试其他格式如BFloat16时并没有显著不同,如文献[21, 18]所示。

作者的研究评估了基于 Transformer 的两个模型DINO-DETR [16]和Lite-DETR [17],以及两个CNN模型YOLOv3 [37]和SSD [38]在CoCo [39],KITTI [40]和BDD100K数据集[41]上的脆弱性。作者进行了超过64项实验,总共大约330万次推理。每个模型都经历了在 Transformer 的自注意力块的所有线性层和CNN模型的卷积层中进行随机和有针对性的故障注入的实验。

从这些实验中提取的每个数据点包括从1,000个图像样本中带有随机故障的50,000次推理,以及在每一层针对有针对性故障实验的10,000次推理。每组实验都使用 Baseline 和提出的缓解技术(如Clipper,Global Clipper或Global Hybrid Clipper)重复进行,从而彻底分析模型的脆弱性以及缓解策略的有效性。

Evaluation Metrics

准确度指标如AP50或mAP[39]及其变体[42]是评估目标检测模型中故障注入的标准。有时,这些故障会创建置信度较低的幽灵目标,由于在PR曲线下的面积(AUC)计算[18]中排除了它们,因此不会影响整体的AP50。为了解决这个问题,采用了对PR曲线平均不敏感的IVMOD指标[18]。那些不改变模型结果的故障被认为是良性的。相比之下,重大的故障被安全性和可靠性社区[8]划分为SDC(静默数据损坏)和DUE(可检测但不可恢复的错误)。

通过将SDC和DUE[8]定义为关键故障,作者增强了有效评估漏洞的能力。本研究在IVMOD_{fd}故障检测指标中引入了这些条件(见公式(2),公式(3)和公式(4))。与Global Clipper不同,Global Ranger限制了值但不截断它们。通过监测AP50准确度和IVMOD_{fd}来评估漏洞。

例如,如果100个样本图像中有30个显示检测差异或由于位翻转而遇到NaNinf错误,IVMOD_{fd}将是30%。此外,IVMOD_{fd}可以用来估计DNN加速器的漏洞,以FIT率[8]和其他硬件生命周期内的风险因素来衡量。然而,这些方面超出了本文的范围。从此以后,IVMOD_{fd}将被称为故障检测。此外,在本研究中,IVMOD_{fd}仅考虑9个更高阶的比特,包括符号位和指数位,如第3节所述。

$$\begin{split} IVMOD_{SDC}=\frac{1}{N}\sum_{i=1}^{N}[(FP_{\text{orig} })_{i}\neq(FP_{\text{corr}})_{i}\vee\\ (FN_{\text{orig}})_{i}\neq(FN_{\text{corr}})_{i}]\end{split} \tag{2} $$ $$IVMOD_{DUE}=\frac{1}{N}\sum_{i=1}^{N}[\text{Inf}\,\vee\,\,\text{NaN}] \tag{3} $$ $$IVMOD_{fd}=IVMOD_{SDC}\vee\,\,IVMOD_{DUE}, \tag{4} $$

Results: Global Clipper on Transformer models

这一部分展示了全球剪辑器(Global Clipper)和全球混合剪辑器(Global Hybrid Clipper)相比于现有解决方案(如Ranger和Clipper)在消除能力上的优越性。在DINO-DETR和Lite-DETR模型上进行了展示,这些模型接受了含有单比特翻转错误的各种数据集的测试(见图6和图7),作者还研究了跨数据集的脆弱性,包括逐层故障注入实验。

图6展示了模型的脆弱性,并评估了各种范围限制技术在使用IVMOD_{fd}和AP50指标减轻故障时的有效性。这包括涉及权重和神经元故障注入的实验结果。全球剪辑器在减轻故障影响方面显著优于现有的解决方案,如Ranger和Clipper。全球剪辑器在减轻神经元中的故障方面表现更好,将错误检测降低到几乎0%,对于权重故障,通过优于其他最先进的算法如Ranger和Clipper,脆弱性降低到小于约3%。此外,如图6(b)所示,推理过程中的单个比特翻转显著影响了AP50指标。

例如,在权重故障注入下,基于KITTI训练的DINO-DETR的AP50从86.9下降到81.6,全球剪辑器有效地将AP50恢复到原始的准确性。在DINO-DETR的背景下,全球Ranger和全球剪辑器展示了类似的消减性能。然而,当它们应用于基于DINO-DETR的独特Transformer架构的Lite-DETR时,性能并不如预期。

这导致引入了全球混合剪辑器,在这种情况下,全球剪辑器用于激活层,而全球Ranger用于自注意力块的线性层。在这种场景中,全球混合剪辑器的混合版本恢复了性能的准确性到 Baseline ,并显著减少了故障检测,如图7所示。例如,在神经元故障的情况下,它从4.5%降低到0.5%。

Ablation Study

5.4.1 Vulnerability and Resiliency Analysis of Attention and Convolution Layers

本节概述了对基于CNN和Transformer的目标检测模型的单比特和多比特(10比特)翻转实验的消融研究。结果如图9和图10所示。

对于Transformer,使用了全局剪辑器和全局混合剪辑器,而对于CNN,由于其在Ranger上的优越性能(见图9(b)和图10(b)),使用了剪辑器。

每个图表代表了10,000次推理,突显了全球剪辑器在处理比特翻转错误方面的优越性。将CNN和自注意力层进行比较,可以发现Transformer通常比CNN具有更强的故障注入韧性。例如,DINO-DETR和Lite-DETR各包含六个编码器和解码器,每个编码器和解码器都有四个线性层(如图8所示),每个模型共有48层。与CNN相比,这些Transformer层在故障注入响应方面表现出不同的特性。这些观察在单比特和多比特翻转实验中(图9和图10)是一致的。根据Transformer模型变体的不同,编码器和解码器可以与自注意力块互换。

CNN在各个层中没有显示出明显的模式,这表明它们在比特翻转错误下生成错误检测的敏感性是均匀的。相比之下,Transformer模型显示出更大的固有韧性。借助适当的缓解技术,与基于CNN的目标检测模型相比,Transformer在面对软错误时提供了增强的安全性,因此对于要求对比特翻转错误具有鲁棒性的应用,它们更为可取。

为了更好地理解Transformer的脆弱性,作者分析了自注意力块线性层A、B、C和D中的单比特翻转错误(见图8)。将图9(a)和图10(a)中的数据分为四个图(见图11),展示了12个注意力块中的每个层在编码器和解码器中的脆弱性。如图所示,采样偏移、注意力权重、值投影和输出投影层在CoCo、KITTI、BDD100K数据集以及DINO-DETR和Lite-DETR模型中的神经元故障中显示出一致的脆弱性。由于权重故障导致的脆弱性变化取决于注意力块类型,如图12所示。DINO-DETR使用可变形注意力(DF)层,而Lite-DETR采用键感知可变形注意力(KDA)层,提高了效率和注意力映射。权重故障对DF和KDA块的影响不同,影响了编码器和解码器(见图12(b)),但神经元故障脆弱性在数据集和模型之间保持稳定(见图12(a))。这些观察强调了Transformer在脆弱性方面的两个关键特性,与CNN不同:

  • Transformer模型层的脆弱性估计在推理过程中对不同数据集表现出一致的特性,而CNN则不然。
  • 模型的脆弱性估计受到模型中使用的自注意力块变体影响,并在不同架构和推理过程中的数据集上保持一致。

彻底的脆弱性分析可以大大提高在线安全性和风险管理,有助于动态风险评估和部署的Transformer基础模型的生命周期中的模型监控。作者的发现表明,尽管不断学习和权重调整,这些模型的脆弱性保持稳定,确保了保持健壮和可靠的AI系统。

5.4.2 Integrating Global Clipper with minimal additional overhead

如图3所示,全局剪辑层被整合到注意力块内的四个线性层中(见图8)。通过进行一个简单的实验,可以进一步评估添加这些层的效率,该实验考察了每个全局剪辑层的影响。这个实验包括在注意力块的初始阶段,特别是在采样偏移层(阶段A)注入单比特翻转错误。在此基础上,根据图8的详细描述,在注意力块的四个线性层中选择性地激活全局剪辑层,在不同的A、B、C和D阶段组合中进行。作者的观察表明,除了其他激活层外,仅将全局剪辑层整合到输出投影层和值投影层(图8中的D和C),所得到的缓解性能与将其整合到所有线性层中相当,如图13所示。

6 Conclusion

这项研究介绍了全局剪辑器(Global Clipper)和全局混合剪辑器(Global Hybrid Clipper)以增强基于变压器的物体检测模型在关键环境中的安全性,有效将错误的推论降低到几乎0%。

作者通过在三个数据集上针对变压器和卷积神经网络模型进行故障注入实验,总共进行了约330万个推断。作者的广泛实验和发现表明,与卷积神经网络模型相比,变压器模型对软错误具有更强的内在弹性。

评估这些解决方案的有效性提供了它们在现实世界应用中的见解,为模型鲁棒性和计算机视觉安全做出了重要贡献。

未来的研究应探索这些解决方案在基于变压器的语义分割和视频追踪模型中的安全性,以进一步增强安全性。

参考

[1].Global Clipper: Enhancing Safety and Reliability of Transformer-based Object Detection Models.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AIGC 先锋科技 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 Motivation
  • 2 Related Work
  • 3 Fault Models
  • 4 Global Clipper
  • 5 Experiments
  • Experimental Setup
  • Evaluation Metrics
  • Results: Global Clipper on Transformer models
  • Ablation Study
  • 5.4.1 Vulnerability and Resiliency Analysis of Attention and Convolution Layers
  • 5.4.2 Integrating Global Clipper with minimal additional overhead
  • 6 Conclusion
  • 参考
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档