高效学习算法的5大要求:
(i) 高计算效率确保实时学习 ,
(ii) 对噪声具有很强的鲁棒性——物联网的关键优势系统[5](全息分布有显着更高的鲁棒性),以及
iii)轻量级硬件实现,可在边缘设备上高效执行推理[6]。
4 利用和适应训练过程中学到的信息的能力,动态编码模块
5 识别误导分类并降低学习准确性的维度,并重新生成它们以对学习质量产生更积极的影响
𝖣𝗂𝗌𝗍𝖧𝖣算法:
𝖣𝗂𝗌𝗍𝖧𝖣 进行两个创新步骤,top-2分类和维度再生,使其编码模块和基向量能够适应每个部分训练的模型。在top-2分类的每次迭代中, 𝖣𝗂𝗌𝗍𝖧𝖣 首先对编码数据 (B) 应用高效的自适应学习算法,然后利用部分训练的模型来计算前两个最相似的每个数据点的类 (I) 。在维度重新生成中,我们根据top-2分类的结果计算两个距离矩阵 (K) ,并识别 (N) 并消除 (Q) 误导分类的不需要的维度。为了进一步提高学习质量,我们重新生成这些维度 (P) 以对分类产生更积极的影响。请注意,本节中的所有操作都可以以高度并行的矩阵方式完成,因为多个训练样本可以分组为行超向量矩阵。
自适应学习:
较小的 𝛿𝑙 表示模型中不常见或尚不存在的明显新模式,会使用较大的因子 ( 1−𝛿𝑙≈1 ) 更新模型。
利用那些被分类为部分正确和不正确的数据点来选择不需要的维度 ( )。如算法 2 所示
维度重新生成:为了提高分类准确性, 𝖣𝗂𝗌𝗍𝖧𝖣 会重新生成那些选择删除 (N) 的维度,以便新维度可能对分类产生更积极的影响并更好地区分模式。
较大的 𝛼 值通过降低数据样本未分类到其真实标签的概率(即假阴性率 (FNR))来提供更敏感的结果。相反,较大的 𝛽 和 𝜃 值可降低数据样本被分类到错误类别的概率(即误报率 (FPR)),从而提供更具特异性的结果。从数学上讲,灵敏度和特异性定义为:
𝖣𝗂𝗌𝗍𝖧𝖣 ,一个准确、高效、鲁棒的HDC学习框架。通过强大的动态编码技术, 𝖣𝗂𝗌𝗍𝖧𝖣 识别并重新生成误导分类并降低学习准确性的维度。我们对各种机器学习数据集的评估表明, 𝖣𝗂𝗌𝗍𝖧𝖣 比 SOTA HDC 算法平均提供 2.12% 更高的准确度,并将维度降低 8.0× 。它在训练和推理效率方面也显着优于 SOTA DNN 和 HDC。此外,高维空间中模式的全息分布为 𝖣𝗂𝗌𝗍𝖧𝖣 提供了 12.90× 比 SOTA DNN 更高的鲁棒性。 𝖣𝗂𝗌𝗍𝖧𝖣 的性能使其成为边缘平台的出色解决方案。
https://arxiv.org/abs/2304.05503
https://github.com/jwang235/DistHD