前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >一个超强学习算法及5大特点

一个超强学习算法及5大特点

作者头像
CreateAMind
发布2024-07-05 11:14:00
1060
发布2024-07-05 11:14:00
举报
文章被收录于专栏:CreateAMind

高效学习算法的5大要求:

(i) 高计算效率确保实时学习

(ii) 对噪声具有很强的鲁棒性——物联网的关键优势系统[5](全息分布有显着更高的鲁棒性),以及

iii)轻量级硬件实现,可在边缘设备上高效执行推理[6]。

4 利用和适应训练过程中学到的信息的能力,动态编码模块

5 识别误导分类并降低学习准确性的维度,并重新生成它们以对学习质量产生更积极的影响

𝖣𝗂𝗌𝗍𝖧𝖣算法:

𝖣𝗂𝗌𝗍𝖧𝖣 进行两个创新步骤,top-2分类和维度再生,使其编码模块和基向量能够适应每个部分训练的模型。在top-2分类的每次迭代中, 𝖣𝗂𝗌𝗍𝖧𝖣 首先对编码数据 (B) 应用高效的自适应学习算法,然后利用部分训练的模型来计算前两个最相似的每个数据点的类 (I) 。在维度重新生成中,我们根据top-2分类的结果计算两个距离矩阵 (K) ,并识别 (N) 并消除 (Q) 误导分类的不需要的维度。为了进一步提高学习质量,我们重新生成这些维度 (P) 以对分类产生更积极的影响。请注意,本节中的所有操作都可以以高度并行的矩阵方式完成,因为多个训练样本可以分组为行超向量矩阵。

自适应学习:

较小的 𝛿𝑙 表示模型中不常见或尚不存在的明显新模式,会使用较大的因子 ( 1−𝛿𝑙≈1 ) 更新模型。

III-C维度再生

利用那些被分类为部分正确和不正确的数据点来选择不需要的维度 ( )。如算法 2 所示

维度重新生成:为了提高分类准确性, 𝖣𝗂𝗌𝗍𝖧𝖣 会重新生成那些选择删除 (N) 的维度,以便新维度可能对分类产生更积极的影响并更好地区分模式。

较大的 𝛼 值通过降低数据样本未分类到其真实标签的概率(即假阴性率 (FNR))来提供更敏感的结果。相反,较大的 𝛽 和 𝜃 值可降低数据样本被分类到错误类别的概率(即误报率 (FPR)),从而提供更具特异性的结果。从数学上讲,灵敏度和特异性定义为:

𝖣𝗂𝗌𝗍𝖧𝖣 ,一个准确、高效、鲁棒的HDC学习框架。通过强大的动态编码技术, 𝖣𝗂𝗌𝗍𝖧𝖣 识别并重新生成误导分类并降低学习准确性的维度。我们对各种机器学习数据集的评估表明, 𝖣𝗂𝗌𝗍𝖧𝖣 比 SOTA HDC 算法平均提供 2.12% 更高的准确度,并将维度降低 8.0× 。它在训练和推理效率方面也显着优于 SOTA DNN 和 HDC。此外,高维空间中模式的全息分布为 𝖣𝗂𝗌𝗍𝖧𝖣 提供了 12.90× 比 SOTA DNN 更高的鲁棒性。 𝖣𝗂𝗌𝗍𝖧𝖣 的性能使其成为边缘平台的出色解决方案。

https://arxiv.org/abs/2304.05503

https://github.com/jwang235/DistHD

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CreateAMind 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • III-C维度再生
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档