深度学习取得了很大的成功,但是在可解释,可信任等方面还很不足。模型包含对自我推理结果的置信度很重要,模型需要对自我不确定性推理结果进行告知。如果模型可以知道自己不知道,那模型就是有了最基本的意识,模型可以给出推理结果及对结果的置信度。通过不确定性推理可以达到这一点
有了不确定性推理,模型在面对分布外数据是就会从容,就是不确定性增加了,下一步就是如何提升模型对新环境的认识,降低不确定性。
下面就介绍一篇这方面论文及论文背后的主观逻辑理论:
2204 https://github.com/hanmenghan/TMC 含视频
这篇论文将不确定性可信推理跟深度学习多视图融合分类进行了结合
摘要:
现有的多视图分类算法专注于通过利用不同的视图来提高准确性,通常将它们集成到后续任务的通用表示中。虽然有效,但确保多视图集成和最终决策的可靠性也至关重要,特别是对于嘈杂、损坏和分布外的数据。动态评估不同样本的每个视图的可信度可以提供可靠的集成。这可以通过不确定性估计来实现。考虑到这一点,我们提出了一种新颖的多视图分类算法,称为可信多视图分类 (TMC),通过在证据级别上动态整合不同视图,为多视图学习提供了新范式。所提出的 TMC 可以通过考虑来自每个视图的证据来提高分类可靠性。具体来说,我们引入了变分狄利克雷来表征类概率的分布,使用来自不同视图的证据进行参数化,并与 Dempster-Shafer 理论相结合。统一的学习框架学习准确的不确定性,因此赋予模型可靠性,及噪声或损坏情况下的鲁棒性。理论和实验结果均验证了所提模型的有效性、准确性、鲁棒性和可信赖性。
论文背后的理论非常强大,这就是:
这本书介绍了主观逻辑的形式主义,这将成为理解和将不确定性纳入决策的重要工具。
主观逻辑是一种不确定的概率逻辑,最初由jsang 提出,用于处理信任的形式表示。信任的评估和利用需要推理,因此,主观逻辑已经发展成为不确定条件下概率推理的原则方法。这本书是第一本提供主观逻辑及其所有操作的全面观点的书。
对于决策者来说,概率是确定的还是不确定的会有很大的不同。例如, 基于低置信度的概率做出重要决策是有风险的。决策者应该要求额外的证据,这样分析者就可以对感兴趣的假设产生更有信心的结论概率。
抛硬币概率0.5和无知不同,这实际上是很有启发性的
需要的是一种表达对概率缺乏信心的方式。在主观逻辑中, 对概率缺乏信心表现为不确定性质量
这本书的更多参考: