专栏首页arxiv.org翻译专栏凸组合置信传播算法

凸组合置信传播算法

我们引入了新的消息传递算法,用于图形化模型推理。当图是树状结构时,标准的最小和和积信念传播算法保证收敛,但当图包含循环时,可能不收敛,并对初始化敏感。本文描述了对标准信念传播算法的修改,它保证无论图的拓扑结构如何,都能收敛到一个唯一的解。

原文题目:Convex Combination Belief Propagation Algorithms

原文:We introduce new message passing algorithms for inference with graphical models. The standard min-sum and sum-product belief propagation algorithms are guaranteed to converge when the graph is tree-structured, but may not converge and can be sensitive to the initialization when the graph contains cycles. This paper describes modifications to the standard belief propagation algorithms that are guaranteed to converge to a unique solution regardless of the topology of the graph.

原文链接:https://arxiv.org/abs/2105.12815

原文作者:Anna Grim, Pedro Felzenszwalb

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 【代替反向传播】终极算法作者提出另一种深度学习:离散优化

    【新智元导读】在 Hinton 的 Capsule 之后,越来越多的研究者开始探讨反向传播之外的方法。《终极算法》作者、华盛顿大学教授Pedro Domingo...

    新智元
  • 【笔记】《Subpixel Photometric Stereo》的思路

    这段时间真的好忙,周更啊什么的都停滞了。前几天又看了一圈谭平的关于如何提高光度立体成像法线分辨率的这个论文,看完也写了长长的笔记。

    ZifengHuang
  • 学界 | 在线深度学习:在数据流中实时学习深度神经网络

    机器之心
  • 揭秘深度学习成功的数学原因:从全局最优性到学习表征不变性

    机器之心
  • 揭秘深度学习成功的数学原因:从全局最优性到学习表征不变性

    原标题:揭秘深度学习成功的数学原因:从全局最优性到学习表征不变性 选自arXiv 作者:RenéVidal、Joan Bruna、Raja Giryes、Ste...

    企鹅号小编
  • 揭秘深度学习成功的数学原因:从全局最优性到学习表征不变性

    近年来,深度学习大获成功,尤其是卷积神经网络(CNN)在图像识别任务上的突出表现。然而,由于黑箱的存在,这种成功一度让机器学习理论学家颇感不解。本文的目的正是要...

    华章科技
  • 揭秘深度学习成功的数学原因:从全局最优性到学习表征不变性

    来源:机器之心 本文长度为4900字,建议阅读7分钟 本文为深层网络的若干属性,如全局最优性、几何稳定性、学习表征不变性,提供了一个数学证明。 近年来,深度学习...

    数据派THU
  • 【收藏】人工智能术语表

    English Terminology中文术语neural networks神经网络activation function激活函数hyperbolic tang...

    机器人网
  • 谷歌最新机器学习术语表,A/B 测试 、混淆矩阵、决策边界……都在这里了!

    日前,谷歌发布机器学习术语表,以下术语表中列出了一般的机器学习术语和 TensorFlow 专用术语的定义。 A A/B 测试 (A/B testing) 一种...

    小莹莹
  • 用AI将冠状病毒结构转变为音乐!协助科学家发现显微镜遗漏的细节

    最近,麻省理工的研究者就用AI系统将新冠病毒结构转化为音乐,协助科学家注意到显微镜下遗漏掉的病毒细节。

    大数据文摘
  • 机器学习 学习笔记(22) 深度模型中的优化

    用于深度模型训练的优化算法与传统的优化算法在几个方面有所不同。机器学习通常是简接作用的,再打所述机器学习问题中,我们关注某些性能度量P,其定义于测试集上并且可能...

  • 干货!深度学习相关的面试考点总结(常考)

    使用交叉熵损失的原因是它求导结果简单,易于计算,最后结果中Softmax损失函数对应于每一项概率的偏导即为通过Softmax计算出的概率向量中对应真正结果的那一...

    小草AI
  • 干货整理!深度学习相关的面试考点

    使用交叉熵损失的原因是它求导结果简单,易于计算,最后结果中Softmax损失函数对应于每一项概率的偏导即为通过Softmax计算出的概率向量中对应真正结果的那一...

    AI研习社
  • 深度学习相关的面试考点总结

    使用交叉熵损失的原因是它求导结果简单,易于计算,最后结果中Softmax损失函数对应于每一项概率的偏导即为通过Softmax计算出的概率向量中对应真正结果的那一...

    AI算法与图像处理
  • 【视频编码】 Content Aware ABR技术(一)

    现在越来越多的人在手机、平板、笔记本等移动终端设备上观看在线视频。对于视频服务提供商而言,视频的存储和带宽资源的消耗在持续增加。如何为成千上万的终端用户高效地传...

    用户1324186
  • 前馈神经网络——深度学习之神经网络核心原理与算法

    因上几次读者反映,公式代码有乱码和不规整的问题,小编有改善哟,这篇文章开始亲们会看到效果的哟~

    用户1332428
  • 机器学习术语表

    机器学习术语表:https://developers.google.com/machine-learning/glossary/ 机器学习术语表,即机器学习专业...

    Amusi
  • 神经网络和深度学习——吴恩达深度学习课程笔记(一)

    单个神经元是一个非线性函数,它接收多个输入x,将它们线性组合后再用一个非线性激活函数作用,产生输出值 y。

    lyhue1991
  • 基于局部凹凸性进行目标分割

    Object Partitioning using Local Convexity

    点云PCL博主

扫码关注云+社区

领取腾讯云代金券