前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ICLR2022:Elements of Reasoning:Objects, Structure, and Causality

ICLR2022:Elements of Reasoning:Objects, Structure, and Causality

作者头像
用户1908973
发布2022-11-22 17:10:23
2080
发布2022-11-22 17:10:23
举报
文章被收录于专栏:CreateAMindCreateAMind

对象、概念和事件等离散抽象是我们感知世界、关联其中的碎片以及解释其因果结构的能力的基础。以对象为中心的表示学习和因果机器学习的研究界在很大程度上独立地追求了一个类似的议程,为机器学习模型配备更结构化的表示和推理能力。尽管它们的语言不同,但这两个字段的运作假设是,与整体/黑盒表示相比,结构化模型将提高系统概括性、分布转移的鲁棒性、下游学习效率和可解释性。然而,两个社区通常从相反的方向处理这个问题。关于因果关系的工作通常假设已知的(真实)分解为因果因素,并专注于推断和利用它们之间的相互作用。另一方面,以对象为中心的表示学习通常从非结构化输入开始,旨在将有用的分解推断为有意义的因素,到目前为止,对它们的交互关注较少

本研讨会旨在将以对象为中心和因果表示学习的研究人员聚集在一起。为了帮助整合这些领域的想法,我们邀请了来自认知心理学和神经科学等其他领域的观点。我们希望这能为讨论、提出尖端研究、建立新的合作和确定未来的研究方向创造机会。

我们特别欢迎在以下方面的贡献:

  • 量化结构化表示好处的基准(例如系统推广、OOD性能、鲁棒性wrt.干预等)
  • 从原始数据中发现/提取抽象实体的方法,特别是结构化表示的自我监督学习
  • 将因果关系的想法集成到神经网络架构中
  • 将从深度学习的工具应用于更传统的因果发现方法,这可能会牺牲恢复保证
  • 结构推断(关系、相互作用、组成等),特别是在未观察到的变量之间
  • 推理任务、干预和反事实问题
  • 关于从数据中学习抽象和不变性的挑战的理论工作
  • 发现或利用对象、概念或因果结构进行强化学习(例如探索或模型学习)
  • 神经网络和符号或概率推理的集成(例如神经符号方法或概率编程)
  • 对象、结构化表示或因果推理的应用(例如在计算机视觉、音频处理、机器人学中)
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-09-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CreateAMind 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档