前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【EMORY博士论文】几何数据的可解释和交互式表示学习

【EMORY博士论文】几何数据的可解释和交互式表示学习

作者头像
数据派THU
发布2023-03-29 10:57:43
1380
发布2023-03-29 10:57:43
举报
文章被收录于专栏:数据派THU数据派THU
代码语言:javascript
复制
来源:专知本文为论文介绍,建议阅读5分钟本文旨在探索一条新的研究路线,即解释引导学习(EGL),通过XAI技术干预深度学习模型的行为,共同提高深度神经网络的可解释性和泛化性。

近年来,深度神经网络(Deep Neural Networks, DNNs),包括卷积神经网络(Convolutional Neural Networks, cnn)和图神经网络(Graph Neural Networks, GNNs)的快速发展,使得图像和图结构数据等几何数据的表示学习得到了快速的发展,并取得了显著的进展。然而,dnn通常提供非常有限的透明度,这对观察和理解模型何时以及为什么做出成功/不成功的预测提出了重大挑战[61]。近年来,局部解释技术的研究快速发展,但大部分关注的是如何生成解释,而不是理解“解释是否准确/合理”、“如果解释不准确/不合理该如何处理”、“如何调整模型以生成更准确/合理的解释”[13,108,168,88,129,130,62,183,151]。

为探索和回答上述问题,本文旨在探索一条新的研究路线,即解释引导学习(EGL),通过XAI技术干预深度学习模型的行为,共同提高深度神经网络的可解释性和泛化性。本文提出在几何数据上探索EGL,包括图像和图结构数据,由于几何数据解释的复杂性和固有挑战,这些数据目前在研究界未得到充分探索[61]。为实现上述目标,本文首先探索了几何数据的可解释性方法,以理解深度神经网络(dnn)用生物启发方法学习的概念,并提出了解释图神经网络(gnn)对医疗保健应用的预测的方法。为图神经网络设计了一个交互式通用解释监督框架GNES,以实现"学习解释"管道,从而可以提供更合理、更可控的解释。本文提出两个通用框架,即梯度和RES,通过开发新的解释模型目标,用于鲁棒的视觉解释指导学习,可以将噪声的人类注释标签作为监督信号,并从理论上证明了模型泛化的好处。这项研究跨越了多个学科,并通过提出新的框架,可应用于各种现实世界问题,这些问题的可解释性和任务性能都至关重要,有望在各个领域做出一般性贡献,如深度学习、可解释的人工智能、医疗保健、计算神经科学和人机交互。

https://etd.library.emory.edu/concern/etds/k930bz47x?locale=en

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-03-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据派THU 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
腾讯云小微
腾讯云小微,是一套腾讯云的智能服务系统,也是一个智能服务开放平台,接入小微的硬件可以快速具备听觉和视觉感知能力,帮助智能硬件厂商实现语音人机互动和音视频服务能力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档