学术报告:中山大学王瑞轩:医学影像智能分析的可解释性

不到现场,照样看最干货的学术报告!

嗨,大家好。这里是学术报告专栏,读芯术小编不定期挑选并亲自跑会,为大家奉献科技领域最优秀的学术报告,为同学们记录报告干货,并想方设法搞到一手的PPT和现场视频——足够干货,足够新鲜!话不多说,快快看过来,希望这些优秀的青年学者、专家杰青的学术报告 ,能让您在业余时间的知识阅读更有价值。

读芯术读者交流群,请加小编微信号:zhizhizhuji。等你。后台回复“学术报告”,查阅相关PPT。

2018年9月22-23日,“2018中国医学人工智能大会暨第一届人工智能雁栖高端论坛”在中国科学院大学雁栖湖校区举行。本次大会由中国人工智能学会、中国图像图形学会、中科院计算所、中国科学院大学共同主办,关注人工智能领域的最新进展以及面临的挑战,重点讨论了人工智能在医学方面的前沿研究和产业化热点。

此次会议极具产学研融合的特点,30多位来自信息科学(含计算机与电子工程等学科)、数学与医学等领域的专家学者与临床医生和产业界代表齐聚一堂,围绕人工智能+医疗、医学图像分析、机器学习等热点领域开展了历时两天的深入交流与探讨。

读芯术作为合作媒体,经过授权,对其中部分专家报告进行内容整理。

中山大学王瑞轩以《医学影像智能分析的可解释性》为主题进行报告,以下为相关内容。

王老师的PPT原文内容请后台回复“学术报告”,查阅文件夹“20180922 中国医学人工智能大会”。

医学影像智能分析的可解释性

王瑞轩 中山大学数据科学与计算机学院

首先介绍了当前深度学习对于医学影像分析在可解释性所面临的问题,并提出解决思路,然后通过介绍本单位的工作来对医疗影像智能分析的可解释性进行深入的探索和研究。

深度学习已经成为医学影像分析方面不可或缺的工具,然而深度学习是一个复杂的非线性系统,从输入到输出的具体决策过程不够透明,因此如何找出AI模型的缺陷变得困难。

医学影像方面的透明化可以通过AI模型输出层和中间每层神经元所关注的视觉特征来理解。例如通过遮挡法或特征图激活情况理解神经元,但是原始CNN模型结构被更改,需要重新训练。

这些方法可以得到输出层神经元关注的区域,但无法告知我们模型到底关注什么样的特征,使得医生对智能诊断的信任感还不足够高。

如果AI在用医生诊断时用的疾病特征来判断疾病类型,医生应该会比较容易接受AI系统。

留言 点赞 发个朋友圈

我们一起分享AI学习与发展的干货

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181128A1DSAD00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券