首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

卷积神经网络表征可视化研究综述(1)

近年来, 深度学习在图像分类、目标检测及场景识别等任务上取得了突破性进展, 这些任务多以卷积神经网络为基础搭建识别模型, 训练后的模型拥有优异的自动特征提取和预测性能, 能够为用户提供“输入–输出”形式的端到端解决方案. 然而, 由于分布式的特征编码和越来越复杂的模型结构, 人们始终无法准确理解卷积神经网络模型内部知识表示, 以及促使其做出特定决策的潜在原因. 另一方面, 卷积神经网络模型在一些高风险领域的应用, 也要求对其决策原因进行充分了解, 方能获取用户信任. 因此, 卷积神经网络的可解释性问题逐渐受到关注. 研究人员针对性地提出了一系列用于理解和解释卷积神经网络的方法, 包括事后解释方法和构建自解释的模型等, 这些方法各有侧重和优势, 从多方面对卷积神经网络进行特征分析和决策解释. 表征可视化是其中一种重要的卷积神经网络可解释性方法, 能够对卷积神经网络所学特征及输入–输出之间的相关关系以视觉的方式呈现, 从而快速获取对卷积神经网络内部特征和决策的理解, 具有过程简单和效果直观的特点. 对近年来卷积神经网络表征可视化领域的相关文献进行了综合性回顾, 按照以下几个方面组织内容: 表征可视化研究的提起、相关概念及内容、可视化方法、可视化的效果评估及可视化的应用, 重点关注了表征可视化方法的分类及算法的具体过程. 最后是总结和对该领域仍存在的难点及未来研究趋势进行了展望.

04

你的模型需要解释(二)

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息。比如我们在调试bug的时候,需要通过变量审查和日志信息定位到问题出在哪里。比如在科学研究中面临一个新问题的研究时,我们需要查阅一些资料来了解这个新问题的基本概念和研究现状,以获得对研究方向的正确认识。反过来理解,如果在一些情境中我们无法得到相应的足够的信息,那么这些事情对我们来说都是不可解释的。比如刘慈欣的短篇《朝闻道》中霍金提出的“宇宙的目的是什么”这个问题一下子把无所不知的排险者卡住了,因为再高等的文明都没办法理解和掌握造物主创造宇宙时的全部信息,这些终极问题对我们来说永远都是不可解释的。

04

DeepMind新成果:通过删除神经元来理解深度学习

编者按:深度学习算法近年来取得了长足的进展,也给整个人工智能领域送上了风口。但深度学习系统中分类器和特征模块都是自学习的,神经网络的可解释性成为困扰研究者的一个问题,人们常常将其称为黑箱。但理解深度神经网络的工作原理,对于解释其决策方式,并建立更强大的系统至关重要。 近日,DeepMind 发布了其关于神经网络可解释性的最新研究成果,他们通过删除网络中的某些神经元组,从而判定其对于整个网络是否重要。核心发现有如下两点: 可解释的神经元(例如“猫神经元”)并不比难以解释的神经元更重要。 泛化性良好的网络对于

02

深度 | DeepMind提出神经元删除法:通过理解每个神经元来理解深度学习

选自DeepMind 机器之心编译 近日,DeepMind 发表博客介绍其对神经网络可解释性的最新研究成果。受神经科学启发,他们通过删除神经元来探索其对网络性能的影响。研究发现,和过去的经验直觉相反,选择性神经元(如「猫神经元」)对于网络的泛化能力并不重要。而某些行为难以理解的非选择性神经元却是不可或缺的。此外,作者还对比了泛化好和记忆好的网络对删除操作的响应行为。 深度神经网络由很多独立的神经元组成,这些神经元以一种复杂而反直觉的方式结合,从而完成一系列的挑战性任务。这一复杂性保证了神经网络的效力,但也使

05

中科院自动化所副所长刘成林教授:模式识别,从初级感知到高级认知

感知(模式识别)是从传感数据判断模式的存在、类别,给出结构描述和关系描述的过程。目前以深度神经网络为主的模式识别方法只解决了初级感知(检测、分类)问题,属于高级感知层面的结构和关系理解已有一些研究进展但还没有解决,而结合知识进行模式识别和理解并把结果用于决策规划则属于高级认知的范畴,是未来要加强研究的方向。 作者 | 杏花 编辑 | 青暮 今年10月12日,2021中国人工智能大会(CCAI 2021)在成都正式启幕,23位中外院士领衔,近百位学术技术精英共聚西南人工智能新高地,深入呈现人工智能学术研究,以

02

中科院深圳先进院:全新知识增强图神经网络实现可解释性推荐|TKDE 2022

---- 新智元报道   作者:吴悦 连肇瑞 审核:吕子钰 编辑:LRS 【新智元导读】近日,来自中科院深圳先进院的团队提出了知识增强图神经网络(KEGNN)实现可解释性推荐。定量和定性的结果表明,KEGNN优于现有的方法,在提供精准推荐结果的同时生成人类可读的推荐解释。 近年来,以大数据和深度学习为基础的人工智能展示了卓越的计算能力和学习能力。但深度学习模型通常包含深度嵌套的非线性结构,很难确定具体哪些因素使它做出这样的决定,缺乏决策的可解释性和透明度。 与此同时,由于可解释的建议不仅提高了推荐系统

02

学界 | DeepMind论文解读:通过删除神经元来了解深度学习

AI科技评论按:深度神经网络由许多单独的神经元组成,它们以复杂且违反人直觉的方式组合起来,以解决各种具有挑战性的任务。这种复杂性一方面赋予神经网络神秘力量,另一方面,也让它们变成了人类难懂的黑匣子。 了解神经网络的深层功能对于解释它们是如何做决定至关重要,并且能帮我们构建更强大的系统。就像,你不了解各个齿轮如何配合工作,你在试图做一个钟表时就很困难。 要想理解神经科学和深度学习中的神经网络,一种方法是弄清单个神经元的作用,尤其是那些易于解释的神经元。 DeepMind 最新的一篇关于神经网络学习的论文《On

05
领券