首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

NIPS 2018 | 哪种特征分析法适合你的任务?Ian Goodfellow提出显著性映射的可用性测试

随着机器学习的复杂度和影响力不断提升,许多人希望找到一些解释的方法,用于阐释学得模型的重要属性 [1, 2]。对模型的解释可能有助于模型满足法规要求 [3],帮助从业人员对模型进行调试 [4],也许还能揭示模型学到的偏好或其他预期之外的影响 [5, 6]。显著性方法(Saliency method)是一种越来越流行的工具,旨在突出输入(通常是图像)中的相关特征。尽管最近有一些令人振奋的重大研究进展 [7-20],但是解释机器学习模型的重要努力面临着方法论上的挑战:难以评估模型解释的范围和质量。当要在众多相互竞争的方法中做出选择时,往往缺乏原则性的指导方针,这会让从业者感到困惑。

02

智能主题检测与无监督机器学习:识别颜色教程

介绍 人工智能学习通常由两种主要方法组成:监督学习和无监督的学习。监督学习包括使用现有的训练集,这种训练集由预先标记的分类数据列组成。机器学习算法会发现数据的特征和这一列的标签(或输出)之间的关联。通过这种方式,机器学习模型可以预测它从来没有公开过的新的数据列,并且根据它的训练数据返回一个精确的分类。在你已经有了预先分类的数据的情况下,监督学习对于大数据集是非常有用的。 在另一种是无监督的学习。使用这种学习方式,数据不需要在训练集中进行预先标记或预分类,相反,机器学习算法在数据的特征中发现相似的特征和关

04

自动学习扩展世界模型的多层次结构

本文关注离散生成模型的结构学习或发现。它侧重于贝叶斯模型选择和训练数据或内容的同化,特别强调数据被摄取的顺序。在接下来的方案中,关键的一步是根据预期自由能优先选择模型。在这种情况下,预期自由能减少到一个受约束的相互信息,其中约束继承了优于结果(即首选结果)的先验知识。产生的方案首先用于在MNIST数据集上执行图像分类,以说明基本思想,然后在更具挑战性的发现动态模型的问题上进行测试,使用简单的基于精灵的视觉解缠结范例和汉诺塔(参见,blocks world)问题。在这些例子中,生成模型被自动构建以恢复(即,解开)潜在状态的阶乘结构——以及它们的特征路径或动力学。

01

自动学习扩展世界模型的多层次结构

本文关注离散生成模型的结构学习或发现。它侧重于贝叶斯模型选择和训练数据或内容的同化,特别强调数据被摄取的顺序。在接下来的方案中,关键的一步是根据预期自由能优先选择模型。在这种情况下,预期自由能减少到一个受约束的相互信息,其中约束继承了优于结果(即首选结果)的先验知识。产生的方案首先用于在MNIST数据集上执行图像分类,以说明基本思想,然后在更具挑战性的发现动态模型的问题上进行测试,使用简单的基于精灵的视觉解缠结范例和汉诺塔(参见,blocks world)问题。在这些例子中,生成模型被自动构建以恢复(即,解开)潜在状态的阶乘结构——以及它们的特征路径或动力学。

01
领券