首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    解读 | ICLR-17 最佳论文:理解深度学习需要重新思考泛化问题

    选自morning paper 机器之心编译 参与:黄玉胜、黄小天 本文是一篇很好的综述论文:结果很容易理解,也让人有些惊讶,但其意指又会让人思考良久。 对于文中的问题,作者是这样回答的: 如何区分泛化能力好的与差的神经网络?问题答案是泛化能力好的神经网络不仅有助于提升网络解释性,而且还可以带来更有规律、更可靠的模型架构设计。 所谓的「泛化能力好」,作者对此做出的简单解释是「那些在训练集上表现好的网络在测试集上也有良好的表现?」(与迁移学习不同的是,这涉及将训练过的网络应用于相关而又不相同的问题中)。如果你

    09

    知识图谱和可解释性深度学习的发展深度学习问题知识图谱为可解释提供依据利用知识图谱对可解释性应用知识图谱在可解释性上的困难

    深度学习的发展 这些年深度学习突飞猛进,各种深度学习模型层出不穷,各种网络结构纷纷登场。 可实际上它发展的本质是由大数据喂出来的,使得机器在图像、语音识别等感知能力方面甚至超越人类。 在深度学习的推动下,自然语言处理方面也取得了显著进展。 深度学习问题 深度学习的一个广为诟病的问题是其不透明性,不可解释性。深度学习模型是一种端到端的学习,接受大样本作为训练输入,所习得的模型本质上是神经网络结构的参数。 其预测过程,是相应参数下的计算过程。 深度学习的学习和预测过程是不透明的,模型究竟学到了什么有效特征,使得

    04

    NIPS 2018 | 哪种特征分析法适合你的任务?Ian Goodfellow提出显著性映射的可用性测试

    随着机器学习的复杂度和影响力不断提升,许多人希望找到一些解释的方法,用于阐释学得模型的重要属性 [1, 2]。对模型的解释可能有助于模型满足法规要求 [3],帮助从业人员对模型进行调试 [4],也许还能揭示模型学到的偏好或其他预期之外的影响 [5, 6]。显著性方法(Saliency method)是一种越来越流行的工具,旨在突出输入(通常是图像)中的相关特征。尽管最近有一些令人振奋的重大研究进展 [7-20],但是解释机器学习模型的重要努力面临着方法论上的挑战:难以评估模型解释的范围和质量。当要在众多相互竞争的方法中做出选择时,往往缺乏原则性的指导方针,这会让从业者感到困惑。

    02

    《推荐系统实践》:如何利用用户标签数据?

    基于标签的推荐系统 用户用标签来描述自己对物品的看法,因此,标签成为了联系用户和物品的纽带。因此,标签数据是反应用户兴趣的重要数据源,而如何利用用户的标签数据来提高用户个性化推荐结果的质量,是推荐系统研究的重要问题。 在如何利用标签数据的问题上,豆瓣无疑是这方面的代表。豆瓣将标签系统融入到他们的整个产品线中。下面以豆瓣读书为例进行介绍。首先,在每本书的页面上,都提供了一个叫做“豆瓣成员常用标签”的应用,它给出了这本书上用户最常打的标签。同时,在用户希望给书做评价时,豆瓣也会让用户给图书打标签。最后,在最终的

    09

    【Python机器学习】系列之从线性回归到逻辑回归篇(深度详细附源码)

    第1章 机器学习基础 将机器学习定义成一种通过学习经验改善工作效果的程序研究与设计过程。其他章节都以这个定义为基础,后面每一章里介绍的机器学习模型都是按照这个思路解决任务,评估效果。 第2章 线性回归 介绍线性回归模型,一种解释变量和模型参数与连续的响应变量相关的模型。本章介绍成本函数的定义,通过最小二乘法求解模型参数获得最优模型。 第3章 特征提取与处理 很多机器学习问题需要研究的对象可能是分类变量、文字甚至图像。本章介绍提取这些变量特征的方法。这些技术是数据处理的前提——序列化,更是机器学习的基

    010
    领券