即使是非计算机行业, 大家也知道很多有名的神经网络结构, 比如CNN在处理图像上非常厉害, RNN能够建模序列数据. 然而CNN, RNN之类的神经网络结构本身, 并不能用于执行比如图像的内容和风格分
选自Paperspace Blog 作者:Felipe 机器之心编译 参与:Jane W、黄小天 「大多数人类和动物学习是无监督学习。如果智能是一块蛋糕,无监督学习是蛋糕的坯子,有监督学习是蛋糕上的糖衣,而强化学习则是蛋糕上的樱桃。我们知道如何做糖衣和樱桃,但我们不知道如何做蛋糕。」 Facebook 人工智能研究部门负责人 Yann LeCun 教授在讲话中多次提及这一类比。对于无监督学习,他引用了「机器对环境进行建模、预测可能的未来、并通过观察和行动来了解世界如何运作的能力」。 深度生成模型(deep
想入门深度学习的小伙伴有福了!dataflowr 最近推出了一门五天初步掌握深度学习的实战教程(实战使用 PyTorch 框架),有知识点有实例有代码,值得一看。该课程的创建和维护者是法国国立计算机及自动化研究院(INRIA)的研究员 Marc Lelarge。
项目地址:https://github.com/rasbt/deeplearning-models
生成对抗网络及其变体的实现分为基于 Keras 和基于 PyTorch 两个版本。它们都是按照原论文实现的,但模型架构并不一定完全和原论文相同,作者关注于实现这些论文最核心的思想,而并不确定所有层级的配置都和原论文完全一致。本文首先将介绍各种 GAN 的论文摘要,然后提供详细论文和实现的地址。
损失函数无疑是机器学习和深度学习效果验证的核心检验功能,用于评估模型预测值与实际值之间的差异。我们学习机器学习和深度学习或多或少都接触到了损失函数,但是我们缺少细致的对损失函数进行分类,或者系统的学习损失函数在不同的算法和任务中的不同的应用。因此有必要对整个损失函数体系有个比较全面的认识,方便以后我们遇到各类功能不同的损失函数有个清楚的认知,而且一般面试以及论文写作基本都会对这方面的知识涉及的非常深入。故本篇文章将结合实际Python代码实现损失函数功能,以及对整个损失函数体系进行深入了解。
自编码器是一种无监督方法,它通过同时学习编码器-生成器图将「生成性」和「表征性」结合起来。关于自编码器有两个疑问尚未得到解决:
选自GitHub 作者:eriklindernoren 机器之心编译 参与:刘晓坤、思源、李泽南 生成对抗网络一直是非常美妙且高效的方法,自 14 年 Ian Goodfellow 等人提出第一个生成对抗网络以来,各种变体和修正版如雨后春笋般出现,它们都有各自的特性和对应的优势。本文介绍了主流的生成对抗网络及其对应的 PyTorch 和 Keras 实现代码,希望对各位读者在 GAN 上的理解与实现有所帮助。 PyTorch 实现地址:https://github.com/eriklindernoren/
协同过滤算法除了捕捉用户潜在的消费模式外,还会学习用户特定的人口统计学特征或受保护信息等特征,如性别、种族和地理位置位置。这些偏见(Bias)信息会进一步影响推荐系统(RS)的决策,使得推荐算法会提供给不同用户子群的内容进一步分离,这将引起对用户受保护属性泄露的隐私问题。通过观察下图,可以发现基本的推荐算法(MultVAE)存在性别上的偏差,使得攻击者可以很容易的识别这种模式并进行敏感属性的推测。
有这么一份干货,汇集了机器学习架构和模型的经典知识点,还有各种TensorFlow和PyTorch的Jupyter Notebook笔记资源,地址都在,无需等待即可取用。
最近,威斯康辛大学麦迪逊分校统计学助理教授、机器学习和深度学习研究者 Sabastian Raschka 在 GitHub 上创建了一个项目,包含大量深度学习架构、模型和 tips。目前,该项目已获星8000+,值得一看!
原项目 | https://github.com/aymericdamien/TensorFlow-Examples/
有GitHub小伙伴提供了前人的肩膀供你站上去。TA汇总了18种热门GAN的PyTorch实现,还列出了每一种GAN的论文地址,可谓良心资源。
机器之心报道 参与:黄小天 近日,使用 GPU 和 CPU 优化的深度学习张量库 PyTorch 上线了其第一版中文文档,内容涵盖介绍、说明、Package 参考、torchvision 参考等 4 个方面。机器之心第一时间与读者做出分享,扩充了 PyTorch 的介绍部分,并整理附上了机器之心 PyTorch 相关资源文章列表。 PyTorch 中文文档:http://pytorch-cn.readthedocs.io/zh/latest/#pytorch 介绍 PyTorch 是一个 Python 优先
主要是基于图深度学习的入门内容。讲述最基本的基础知识,其中包括深度学习、数学、图神经网络等相关内容。该教程由代码医生工作室出版的全部书籍混编节选而成。偏重完整的知识体系和学习指南。
【新智元导读】这是一份生成对抗(神经)网络的重要论文以及其他资源的列表,由 Holger Caesar 整理,包括重要的 workshops,教程和博客,按主题分类的重要论文,视频,代码等,值得收藏学习。 目录 Workshops 教程 & 博客 论文 理论 & 机器学习 视觉应用 其他应用 幽默 视频 代码 Workshops NIP 2016 对抗训练 Workshop 【网页】https://sites.google.com/site/nips2016adversari
你知道在那个满是灰尘的相册里的童年旧照片是可以复原的吗?是啊,就是那种每个人都手牵着手,尽情享受生活的那种!不相信我吗?看看这个:
先将高维的原始数据映射到一个低维特征空间,然后从低维特征学习重建原始的数据。一个AE模型包含两部分网络:
生成学习(Generative Learning)在机器学习领域中占据了重要的位置。它通过学习数据分布的方式生成新的数据实例,这在多种应用中表现出了其独特的价值。本节将深入探讨生成学习的核心概念,明确区分生成学习与判别学习,并探索生成学习的主要应用场景。
生成模型一直是机器学习和计算机视觉领域的重要研究方向。以生成对抗网络(GANs)和变分自编码器(VAEs)等为代表的深度生成模型已经成为当前人工智能研究的热点问题和重要前沿方向。目前的各种深度生成模型都各有其优点和缺点,比如生成对抗网络的训练稳定性和模式崩溃(mode collapse)问题等,变分自编码器生成图像比较模糊等。针对这些问题,我们提出了一种新的生成模型——自省变分自编码器,用于实现稳定训练和生成高分辨率真实图像。
无监督学习的目标之一是不依靠显式的标注得到数据集的内在结构。自编码器是一种用于达成该目标的常见结构,它学习如何将数据点映射到隐编码中——利用它以最小的信息损失来恢复数据。通常情况下,隐编码的维度小于数据的维度,这表明自编码器可以实施某种降维。对于某些特定的结构,隐编码可以揭示数据集产生差异的关键因素,这使得这些模型能够用于表征学习 [7,15]。过去,它们还被用于预训练其它网络:先在无标注的数据上训练它们,之后将它们叠加起来初始化深层网络 [1,41]。最近的研究表明,通过对隐藏空间施加先验能使自编码器用于概率建模或生成模型建模 [18,25,31]。
论文:Multimodal Unsupervised Image-to-Image Translation
【AI研习社】关注AI前沿、开发技巧及技术教程等方面的内容。欢迎技术开发类文章、视频教程等内容投稿,邮件发送至:zhangxian@leiphone.com ————————————————————
自监督学习(SSL)是一种机器学习方法,最近在各种时间序列任务上取得了令人印象深刻的表现。SSL最显著的优点是它减少了对标记数据的依赖。基于预训练和微调策略,即使是少量的标记数据也能实现高性能。
GitHub上面,有个新发布的深度学习实践教程,叫PracticalAI,被PyTorch官方推特翻了牌,已经收获2600多标星。
国外大佬 Sabastian Raschka (威斯康星大学统计学助理教授、《Python of Machine Learning》 作者)最近在 GitHub 上创建了一个深度学习模型的项目。项目主要收集了深度学习的多种模型、架构和注意事项。
对于深度学习而言,在有很多数据的情况下,再复杂的问题也不在话下,然而没有这么多数据呢?本文作者 Tyler Folkman 针对这一问题,为大家介绍了几个在有限的数据上使用深度学习的方法,让深度学习即便在面临数据稀缺时,也能大展身手。
编译 | AI科技大本营(rgznai100) 参与 | 史天,胡永波,鸽子 我的天啊,这些少年们,让身为多年程序猿,却还在吃草的我们,情何以堪,情何以堪...AI哥也只剩下最后一点自信了,那就是..
人工神经网络有许多流行的变体,可用于有监督和无监督学习问题。自编码器也是神经网络的一个变种,主要用于无监督学习问题。
论文:Advances and challenges in deep generative models for de novo molecule generation
自编码器(AE)及其变体被广泛用于无监督学习 [74],它适用于学习没有监督信息的图节点表示。 在本节中,我们将首先介绍图自编码器,然后转向图变分自编码器和其他改进。表 4 总结了所调查的 GAE 的主要特征。
众所周知,GAN可分为无条件无监督式、条件监督式两大类;前者不需要标签,后者相反;
本文讲解了变分自编码器(VAE)的原理、优点和缺点。变分自编码器是一种无监督学习方法,用于从数据中学习表示。它通过学习数据的概率分布来实现,使得重构误差最小化。VAE的优点包括能够生成高质量的图像、图像生成和图像去噪。缺点包括其倾向于生成模糊图像,以及需要手动调整超参数。
本篇介绍了深度神经网络表示学习+聚类的方法(深度聚类)综述,有帮助的话,文末点个赞吧~
机器之心整理 参与:路雪、蒋思源 2017年,人工智能技术出现了很多新的技术和发展,在这一年中机器之心发布了很多教程类文章,有适合入门学习者的,有适合已经具备专业知识和实践经验的从业者的;有关于语言的,有关于框架的,有关于硬件配置的,甚至还有关于猫片、漫画的…… 教程那么多,你……看完了吗? 本文对这一年来机器之心发布的教程进行总结,共分为 What 和 How 两大部分,在两大板块下又进行细分,目录如下: What 概念 机器学习基础 深度模型基础 强化学习基础 数学 How
选自Medium 作者:Harshvardhan Gupta 机器之心编译 参与:刘晓坤、路雪 去年,Facebook 发表论文《Unsupervised Machine Translation Using Monolingual Corpora Only》,提出使用单语语料库的无监督式机器翻译。近日 Medium 上一篇文章对该论文进行了解读,机器之心对此进行了编译介绍。 深度学习广泛应用于日常任务中,尤其擅长包含一定「人性」的领域,如图像识别。或许深度网络最有用的功能就是数据越多性能越好,这一点与机器
GAN(Generative Adversarial Network)生成对抗网络,由Ian Goodfellow在2014年提出。
来源:机器之心 本文长度为1200字,建议阅读3分钟 本文为你分享计算机视觉领域和深度学习领域最为经典的课程之一CS231n2017年全部课件。 CS231n 近几年一直是计算机视觉领域和深度学习领域最为经典的课程之一。而不久前结课的 CS231n Spring 2017 仍由李飞飞带头主讲,并邀请了 Goodfellow 等人对其中部分章节详细介绍。 本课程从计算机视觉的基础概念开始,在奠定了基本分类模型、神经网络和优化算法的基础后,重点详细介绍了 CNN、RNN、GAN、RL 等深度模型在计算机视觉
领取专属 10元无门槛券
手把手带您无忧上云