首页
学习
活动
专区
工具
TVP
发布

机器学习算法工程师

机器学习、深度学习、数据挖掘等人工智能领域的技术实战干货文章,这里都有!
专栏作者
197
文章
320619
阅读量
118
订阅数
基础|认识机器学习中的逻辑回归、决策树、神经网络算法
逻辑回归。它始于输出结果为有实际意义的连续值的线性回归,但是线性回归对于分类的问题没有办法准确而又具备鲁棒性地分割,因此我们设计出了逻辑回归这样一个算法,它的输出结果表征了某个样本属于某类别的概率。逻辑回归的成功之处在于,将原本输出结果范围可以非常大的θTX 通过sigmoid函数映射到(0,1),从而完成概率的估测。sigmoid函数图像如下图所示:
机器学习算法工程师
2018-09-29
8950
分布式TensorFlow入门教程
深度学习在各个领域实现突破的一部分原因是我们使用了更多的数据(大数据)来训练更复杂的模型(深度神经网络),并且可以利用一些高性能并行计算设备如GPU和FPGA来加速模型训练。但是有时候,模型之大或者训练数据量之多可能超出我们的想象,这个时候就需要分布式训练系统,利用分布式系统我们可以训练更加复杂的模型(单机无法装载),还可以加速我们的训练过程,这对于研究者实现模型的超参数优化是非常有意义的。2017年6月,Facebook发布了他们的论文Accurate, Large Minibatch SGD:Training ImageNet in 1 Hour,文中指出他们采用分布在32个服务器上的256块GPUs将Resnet-50模型在ImageNet数据集上的训练时间从两周缩短为1个小时。在软件层面,他们使用了很大的minibatch(8192)来训练模型,并且使学习速率正比于minibatch的大小。这意味着,采用分布式系统可以实现模型在成百个GPUs上的训练,从而大大减少训练时间,你也将有更多的机会去尝试各种各样的超参数组合。作为使用人数最多的深度学习框架,TensorFlow从version 0.8开始支持模型的分布式训练,现在的TensorFlow支持模型的多机多卡(GPUs和 CPUs)训练。在这篇文章里面,我将简单介绍分布式TensorFlow的基础知识,并通过实例来讲解如何使用分布式TensorFlow来训练模型。
机器学习算法工程师
2018-07-27
9650
深度学习对人工智能的贡献,更重要的是思想和可能性
深度学习是一种思想,一种学习模式,深度神经网络是一类模型,两者在本质上是不一样的。但目前大家普遍将深度神经网络认为就是深度学习。
机器学习算法工程师
2018-07-27
4730
机器翻译不可不知的Seq2Seq模型
Seq2Seq,全称Sequence to Sequence。它是一种通用的编码器——解码器框架,可用于机器翻译、文本摘要、会话建模、图像字幕等场景中。Seq2Seq并不是GNMT(Google Neural Machine Translation)系统的官方开源实现。框架的目的是去完成更广泛的任务,而神经机器翻译只是其中之一。在循环神经网络中我们了解到如何将一个序列转化成定长输出。在本文中,我们将探究如何将一个序列转化成一个不定长的序列输出(如机器翻译中,源语言和目标语言的句子往往并没有相同的长度)。
机器学习算法工程师
2018-07-27
1.3K0
如何训练深度神经网络?
译文:《How to train your Deep Neural Network》
机器学习算法工程师
2018-07-26
7660
Mask-RCNN论文解读
Mask R-CNN是基于Faster R-CNN的基于上演进改良而来,FasterR-CNN并不是为了输入输出之间进行像素对齐的目标而设计的,为了弥补这个不足,我们提出了一个简洁非量化的层,名叫RoIAlign。
机器学习算法工程师
2018-03-30
1.6K0
【DLND 机器学习算法全栈工程师】干货!小白也能看懂的神经网络入门
导语: 干货来了,Udacity Machine Learning 课程导师 Walker 亲自出马,教你简单形象有趣地掌握神经网络! 神经网络是什么?神经网络就是一系列简单的节点,在简单的组合下,表
机器学习算法工程师
2018-03-06
1.4K0
Batchnorm原理详解
作者:刘威威 小编:赵一帆 前言:Batchnorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,可以说是目前深度网络必不可少的一部分。 本文旨在用通俗易懂的语言,对深度学习的常用算法--batchnorm的原理及其代码实现做一个详细的解读。本文主要包括以下几个部分。 01 Batchnorm主要解决的问题 首先,此部分也即是讲为什么深度网络会需要batchnorm,我们都知道,深度学习的话尤其是在CV上都需要对数据做归一化,因为深度神经网络主要就是为了学习训练数据的分布,并在测
机器学习算法工程师
2018-03-06
3.9K0
CNN模型之SqueezeNet
作者: 叶 虎 编辑:赵一帆 01 引言 SqueezeNet是Han等提出的一种轻量且高效的CNN模型,它参数比AlexNet少50x,但模型性能(accuracy)与AlexNet接近。 在可接受的性能下,小模型相比大模型,具有很多优势: 更高效的分布式训练,小模型参数小,网络通信量减少; 便于模型更新,模型小,客户端程序容易更新; 利于部署在特定硬件如FPGA,因为其内存受限。因此研究小模型是很有现实意义的。 Han等将CNN模型设计的研究总结为四个方面: 模型压缩:对pre-trained的模
机器学习算法工程师
2018-03-06
1.7K0
Object Detection系列(三) Fast R-CNN
作者:张 旭 编辑:黄俊嘉 该内容是目标检测系列的第三篇,系列前部分内容如下,点击可查看: Object Detection系列(一) R-CNN Object Detection系列(二) S
机器学习算法工程师
2018-03-06
8230
ResNet, AlexNet, VGG, Inception: 理解各种各样的CNN架构
作者:叶 虎 编辑:王抒伟 本文翻译自ResNet, AlexNet, VGG, Inception: Understanding various architectures of Convolutional Networks http://cv-tricks.com/cnn/understand-resnet-alexnet-vgg-inception/ 原作者保留版权。 卷积神经网络(CNN)在视觉识别任务上的表现令人称奇。好的CNN网络是带有上百万参数和许多隐含层的“庞然怪物”。事实上,一个
机器学习算法工程师
2018-03-06
2.5K0
浅析深度学习在实体识别和关系抽取中的应用
实体识别 作者:蒙 康 编辑:黄俊嘉 命名实体识别 1 命名实体识别(Named Entity Recognition,NER)就是从一段自然语言文本中找出相关实体,并标注出其位置以及类型,如下
机器学习算法工程师
2018-03-06
2.3K0
基础|认识机器学习中的逻辑回归、决策树、神经网络算法
作者:石文华 编辑:田 旭 逻辑回归 1 逻辑回归。它始于输出结果为有实际意义的连续值的线性回归,但是线性回归对于分类的问题没有办法准确而又具备鲁棒性地分割,因此我们设计出了逻辑回归这样一个算法,它
机器学习算法工程师
2018-03-06
1.2K0
Object Detection系列(一)R-FCN
作者:张 旭 编辑:祝鑫泉 Object Detection系列(一) R-FCN R-FCN简介 上面这张图在这个系列文章中都会出现,可以看到,在时间轴上R-FCN并不应该出现在第五篇中,但是
机器学习算法工程师
2018-03-06
6440
深度神经网络训练的必知技巧
作者:章华燕 编辑:李文臣 本文主要介绍8种实现细节的技巧或tricks:数据增广、图像预处理、网络初始化、训练过程中的技巧、激活函数的选择、不同正则化方法、来自于数据的洞察、集成多个深度网络的方法。
机器学习算法工程师
2018-03-06
1.3K0
深入浅出解读卷积神经网络
作者:石文华 编辑:田 旭 卷积神经网络 图1 全连接神经网络结构图 图2 卷积神经网络结构图 卷积神经网络和全连接的神经网络结构上的差异还是比较大的,全连接的网络,相邻两层的节点都有边相连,而卷积神
机器学习算法工程师
2018-03-06
4990
简单易懂的自动编码器
作者:叶虎 编辑:田旭 引言 自动编码器是一种无监督的神经网络模型,它可以学习到输入数据的隐含特征,这称为编码(coding),同时用学习到的新特征可以重构出原始输入数据,称之为解码(decoding)。从直观上来看,自动编码器可以用于特征降维,类似主成分分析PCA,但是其相比PCA其性能更强,这是由于神经网络模型可以提取更有效的新特征。除了进行特征降维,自动编码器学习到的新特征可以送入有监督学习模型中,所以自动编码器可以起到特征提取器的作用。作为无监督学习模型,自动编码器还可以用于生成与训练样本不同的新数
机器学习算法工程师
2018-03-06
1.6K0
全面直观认识深度神经网络
作者:石文华 编辑:赵一帆 01 深度学习的精准定义 一类通过多层非线性变换对高复杂性数据建模算法的集合。它的两个非常重要的特征是多层性和非线性。俗称多层非线性变换。所以深度学习要去线性化。 为什么呢?因为线性模型存在局限性,任意线性模型得到组合仍然还是线性模型。所以只要通过线性变换,任意层的全连接神经网络和单层神经网络模型的表达能力没有任何区别,而且他们都是线性模型,线性模型解决问题的能力是有限的。 02 激活函数实现去线性化 每个神经元(也就是神经网络上的节点)的输出通过一个非线性函数
机器学习算法工程师
2018-03-06
7660
RNN入门与实践
作者:叶虎 编辑:黄俊嘉 引言 递归神经网络(Recurrent Neural Network, RNN)是神经网络家族的重要成员,而且也是深度学习领域中的得力干将,因为深度学习广泛应用的领域如语音识别,机器翻译等都有RNN的身影。与经典的神经网络不同,RNN主要解决的是样本数据为序列的建模问题,如语音序列,语言序列。因为对于序列数据来说,大部分情况下序列的每个元素并不是相互独立,其存在依赖关系,而RNN特别适合这类建模问题。本文会介绍RNN的原理及应用,并动手实现一个RNN预测模型。 RNN原理 RNN
机器学习算法工程师
2018-03-06
1.2K0
《机器学习》笔记-神经网络(5)
作者:刘才权 编辑:赵一帆 写在最前面 如今机器学习和深度学习如此火热,相信很多像我一样的普通程序猿或者还在大学校园中的同学,一定也想参与其中。不管是出于好奇,还是自身充电,跟上潮流,我觉得都值得试一试。 对于自己,经历了一段时间的系统学习(参考《机器学习/深度学习入门资料汇总》),现在计划重新阅读《机器学习》[周志华]和《深度学习》[Goodfellow et al]这两本书,并在阅读的过程中进行记录和总结。 这两本是机器学习和深度学习的入门经典。笔记中除了会对书中核心及重点内容进行记录,同时,也会增加自
机器学习算法工程师
2018-03-06
6460
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档