首页
学习
活动
专区
工具
TVP
发布

机器学习算法与理论

专栏作者
57
文章
73351
阅读量
28
订阅数
交通事故预测 读书笔记
Hetero-ConvLSTM: A Deep Learning Approach to Traffic
微风、掠过
2018-12-12
9020
深度学习核心技术实战 NLP-word2vec
多分类的逻辑回归- softmax模型 word2vec:词向量 one-hot representation 对应位置为1,但不能表达词之间的关系 本质上是对词的一种表示,但是是结合了上下文内容的。无监督模型 词的两种表示: One-hot Representation(独热表示) “苹果”表示为 [0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 …] 优点:简介,缺点:词之间是孤立的,维数灾难。 Distributed Representation(分布式表示) 词向量或者词嵌入(word embedding)是用一个向量来表示一个词,一定程度上可以用来刻画词之间的语义距离。 给出一个文档,用一个单词序列比如 “我喜欢苹果”,然后对文档中每个不同的单词都得到一个对应的低维向量表示,“苹果”表示为 [0.11, −0.77, −0.71, 0.10, −0.50, …]。 优点:低维、相似词的词向量距离相近,缺点:计算复杂。
微风、掠过
2018-10-09
3170
Tensorflow 实战笔记
tf.Variable(tf.random_normal([2,3],stddev=2)) 通过满足正态分布的随机数来初始化神经网络中的参数是一个常用方法。
微风、掠过
2018-10-09
4610
城市计算
空间层次: 划分街道 不同区域 城市的区域、街道等这些地理信息里都蕴藏着明确的多层次的语义信息
微风、掠过
2018-10-09
1.1K0
Tensorflow 之RNNinputs: shape = (batch_size, time_steps, input_size)cell: RNNCellinitial_state: shape
output = np.reshape(aa, [-1,5]) -1表示一个占位符,分为5列。
微风、掠过
2018-08-14
6640
【计算机视觉】目标检测方法汇总
1、 选择性搜索:方法:滑动窗口,规则块(利用约束进行剪枝)、选择性搜索(自底向上合并相邻的重叠区域) 一步步计算相似度 并且合并、剔除相似度的高的
微风、掠过
2018-08-02
6880
深度学习核心技术实战——图像分类模型
1.LeNet-5: 每一个卷积核都会形成一个特征图,3个通道则是每个通道是不同的卷积核,但是最后是将三通道的卷积值相加,最后变成一个通道,所以5564的卷积核,感知范围是5*5,最后出来是64层(个特征图)。每个卷积核都包括w(权重)和b(bias偏置)。LeNet-5最初用于手写数字识别。
微风、掠过
2018-08-02
3680
深度学习—带动量的SGD相关参数
一、weight decay(权值衰减)的使用既不是为了提高你所说的收敛精确度也不是为了提高收敛速度,其最终目的是防止过拟合。在损失函数中,weight decay是放在正则项(regularization)前面的一个系数,正则项一般指示模型的复杂度,所以weight decay的作用是调节模型复杂度对损失函数的影响,若weight decay很大,则复杂的模型损失函数的值也就大。 二、momentum是梯度下降法中一种常用的加速技术。对于一般的SGD,其表达式为 w=w-alph*f'(x)(梯度)沿负梯度方向下降。而带momentum项的SGD则写生如下形式:
微风、掠过
2018-08-02
9970
《白话深度学习与Tensorflow》学习笔记(3)HMM RNN LSTM
RNN:循环神经网络 与CNN最大的不同是记忆暂存功能,可以把过去输入的内容所产生的远期影响量化后与当前时间输入内容一起反应到网络中参与训练。尤其是对时间序列、自然语言(上下文关系)的处理,具有优势。 马尔科夫链:在给定当前的知识或信息下,观测对象过去的历史状态对于将来的预测是无关的,只需要观测当前状态即可得出。 HMM:隐马尔可夫模型,隐马尔可夫链的模型相对简化,是贝叶斯信念的一个特例。 假如三个骰子,分别是正方体D6、四面体D4和八面体D8。 无序的扔这三个骰子,可能出现了一串序列,2,1,8。这就叫做
微风、掠过
2018-04-10
1K0
《白话深度学习与Tensorflow》学习笔记(2)
1、CUDA(compute unified device architecture)可用于并行计算: GTX1060 CUDA核心数:1280 显存大小:6G 2、随机梯度下降:计算偏导数需要的计算量很大,而采用随机梯度下降(即采用采样的概念)从中提取一部分样本来,这些样本中的特征已经可以在一定程度上代表完整训练集的特征。 Tensorflow中可以指定一个batch的size,规定每次被随机选择参与归纳的样本数。 3、梯度消失与梯度爆炸问题: 梯度消失:两个节点相连的神经网络,在使用链式法则的时候,会
微风、掠过
2018-04-10
5650
《白话深度学习与Tensorflow》学习笔记(6)生成式对抗网络(GAN)
生成对抗网络(generative adversarial networks): G:生成式模型 用于生成新的结果;D:判别式模型:将G生成的结果输入到D进行判别。 D的训练是希望尽可能正确提取x特征,增大正确判断的概率D(x) G的训练是希望尽可能伪造出一些图片让D误以为是真的,增大1-D(G(z))。 最终目的是训练D、G达到一个平衡使得G所生成的图片(结果)能够以假乱真。 在这个网络里没有损失函数的的概念,而是为了寻求一个最大值。 GAN也可能出现不收敛的问题,D和G在做纳什均衡,只有保证评价函数是凹
微风、掠过
2018-04-10
8290
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档