漫漫深度学习路

87 篇文章
29 人订阅

全部文章

ke1th

tensorflow学习笔记(三十二):conv2d_transpose ("解卷积")

deconv解卷积,实际是叫做conv_transpose, conv_transpose实际是卷积的一个逆向过程,tf 中, 编写conv_transpose...

4689
ke1th

tensorflow学习笔记(三十):tf.gradients 与 tf.stop_gradient() 与 高阶导数

gradient tensorflow中有一个计算梯度的函数tf.gradients(ys, xs),要注意的是,xs中的x必须要与ys相关,不相关的话,会报错...

5879
ke1th

ubuntu16.04 server 无法联网

ubuntu16.04 server 无法联网 由于服务器上有四个网卡,不确定网线应该插哪个,所以导致了无法联网。 解决方法 ifconfig -a 打印出所有...

2205
ke1th

tensorflow学习笔记(二十六):构建TF代码

如何构建TF代码 batch_size: batch的大小 mini_batch: 将训练样本以batch_size分组 epoch_size: 样本分...

2065
ke1th

tensorflow学习笔记(三十一):构建多GPU代码

构建多GPU代码 结构 先构建单GPU代码 写个函数multi_gpu_model(num_gpus)来生成多GPU代码,并将对象保存在collection中 ...

2367
ke1th

python 文件操作

python 文件操作 判断文件/文件夹是否存在 import os print os.path.exits(file_name) # 存在:返回True,否则...

1827
ke1th

tensorflow学习笔记(三十三):ExponentialMovingAverage

ExponentialMovingAverage Some training algorithms, such as GradientDescent and M...

3426
ke1th

python画图:matplotlib(1)

python matplotlib matplotlib是python中用来绘图的一个库,提供非常强大的绘图功能。 安装 pip install matplot...

2137
ke1th

tensorflow学习笔记(二十七):leaky relu

tensorflow leaky relu 在tensorflow 0.12.0及之前,都没有内置的leaky relu函数,那么我们如何实现leaky rel...

2118
ke1th

tensorflow学习笔记(二十五):ConfigProto&GPU

tensorflow ConfigProto tf.ConfigProto一般用在创建session的时候。用来对session进行参数配置 with tf.S...

1785
ke1th

pytorch学习笔记(二):gradient

gradient 在BP的时候,pytorch是将Variable的梯度放在Variable对象中的,我们随时都可以使用Variable.grad得到对应Var...

2328
ke1th

信息熵(entropy)

information entropy 信息熵用来描述信息的不确定性,如果不确定性越高,那么信息熵越大,否则则越低。 自信息(信息量) I(X)称为自信息,I(...

2188
ke1th

tensorflow学习笔记(二十九):merge_all引发的血案

merge_all引发的血案 在训练深度神经网络的时候,我们经常会使用Dropout,然而在test的时候,需要把dropout撤掉.为了应对这种问题,我们通常...

23610
ke1th

tensorflow学习笔记(二十八):collection

tensorflow collection tensorflow的collection提供一个全局的存储机制,不会受到变量名生存空间的影响。一处保存,到处可取。...

2589
ke1th

ubuntu创建新用户

在Ubuntu下创建一个新的用户: 使用adduser step1: 切换成 root登录 step2: adduser username step3: 跟随系...

2639
ke1th

pandas基本用法(一)

pandas基本用法 读取csv文件 import pandas food_info = pandas.read_csv(file_name)# 返回一个Dat...

1908
ke1th

Andrew NG 在2016 NIPS 上tutorial 简单总结

Andrew NG 在2016 NIPS 上tutorial 简单总结 水平有限,如有错误,请不吝指正,谢谢! 视频地址youtube 神经网络已经出现很多...

1756
ke1th

tensorflow学习笔记(三十六):learning rate decay

learning rate decay 在训练神经网络的时候,通常在训练刚开始的时候使用较大的learning rate, 随着训练的进行,我们会慢慢的减小le...

3436
ke1th

pytorch学习笔记(十):learning rate decay(学习率衰减)

pytorch learning rate decay 本文主要是介绍在pytorch中如何使用learning rate decay. 先上代码: def...

43610
ke1th

pytorch学习笔记(三):自动求导

auto gradient 本片博文主要是对http://pytorch.org/docs/notes/autograd.html的部分翻译以及自己的理解,如有...

23210

扫码关注云+社区