首页
学习
活动
专区
工具
TVP
发布

漫漫深度学习路

专栏作者
167
文章
214664
阅读量
54
订阅数
tensrflow lstm
tf.nn.rnn_cell.LSTMCell.__init__(num_units, input_size=None, use_peepholes=False, cell_clip=None, initializer=None, num_proj=None, num_unit_shards=1, num_proj_shards=1, forget_bias=1.0, state_is_tuple=False, activation=tanh) num_units: cell输出的维数(一个lstm的
ke1th
2019-05-28
5230
neural turing machine:神经图灵机tensorflow源码注释
版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/u012436149/article/details/52959593
ke1th
2019-05-27
7910
tensorflow学习笔记(二十四):Bucketing
tensorflow的编码原则是,先构建计算图,然后再去执行计算图(sess.run()).这就会导致一个问题,我们无法在运行的过程中动态的更改图的结构.我们能做的就是,先构建出完整的图,然后可以去执行其子图. tensorflow中的bucket就是基于这么一种思想.
ke1th
2019-05-26
1.1K0
tensorflow学习笔记(十六):rnn_cell.py
本文主要介绍一下 tensorflow.python.ops.rnn_cell 中的一些类和函数,可以为我们编程所用
ke1th
2019-05-26
8410
tensorflow学习笔记(十一):seq2seq Model相关接口介绍
tf.sampled_softmax_loss()中调用了_compute_sampled_logits() 关于__compute_sampled_logits()
ke1th
2019-05-26
8410
tensorflow学习笔记(八):dropout
我们都知道dropout对于防止过拟合效果不错 dropout一般用在全连接的部分,卷积部分一般不会用到dropout,输出曾也不会使用dropout,适用范围[输入,输出)
ke1th
2019-05-26
5220
tensorflow学习笔记(六):LSTM 与 GRU
[新增内容:今天写代码的时候,如果使用state_is_tuple=True, 那么
ke1th
2019-05-26
7300
tensorflow学习笔记(三十九) : 双向rnn (BiRNN)
双向RNN实际上仅仅是两个独立的RNN放在一起, 本博文将介绍如何在tensorflow中实现双向rnn
ke1th
2019-05-26
1.4K0
pytorch学习笔记(二十一): 使用 pack_padded_sequence
下面附上一张 pack_padded_sequence 原理图(其实只是将三维的输入去掉PAD的部分搞成了二维的。在RNN前向的时候,根据batch_sizes参数取对应的时间步计算。)
ke1th
2019-05-26
4.8K0
Andrew NG 在2016 NIPS 上tutorial 简单总结
本文介绍了神经网络在语音识别中的应用,以及如何在机器学习中进行数据处理和特征提取。作者还探讨了神经网络的发展趋势和模型选择问题,并提出了统一数据仓库的方案来提高模型准确率。
ke1th
2018-01-02
7240
神经网络如何防止过拟合(总结)
如何防止神经网络过拟合:通过获取更多的数据、选择正确的模型、将多个模型平均、贝叶斯方法、正则项、L1和L2、early stopping、输入加噪声、权重加噪声以及dropout等方法。具体来说,可以通过限制网络参数的总数量、使用L1和L2正则项、调整学习率、采用dropout以及限制训练样本数量等方法来防止过拟合。同时,还可以采用交叉验证、选择合适的模型、调整模型参数、采用贝叶斯方法、限制输出范围等方法来避免过拟合。
ke1th
2018-01-02
6200
Probabilistic decoder, Bayesian neural network, Probabilistic encoder
本文介绍了概率模型,包括Probabilistic decoder、Bayesian neural network和Probabilistic encoder。Probabilistic decoder是一种概率图模型,利用编码理论对likelihood进行重新解释。Bayesian neural network是一种概率模型,具有先验分布的神经网络。Probabilistic encoder则是一种变分推断模型,利用神经网络输出作为分布的参数。
ke1th
2018-01-02
9180
softmax交叉熵与最大似然估计
本文介绍了softmax交叉熵与最大似然估计的关系,指出它们实际上是等价的。softmax交叉熵的目标函数是最大化已出现样本的概率,与最大似然估计相同。因此,softmax交叉熵和最大似然估计在本质上是一致的,它们可以相互替代。
ke1th
2018-01-02
1.7K0
tensorflow:AToolDeveloperGuideToTFModelFIles
该文章讲述了TensorFlow中GraphDef和SavedModel两个主要文件格式的导出、使用和保存的过程。其中,GraphDef文件格式用于在TensorFlow中导出的图,SavedModel文件格式用于在TensorFlow中保存的模型。通过这些文件格式,可以方便地将TensorFlow模型从一个环境迁移到另一个环境,或在TensorFlow集群中部署。
ke1th
2018-01-02
1.3K0
神经网络激活函数总结
激活函数总结 sigmoid tanh ReLU Leaky ReLU Maxout ELU sigmoid 数学表示: [图片] 不建议使用,容易饱和 tanh 数学表示: [图片] ReLU 数学表示: [图片] 建议使用, 但是注意学习率,保证ReLU激活 Leaky ReLU 数学表示: [图片] Maxout 数学表示: [图片] ELU 数学表示: [图片]
ke1th
2018-01-02
6440
mxnet-Gluon(一):mxnet-Gluon 入门
本文介绍了如何使用MXNet处理深度学习中的梯度下降问题。首先介绍了MXNet的特点和适用场景,然后详细讲解了如何使用MXNet实现梯度下降。最后,展示了一个简单的示例,说明了如何使用MXNet进行深度学习建模。
ke1th
2018-01-02
1.2K0
没有更多了
社区活动
Python精品学习库
代码在线跑,知识轻松学
【玩转EdgeOne】征文进行中
限时免费体验,发文即有奖~
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档