首页
学习
活动
专区
工具
TVP
发布

漫漫深度学习路

专栏作者
167
文章
216496
阅读量
54
订阅数
tensrflow lstm
tf.nn.rnn_cell.LSTMCell.__init__(num_units, input_size=None, use_peepholes=False, cell_clip=None, initializer=None, num_proj=None, num_unit_shards=1, num_proj_shards=1, forget_bias=1.0, state_is_tuple=False, activation=tanh) num_units: cell输出的维数(一个lstm的
ke1th
2019-05-28
5260
neural turing machine:神经图灵机tensorflow源码注释
版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/u012436149/article/details/52959593
ke1th
2019-05-27
7950
tensorflow学习笔记(二十四):Bucketing
tensorflow的编码原则是,先构建计算图,然后再去执行计算图(sess.run()).这就会导致一个问题,我们无法在运行的过程中动态的更改图的结构.我们能做的就是,先构建出完整的图,然后可以去执行其子图. tensorflow中的bucket就是基于这么一种思想.
ke1th
2019-05-26
1.1K0
tensorflow学习笔记(十六):rnn_cell.py
本文主要介绍一下 tensorflow.python.ops.rnn_cell 中的一些类和函数,可以为我们编程所用
ke1th
2019-05-26
8430
tensorflow学习笔记(十一):seq2seq Model相关接口介绍
tf.sampled_softmax_loss()中调用了_compute_sampled_logits() 关于__compute_sampled_logits()
ke1th
2019-05-26
8450
tensorflow学习笔记(八):dropout
我们都知道dropout对于防止过拟合效果不错 dropout一般用在全连接的部分,卷积部分一般不会用到dropout,输出曾也不会使用dropout,适用范围[输入,输出)
ke1th
2019-05-26
5250
tensorflow学习笔记(六):LSTM 与 GRU
[新增内容:今天写代码的时候,如果使用state_is_tuple=True, 那么
ke1th
2019-05-26
7380
tensorflow学习笔记(三十九) : 双向rnn (BiRNN)
双向RNN实际上仅仅是两个独立的RNN放在一起, 本博文将介绍如何在tensorflow中实现双向rnn
ke1th
2019-05-26
1.4K0
pytorch学习笔记(二十一): 使用 pack_padded_sequence
下面附上一张 pack_padded_sequence 原理图(其实只是将三维的输入去掉PAD的部分搞成了二维的。在RNN前向的时候,根据batch_sizes参数取对应的时间步计算。)
ke1th
2019-05-26
4.9K0
tensorflow学习笔记(三十四):Saver(保存与加载模型)
本文介绍了TensorFlow中Saver的使用方法,包括如何创建Saver对象、如何恢复模型、如何保存和恢复变量等内容。同时,还提供了一些示例和代码,以帮助读者更好地理解Saver的使用。
ke1th
2018-01-02
1.3K0
Probabilistic decoder, Bayesian neural network, Probabilistic encoder
本文介绍了概率模型,包括Probabilistic decoder、Bayesian neural network和Probabilistic encoder。Probabilistic decoder是一种概率图模型,利用编码理论对likelihood进行重新解释。Bayesian neural network是一种概率模型,具有先验分布的神经网络。Probabilistic encoder则是一种变分推断模型,利用神经网络输出作为分布的参数。
ke1th
2018-01-02
9270
机器学习常用术语: epoch batch_size iteration
本文介绍了机器学习中的两个重要概念:epoch和batch_size。在机器学习中,epoch表示使用所有样本计算一遍叫做1个epoch,而batch_size表示在一次迭代中使用的样本数量。对于大型数据集,使用较大的batch_size可以加快训练速度,但可能会导致内存不足。在训练神经网络时,通常需要将数据集分成多个batch,每个batch包含多个样本,进行一次forward和backward算法的计算,然后更新权重。因此,epoch的数量和batch_size的选择对模型的训练效果有重要影响。
ke1th
2018-01-02
9200
tensorflow:上下文管理器 与 name_scope, variable_scope
本文介绍了 TensorFlow 2.x 版本中的一些新特性,包括 TensorFlow 的安装、使用、模型构建、以及模型部署等方面的内容。同时,文章还介绍了如何使用 TensorFlow 2.x 版本中的 Keras API 和 tf.keras 模块构建深度学习模型,并给出了一个例子。此外,文章还介绍了 TensorFlow 2.x 版本中的新性能优化,如自动微分、GPU 加速等。
ke1th
2018-01-02
1.3K0
MXNET学习笔记(二):模型的保存与加载
本文介绍了MXNet中保存和加载模型参数的方法,包括使用checkpoint、save和load函数等。同时,还介绍了如何同步参数和加载参数到不同的设备上。
ke1th
2018-01-02
3.3K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档