首页
学习
活动
专区
工具
TVP
发布

漫漫深度学习路

专栏作者
167
文章
216677
阅读量
54
订阅数
tensorflow(四十八): 使用tensorboard可视化训练出的文本embedding
对应 tensorflow 1.15版本 log_dir = "./logdir" metadata_path = os.path.join(log_dir, 'metadata.csv') names = ["苹果", "香蕉"] embs = [[1.0, 2.0, 0.1, 0.4], [1.0, 1.0, 0.1, 0.4]] # 1. 写 metadata.csv. 这里存的是对应的 embedding的 文本 with open(metadata_path, "w") as f:
ke1th
2022-10-04
1490
Ubuntu 16.04 Cuda8.0 tensorflow-gpu
ubuntu 16.04 python 2.7 cuda7.5/Cuda8.0 tensorflow-gpu
ke1th
2019-05-28
9490
ptb_reader源码解析
版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/u012436149/article/details/52828782
ke1th
2019-05-28
3890
tensorflow学习笔记(一):命令行参数
版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/u012436149/article/details/52870069
ke1th
2019-05-27
3980
tensorflow学习笔记(二十四):Bucketing
tensorflow的编码原则是,先构建计算图,然后再去执行计算图(sess.run()).这就会导致一个问题,我们无法在运行的过程中动态的更改图的结构.我们能做的就是,先构建出完整的图,然后可以去执行其子图. tensorflow中的bucket就是基于这么一种思想.
ke1th
2019-05-26
1.1K0
tensorflow学习笔记(二十一):tensorflow可视化
tensorflow的可视化是使用summary和tensorboard合作完成的.
ke1th
2019-05-26
4790
tensorflow学习笔记(十九):分布式Tensorflow
最近在学习怎么分布式Tensorflow训练深度学习模型,看官网教程看的云里雾里,最终结合着其它资料,终于对分布式Tensorflow有了些初步了解.
ke1th
2019-05-26
4310
tensorflow学习笔记(十八):Multiple GPUs
Distribuited tensorflow Multiple GPUs 如何设置训练系统 (1)每个GPU上都会有model的副本 (2)对模型的参数进行同步更新 抽象名词 计算单个副本inf
ke1th
2019-05-26
1K0
tensorflow学习笔记(十四):tensorlfow操作gradient
在训练深度神经网络的时候,我们经常会碰到梯度消失和梯度爆炸问题,scientists提出了很多方法来解决这些问题,本篇就介绍一下如何在tensorflow中使用clip来address这些问题
ke1th
2019-05-26
6130
tensorflow学习笔记(十一):seq2seq Model相关接口介绍
tf.sampled_softmax_loss()中调用了_compute_sampled_logits() 关于__compute_sampled_logits()
ke1th
2019-05-26
8470
tensorflow学习笔记(十):sess.run()
session.run([fetch1, fetch2]) 关于 session.run([fetch1, fetch2]),请看http://stackoverflow.com/questions/
ke1th
2019-05-26
2.3K0
tensorflow学习笔记(六):LSTM 与 GRU
[新增内容:今天写代码的时候,如果使用state_is_tuple=True, 那么
ke1th
2019-05-26
7380
tensorflow学习笔记(五):变量保存与导入
The Saver class adds ops to save and restore variables to and from checkpoints. It also provides convenience methods to run these ops.来自官网的介绍。
ke1th
2019-05-26
6350
tensorflow学习笔记(三十九) : 双向rnn (BiRNN)
双向RNN实际上仅仅是两个独立的RNN放在一起, 本博文将介绍如何在tensorflow中实现双向rnn
ke1th
2019-05-26
1.4K0
tensorflow学习笔记(三十二):conv2d_transpose ("解卷积")
本文介绍了如何利用深度学习对图像进行风格迁移。首先介绍了基于卷积神经网络的生成对抗网络(GAN)和基于卷积神经网络的变分自编码器(VAE)两种方法,然后阐述了如何应用深度学习进行图像风格迁移,并给出了具体的实现步骤和代码示例。
ke1th
2018-01-02
2.6K0
tensorflow学习笔记(三十):tf.gradients 与 tf.stop_gradient() 与 高阶导数
本文介绍了如何使用 TensorFlow 计算高阶导数,包括 TensorFlow 的高阶导数 API 和使用 tf.gradients() 函数计算高阶导数的方法,并通过示例代码进行了演示。同时,还介绍了如何使用 tf.stop_gradient() 函数在计算高阶导数时阻止节点更新。
ke1th
2018-01-02
5.4K0
tensorflow学习笔记(二十六):构建TF代码
本文介绍了如何使用TensorFlow和Keras构建一个简单的基于LSTM的文本分类器,并使用PTB数据集进行训练。首先,我们介绍了如何使用TensorFlow构建一个简单的LSTM模型,然后使用Keras封装了LSTM模型,并使用PTB数据集进行训练。最后,我们介绍了如何使用训练好的模型进行分类,并给出了代码示例。
ke1th
2018-01-02
7860
tensorflow学习笔记(三十一):构建多GPU代码
本文介绍了如何使用TensorFlow构建多GPU模型,并介绍了如何实现单/多GPU训练和测试。作者还介绍了如何实现多GPU之间的参数平均,以及如何使用TensorFlow构建多GPU训练模型。
ke1th
2018-01-02
1K0
tensorflow学习笔记(三十三):ExponentialMovingAverage
本文介绍了如何使用 TensorFlow 的 Exponential Moving Average(EMA)来训练神经网络,并使用 Saver 保存模型。在测试阶段,可以使用 Saver 加载保存的模型,并使用 EMA 对变量进行推理。
ke1th
2018-01-02
2K0
tensorflow学习笔记(二十七):leaky relu
本文介绍了tensorflow中leaky ReLU函数的实现方法,包括两种方法:使用tf.nn.relu和修改relu的负半部分。这些方法在BP的时候,梯度都会被正确计算。同时,也介绍了使用tf.clip_by_value函数来对梯度进行裁剪的方法。
ke1th
2018-01-02
9500
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档