腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
tensorflow
中
是否有
卷积
lstm的
实现
?
、
、
、
我目前正在学习
tensorflow
。我只是做了一些简单的代码,
如
CNN,
RNN
和LSTM等等。现在我要
实现
卷积
lstm。我读过并尝试将其作为练习来
实现
。然而,据我所查,互联网上没有密码。
浏览 2
提问于2016-08-31
得票数 1
回答已采纳
1
回答
如
何在
TensorFlow
中
实现
卷积
RNN
?
在
TensorFlow
中
,假设我有一个图像,并且我想对它多次应用相同的
卷积
内核。
浏览 17
提问于2016-08-26
得票数 2
2
回答
神经网络单元在
Tensorflow
中
的cuDNN
实现
、
、
要创建
RNN
单元,可以使用像GRUCell和LSTMCell这样的类来创建
RNN
层。 还有另外两个类,
如
CudnnGRU和CudnnLSTM,它们可以直接用于创建
RNN
层。在文档
中
,他们说后一个类有cuDNN
实现
。当我创建一个cuDNN模型时,为什么要使用或不使用这个
RNN
实现
的类而不是经典的
RNN
实现
呢?
浏览 7
提问于2017-10-16
得票数 0
回答已采纳
1
回答
TensorFlow
:简单递归神经网络
、
、
、
我用
TensorFlow
建立了一些神经网络,比如基本的MLP和
卷积
神经网络。现在我想转到递归神经网络。然而,我在自然语言处理方面没有经验。因此,对于我来说,
RNN
的
TensorFlow
NLP教程并不容易阅读(也不是很有趣)。如
何在
TensorFlow
?
中
建立一个简单的递归神经网络,
如
Elman网络。 我只能找到
TensorFlow
的GRU或LSTM示例,主要用于NLP。有人知道一
浏览 2
提问于2016-04-25
得票数 9
回答已采纳
1
回答
RCNN预测图像序列(视频帧)?
、
、
、
在随后的工作
中
,作者应用
卷积
递归神经网络(
RNN
)来预测二维图像序列表示的微结构的时空演化。特别是,他们应用某种3D-CNN和LSTM体系结构来预测晶体的生长:在上面的图片中,我们可以从一个测试用例中看到
RNN
预测(P)和地面真相(G),其中
RNN
基于10个输入帧输出50帧。根据我(有限的)知识,唯一能够在输出中生成新图像的结构是生成对抗性网络,
如
GANs和
卷积
编解码神经网络(
如
VAE),但显然作者通过将3D-Conv和
RNN
单
浏览 0
提问于2022-01-18
得票数 2
回答已采纳
1
回答
在
TensorFlow
中
定义自定义模型/体系结构
、
从我与
TensorFlow
的小游戏中,我看到它已经
实现
了诸如
RNN
/LSTM单元、ConvNets等体系结构。是否有一种方法来定义一个人的“自定义”体系结构(例如,一个有几个
卷积
层的“增强的”LSTM网络)?
浏览 2
提问于2016-04-21
得票数 2
回答已采纳
1
回答
流LSTM像素级分类
、
、
、
、
特别是在
Tensorflow
。 x = tf.split(0, n_steps, x) lstm_cell =` function #
浏览 1
提问于2016-06-07
得票数 1
回答已采纳
1
回答
如何将
RNN
输出的一半提供给
tensorflow
中
的下一个
RNN
输出层?
、
、
我只想将奇数位置的
RNN
输出提供给下一个
RNN
层。如
何在
tensorflow
中
实现
这一点? 我基本上想要构建下图中的顶层,它将序列大小减半。底层只是一个简单的
RNN
。 ?
浏览 9
提问于2019-12-03
得票数 0
2
回答
BatchNormalization是否算作网络
中
的一个层?
、
BatchNormalizationLayer被认为是神经网络
中
的一个层吗?例如,如果我们说Resnet50有50个层,这是否意味着其中一些层可能是批规范化层?在Keras
中
构建模型时,我认为它是额外的,类似于退出层或添加“激活层”。但BatchNormalization有可训练的参数所以..。我很困惑
浏览 1
提问于2020-12-05
得票数 2
回答已采纳
4
回答
如
何在
Tensorflow
中使用多层双向LSTM?
、
、
、
、
我想知道如
何在
Tensorflow
中使用多层双向LSTM。我该如
何在
这个部分
中
添加一些代码?x = tf.unstack(tf.transpose(x, perm=[1, 0, 2])) # Define lstm cells with
tensorflow
, _, _ =
rnn
.static_bidirectional_
rnn<
浏览 11
提问于2017-09-13
得票数 8
回答已采纳
1
回答
如
何在
tensorflow
中
实现
双向编码器?
、
、
、
、
在
Tensorflow
中
,所有的编码器-解码器功能()都使用
RNN
单元的单向
实现
。 我们如
何在
Tensorflow
中
实现
双向编码器(或类似系统),以便在编码器-解码器设置
中
同时学习前向和后向序列?
浏览 8
提问于2016-07-30
得票数 4
1
回答
当形状不匹配时,如
何在
角点中使用双向神经网络和Conv1D?
、
、
、
、
我想尝试
实现
一个具有一维
卷积
层的神经网络,该层提供给双向递归层(如下面的论文)。我遇到的所有教程或代码片段都没有
实现
任何与此类似的内容(例如图像识别),也没有使用具有不同功能和用法的较旧版本的keras。我想做的是 的一种变体(2)使用一维
卷积
神经网络;✓(4)将输出发送到bidirectional
RNN
;x(5)输入分类; 我不知道如
何在
Bidirectional
RNN
上
浏览 3
提问于2017-11-29
得票数 1
回答已采纳
1
回答
如何将CNN输出作为
RNN
中
的输入序列(使用
Tensorflow
)
、
、
我使用
tensorflow
实现
了一个简单的CNN。到目前为止,我习惯于在最后一个
卷积
层上放置一个大小为2的完全连接的层,以区分我的两个类。现在,我想将最后一个
卷积
层提供给
RNN
,然后执行分类。最后一个
卷积
层的输出称为"cnn_output“,是该形式的张量
rnn
的变量定义如下: cell = tf.contrib
浏览 2
提问于2017-11-13
得票数 0
1
回答
Tensorflow
2.0
中
的LSTM状态元组
、
如
何在
TensorFlow
2.0
中
使用LSTMStateTuple? 我正在尝试
实现
如下代码: state =
rnn
.LSTMStateTuple(hidden_state, output)
浏览 34
提问于2020-10-06
得票数 1
2
回答
基于
卷积
神经网络的语言翻译
、
、
、
、
使用
RNN
,特别是LSTM。例如,参见句子语言的神经网络翻译,具有简单的层次结构(如果可能的话)和关于Keras
中
的序列对序列学习的十分钟介绍。是否有(不太复杂)只使用CNN而没有
RNN
/LSTM?你会在Keras有一个例子吗?
浏览 0
提问于2020-02-28
得票数 1
1
回答
Tensorflow
:低级LSTM
实现
、
、
、
我正在寻找一个在
Tensorflow
中使用LSTM单元的
RNN
的低级
实现
。我已经
实现
了几个前馈网络,其中我使用了低级API。这对我理解人工神经网络的内部工作原理有很大帮助。我可以对
RNN
执行相同的操作吗?还是建议使用LSTM cell (tf.nn.
rnn
_cell.BasicLSTMCell)的
Tensorflow
实现
?我在
Tensorflow
中
没有发现任何
RNN
的低级
实现
。我在
浏览 2
提问于2019-01-20
得票数 5
1
回答
ANN,
RNN
,DNN和CNN的主要区别是什么?
、
、
我想知道
RNN
、ANN、DNN和CNN之间的主要区别是什么? 如何利用
TensorFlow
库
实现
这些神经网络?
浏览 0
提问于2019-09-05
得票数 3
回答已采纳
1
回答
我能
实现
我自己的
卷积
函数来代替tf.nn.conv2d吗?我该怎么做?
、
我想
实现
我自己的
卷积
函数,就像
tensorflow
中
的tf.nn.conv2d函数一样。我想知道我是否可以用
tensorflow
提供的现有接口来完成这个任务。有人建议我根据
tensorflow
网站上的“如
何在
tensorflow
中
添加一个新op”教程来
实现
这一点。我应该首先在C++
中
实现
我的函数,然后将它添加到
tensorflow
中
吗?
浏览 1
提问于2017-04-30
得票数 0
回答已采纳
1
回答
为什么我的keras神经网络模型在不同的机器上输出不同的值?
、
、
TL;DR:Keras/
tensorflow
模型在将从GPU机器转换到CPU时产生不同的结果。
浏览 1
提问于2017-02-24
得票数 5
回答已采纳
1
回答
焊枪与
tensorflow
卷积
层填料的差异
、
、
torch.nn.Conv2d(7, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3))我们如
何在
tensorflow
浏览 3
提问于2020-07-14
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习-TensorFlow实现卷积神经网络
TensorFlow 1.5 中的扩展卷积支持
利用 TensorFlow 实现卷积自编码器
机器学习100天-Day11 Tensorflow实现RNN算法
CNN与RNN中文文本分类-基于TensorFlow 实现
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券