我目前正在设置一个深度确定性策略梯度代理,以与密码交易环境进行交互。当我将Dense层用于函数逼近器时,代码可以正常工作,但是当我切换到LSTM或GRUs时,当我调用Agent的learn方法时,会弹出这个错误
No gradients provided for any variable: ['actor_network_4/lstm/kernel:0', 'actor_network_4/lstm/recurrent_kernel:0', 'actor_network_4/lstm/bias:0', 'actor_network_4/l
在尝试实现时,论文生成的级联网络(Lipton等人,2015)将LSTM的隐藏状态输出与解码器输入连接起来,以满足解码器级的需要,得到了折叠错误:
节点= layer._inbound_nodesnode_index AttributeError:'NoneType‘对象没有属性'_inbound_nodes'“
from keras.layers import Input, Embedding, LSTM, Dense
from keras.models import Model
import keras
import tensorflow as tf
encode
我试着用训练LSTM来表现得像个控制器。至关重要的是,这是一个对许多问题。我有7个输入功能,每个功能是一个40个值的序列。我的输出有两个特性,也是由40个值组成的序列。
我有两层。第一层有四个LSTM细胞,第二层有两个LSTM细胞。代码如下所示。
代码按预期运行并产生输出,但我无法减少训练错误(均方误差)。在前1000个时代之后,这个错误就停止了。
我试过使用不同的批次大小。但我得到了很高的误差,即使它的批次大小是一个。我尝试了一个简单的正弦函数的网络,它工作正常,即误差在减小。这是因为我的序列长度太大,导致了消失梯度问题。我能做些什么来改善训练错误?
#Specify input and o
我正在重写与TF 2.0兼容的代码。不幸的是,网站提供的几乎每个示例都使用keras。但是,我想编写带有原始tensorflow函数的代码。
在某种程度上,在培训过程中计算和应用梯度的新方法如下所示(从窃取的代码):
# Optimization process.
def run_optimization(x, y):
# Wrap computation inside a GradientTape for automatic differentiation.
with tf.GradientTape() as g:
pred = logistic_regre
我想应用这个方法来实现Bi-LSTM。这里讨论了该方法:Bi-LSTM Attention model in Keras 我得到以下错误:'module' object is not callable 它不能在以下行中应用乘法:sent_representation = merge([lstm, attention], mode='mul') from keras.layers import merge
import tensorflow as tf
from tensorflow.keras.layers import Concatenate, Dense,
假设我们有一个使用BatchNormalization的简单Keras模型:
model = tf.keras.Sequential([
tf.keras.layers.InputLayer(input_shape=(1,)),
tf.keras.layers.BatchNormalization()
])
如何在GradientTape中实际使用它?以下内容似乎不起作用,因为它没有更新移动平均线?
# model training... we want the output values to be clos
我目前正在尝试使用TensorFlow 2中的GradientTape()和batch_jacobian在我的训练循环中计算雅可比矩阵。遗憾的是,我只能获得None值…… 我当前的尝试如下所示: for step, (batch_x, batch_y) in enumerate(train_data):
with tf.GradientTape(persistent=True) as g:
g.watch(batch_x)
g.watch(batch_y)
logits
下面是张量流中的代码,我定义了一个Bi,对于特定的任务,我需要遍历我的图。虽然我已经在Scope变量中设置了reuse= True,但是它会产生下面提到的代码中提到的错误。
for run in range(0, 2):
with tf.variable_scope("LSTM", reuse= True) as scope:
def LSTM(input_data):
LSTM_cell_fw= tf.contrib.rnn.BasicLSTMCell(num_units= hidden_size)
LSTM_cel
我试图在Tensorflow 2中实现模型不可知论的元学习(MAML)。对于该算法,以以下形式计算二阶导数:
for multiple sets, each with an individual model:
1. Determine the loss for a training set
2. Determine the gradients for this loss w.r.t. the model
3. Apply the gradients (theta' <- theta-alpha*gradients)
4. Determine the loss for
在这里,您可能会看到TensorFlow中几个堆叠的LSTM单元的标准实现。
with tf.name_scope("RNN_layers"):
def lstm_cell():
lstm = tf.contrib.rnn.LayerNormBasicLSTMCell(lstm_size)
return lstm
cell = tf.contrib.rnn.MultiRNNCell([lstm_cell() for _ in range(num_layers)])
with tf.name_scope("RNN_init
大家好,我尝试用AlexNet + LSTM建立模型,使用原始图像作为输入。
但我遇到了这样一个错误:
ValueError: Input 0 of layer lstm_5 is incompatible with the layer: expected ndim=3, found ndim=2. Full shape received: (None, 43264)
我的模型代码:
model = tf.keras.models.Sequential([
# 1st conv
tf.keras.layers.Conv2D(96, (11,11),strides=(4,4), ac
我使用我的自定义损失来训练一个没有遮罩层的模型几次,我突然想到我忘记了遮罩层。然后,我在模型的顶部添加了一个掩蔽层,但在编译模型时出现了错误:
ValueError: weights can not be broadcast to values. values.rank=0. weights.rank=2. values.shape=(). weights.shape=(None, 3521).
序列长度为3521。我不知道为什么没有屏蔽层的模型可以用我的自定义损失编译,而有屏蔽层的模型却不能。我想原因可能是我的自定义损失与掩膜层不兼容,但我找不到如何修改它。
代码如下:
# model
mo
我已经完成了一个简单的多对一的LSTM模式如下。
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
from tensorflow.keras.layers import LSTM
from tensorflow.keras.layers import Dropout
model=Sequential()
model.add(LSTM(2**LSTM_units,input_length=data.shape[1],input_dim=data.shape[2],re
我想做情绪分析使用伯特嵌入和lstm层。这是我的密码:
i = tf.keras.layers.Input(shape=(), dtype=tf.string, name='text')
x = bert_preprocess(i)
x = bert_encoder(x)
x = tf.keras.layers.Dropout(0.2, name="dropout")(x['pooled_output'])
x = tf.keras.layers.LSTM(128, dropout=0.2)(x)
x = tf.keras.layers.Dens
我正在使用MNIST数据集上的Tensorflow LSTM示例。我不明白的是,为什么在最后一层使用逻辑回归。LSTM网络的最后一个输出不是比使用前一个“时间步”的输出更好的估计器吗?我怎么能只使用LSTM网络的最后一次输出进行分类呢?
# Copyright 2016 The TensorFlow Authors. All Rights Reserved.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in co