在尝试实现时,论文生成的级联网络(Lipton等人,2015)将LSTM的隐藏状态输出与解码器输入连接起来,以满足解码器级的需要,得到了折叠错误:
节点= layer._inbound_nodesnode_index AttributeError:'NoneType‘对象没有属性'_inbound_nodes'“
from keras.layers import Input, Embedding, LSTM, Dense
from keras.models import Model
import keras
import tensorflow as tf
encode
我正在尝试在keras图中执行matmul,并在编译模型时获得AttributeError: 'NoneType' object has no attribute '_inbound_nodes' error from keras import backend as K
from keras.layers import Input, Dense, Reshape
mainInput = Input(shape=(10*10,))
x = Dense(10*10, activation='relu')(x)
x1 = Reshape((10,
我试图将LSTM/GRU应用于矩阵X的每个条目。
注意:每个矩阵元素都是时间序列,所以X的形状是(batch_size、行、cols、time_steps、dims)。
y_{i,j}= \begin{cases} 0, & \text{if}\ x_{i,j}\small[0\small] = 0 \\ LSTM(x_{i,j}), & \text{otherwise} \end{cases}
,其中:
x_{i,j} := \text{element (i,j) of matrix X. This element is a tim
我一直在尝试编码一个使用挤压激励块的模型。 我对这个错误一无所知。请推荐替代方案。 import keras
from keras.models import Sequential,Model
from keras.layers import,Input,Dense,Conv2D,MaxPooling2D,Flatten,GlobalAveragePooling2D,BatchNormalization,Lambda,Conv2DTranspose,Reshape,Add,Multiply
import numpy as np
import io
x_inp=Input(shape=(
我正在试图建立一个模型,如下图所示。其思想是采取一个以上的分类特征(一个热点向量),并将它们分别嵌入,然后结合这些嵌入向量与三维张量为一个LSTM。
使用Keras2.0.2中的以下代码,当创建具有多个输入的Model()对象时,它会引发类似于问题的AttributeError: 'NoneType' object has no attribute 'inbound_nodes'。有人能帮我找出问题所在吗?
模型:
代码:
from keras.layers import Dense, LSTM, Input
from keras.layers.mer
对于我的自定义层的调用方法,我需要一些先例层的权重,但我不需要修改它们,只需要访问它们的值。我在How do I get the weights of a layer in Keras?中有一个建议的值,但这将以numpy数组的形式返回权重。所以我在张量中对它们进行了转换(使用Keras后端的tf.convert_to_tensor ),但在创建模型的那一刻,我遇到了这样的错误:"'NoneType‘对象没有’_inbound_nodes‘属性“。我如何解决这个问题?谢谢你。
我尝试自定义一种网络架构,我可以按以下方式设计一个层:
x = k.Input(shape=(1,))
y = k.layers.Dense(1)(x + 1) #k.backend.constant(1) -- no difference
Fx = k.models.Model(x, y)
虽然"x+1“是正确的Tensorflow操作,但我得到了NoneType错误:
AttributeError: NoneType对象没有属性“_inbound_nodes”
当我试图使用Lambda层来规避这种情况时,我得到了同样的错误:
x = k.Input(shape=(1,))
我正在尝试使用LSTM和密集神经网络在Keras中构建序列到序列模型。编码器对输入进行编码,然后将编码状态和输入连接并馈送到解码器,该解码器是lstm +密集神经网络,其及时输出分类标签。下面是我的代码 from keras.utils import to_categorical
from keras.layers import Embedding, Bidirectional, GRU, Dense, TimeDistributed, LSTM, Input, Lambda
from keras.models import Sequential, Model
import numpy a
我试图构建一个keras模型,问题出现在添加行执行零填充然后合并2层之后。守则如下:
import keras
from keras.layers import *
from keras.models import Model
from keras.activations import softmax
import keras.backend as K
query = Input(name='query', shape=(10,))
doc = Input(name='doc', shape=(100,))
embedding = Embedding(1125
有很多关于这个错误的线索,但我似乎无法将它们应用到我的案例中。这是我正在尝试做的事情的一个简化版本:
import numpy as np
from keras.models import Model
from keras.layers import Input, multiply, Dense, Lambda, Multiply
import keras.backend as K
一些虚拟数据:
xx = np.array([1,2,3]).reshape(3,1)
maskvec = np.array([1,2,3]).reshape(3,1)
这是一个将掩码与掩码中的值进行比较的函数:
我想定义自己的Lstm模型,如下所示: from keras import backend as K
from keras.callbacks import ModelCheckpoint
from keras.layers.core import Dense, Activation, Flatten, Dropout
from keras.layers import Input,Concatenate, Average, Maximum
from keras.layers.normalization import BatchNormalization
from keras.layers i
我必须取EfficientNet最后一层的输出,然后计算出H= wT*x+b,我的w是49。在此之后,我必须在H上应用softmax,然后进行元素乘法Xμ= Hi*Xi。这是我的密码:
common_input = layers.Input(shape=(224, 224, 3))
x=model0(common_input) #model0 terminate with last conv layer of EfficientNet (7,7,1280)
x = layers.BatchNormalization()(x)
W = tf.Variable(tf.random_nor
我想在内置的keras模型中用BatchNorm层取代GroupNorm层,例如ResNet50。我正在尝试将节点的层重置为我的新层,但是当我查询model.summary()时,没有什么改变。
import tensorflow as tf
import tensorflow_addons as tfa
from tensorflow.keras import layers
model = tf.keras.applications.resnet.ResNet50(include_top=False, weights=None)
channels = 3
for i,layer in e
我在尝试使用Keras创建Keras模型时出现错误AttributeError: 'NoneType' object has no attribute '_inbound_nodes' model = Model(inputs=input, outputs=out) 从我对Stackoverflow上关于同一错误的其他问题(例如:Q1,Q2,Q3,Q4)的理解来看,诀窍应该是只使用Keras layer对象将input连接到out,即使这意味着使用Lambda。我很确定我是这么做的。 我的代码如下: from keras import backend as K
我知道我们可以使用get_layer()来构建一个新模型,但我的问题有点不同:
我简化了我的模型:
import keras
import numpy as np
a = np.array([[1,2,3,4,5,6],[1,2,3,4,5,6],[1,2,3,4,5,6]])
x = keras.layers.Input(shape=(6,))
y = keras.layers.Lambda(lambda x: x * 1)(x)
z = keras.layers.Lambda(lambda x: x * 1)(y[:,4])
model = keras.Model(x,[y,z])
mod
我有几个神经网络。它们的输出被连接起来,然后传递给LSTM。
下面是一个简化的代码片段:
import keras.backend as K
from keras.layers import Input, Dense, LSTM, concatenate
from keras.models import Model
# 1st NN
input_l1 = Input(shape=(1, ))
out_l1 = Dense(1)(input_l1)
# 2nd NN
input_l2 = Input(shape=(1, ))
out_l2 = Dense(1)(input_l2)
# c
我正在为我的网络建立一个新的渠道智能操作。全局平均池化结果将乘以(按元素)第一个x(输入)值。但是,当我运行train.py文件时,它会出现我无法理解的错误。请帮帮我!
错误消息:
Traceback (most recent call last):
File "E:/githubRemote/train.py", line 49, in <module>
model = init_model()
File "E:/githubRemote/train.py", line 37, in init_model
model = M
尝试使用从keras获得的imagenet_utils.preprocess_input(x)方法时,会引发一个错误:
File "C:\Dev\workspace\venvs\venv36\lib\site-packages\keras_applications\imagenet_utils.py", line 186, in preprocess_input
data_format = backend.image_data_format()
AttributeError: 'NoneType' object has no attribute 'ima
Y = Dense(2)(Y)
Z = LSTM(128, return_sequences=False)(X)
Z = Dense(2)(Z)
M = concatenate([Y, Z,Y+Z])
M=Dense(4)(M)
M = Dense(2)(M)
# Add a softmax activation
M = Activation('softmax')(M)
# Create Model instance which converts sentence_indices into X.
model = Model(inputs=sentence_indices, o
我开始学习如何用keras来实现神经网络。然而,我刚才偶然发现了这个错误。我不知道我在这里做错了什么。我在youtube上的Valerio:教程旁工作。
我的代码:
import tensorflow
from tensorflow.keras import Model
from tensorflow.keras.layers import Input, Dropout, LSTM
class GNN:
"""
GNN is a graph neural network.
"""
def __init__(self,
我在创建Keras模型时遇到了问题。我找到了一个简单的编码器解码器,并试图将其修复如下:
# some encoder code ... .... above is not shown here, where it is too obvious
encoder_outputs, state_h, state_c = encoder(encoder_inputs)
encoder_states = [state_h, state_c]
decoder_lstm = LSTM(latent_dim, return_sequences=True, return_st