我不清楚在下面的例子中指定输入尺寸Input(shape=(20,))和不指定Input(shape=(None,))有什么不同:
input_layer = Input(shape=(None,))
emb = Embedding(86, 300) (input_layer)
lstm = Bidirectional(LSTM(300)) (emb)
output_layer = Dense(10, activation="softmax") (lstm)
model = Model(input_layer, output_layer)
model.compile(optimizer="rmsprop", loss="categorical_crossentropy", metrics=["acc"])
history = model.fit(my_x, my_y, epochs=1, batch_size=632, validation_split=0.1) my_x (shape: 2000,20)包含引用字符的整数,而my_y包含一些标签的一次性编码。在Input(shape=(None,))中,我看到我可以使用model.predict(my_x[:, 0:10]),也就是说,我可以只输入10个字符,而不是20个:这怎么可能?我假设my_x中的所有20个维度都需要用来预测相应的y。
发布于 2020-09-08 02:50:20
您使用None所说的是,您输入到模型中的序列长度严格为20。虽然模型通常需要固定长度,但递归神经网络(如您在那里使用的LSTM )不需要固定的序列长度。因此,LSTM并不关心您的序列是包含20个时间步还是100个时间步,因为它只是循环遍历它们。但是,当您将时间步数指定为20时,LSTM预期为20,如果没有获得,则会引发错误。
有关更多信息,请参阅Tim♦的此post
https://stackoverflow.com/questions/63782161
复制相似问题