我编写了这段代码,以便使用连体方法来计算两个文档的相似度。我想使用矢量化方法嵌入两个单独文档的矢量化层(嵌入是使用Google News数据集执行的),然后将其提供给LSTM,LSTM的输出进入余弦函数,以衡量两个文档的相似性。from keras.preprocessing import sequence
from k
我一直在我的架构中使用Keras默认嵌入层和word嵌入。embeddings], input_length=max_seq_length,
# Since this is a siamese所以我使用了一个自定义的嵌入层-可以在这个repo - https://github.com/strongio/keras-elmo/blo
我希望使用Keras将两个顺序模型和模式合并为一个模型:left.add(LSTM(64,activation='sigmoid',stateful=True,batch_input_shape=(10,look_back,dim)))right.add(LSTM(64,activation='sigmoid',statefullook_back,dim)))
model = Sequential(
我在Keras中工作,我有一个LSTM,我为它指定了一个intial_state=h0。现在,我希望h0成为一个可训练的变量。我该怎么做呢?,但我确信在Keras中实现这一点的正确方法并不意味着使用import keras.backend as K和黑客Keras类。目前我丑陋的解决方案在于使用一个等于0的虚拟输入,并学习初始状态作为密集层的输出(=层偏置,因为我