我正在构建一个具有多头注意力层的keras模型。我正在尝试从keras.layers实现MultiHeadAttention层,但是当我运行代码时,我在不同的变量上多次收到以下警告:
“警告:tensorflow:以下变量已用于Lambda层的调用(tf.einsum),但在其跟踪的对象中不存在:<tf.Variable‘multi_head_ are /query/kernel:0’shape=(1,8,240) dtype=float32>这可能是有意
如何打印自定义图层的图层摘要()?3,104,365_________________________________________________________________ 如果你有一个自定义的Tensorflow/Keras层(在这里阅读更多关于它的信息:Making new layers and models via subclassing - Francis Chollet),