对不起,我的英语很差。=
我创建了一个keras模型,并使用tf.keras.estimator.model_to_estimator转换为估计器,但是模型是多输入的,我可以创建数据集输入数据吗?
这是我的模型代码:
model = VGG19(include_top=False, input_shape=(182, 182 , 3))
y = model.output
y = keras.layers.Flatten()(y)
y = keras.layers.Dense(512, activation='relu')(y)
y = keras.layers.Dense(25
我正在建设一个网络,如下所示。model_A是一种分类模型,它的一次热编码输出与原始输入相结合,成为model_B的输入。
import keras
from keras.layers import Input, Dense
from keras.models import Model
inputs = Input(shape=(12,))
# ---------------------------------------
# model_A
x = Dense(64, activation='relu')(inputs)
x = Dense(64, activation=
我正在尝试keras.layers.LSTM,下面的代码可以工作。
#!/usr/bin/python3
import tensorflow as tf
import numpy as np
from tensorflow import keras
data = np.array([1, 2, 3]).reshape((1, 3, 1))
x = keras.layers.Input(shape=(3, 1))
y = keras.layers.LSTM(10)(x)
model = keras.Model(inputs=x, outputs=y)
print (model.predi
我想知道为什么对于两个相同的keras模型,get_method()有时给出相同的结果(参见model_dense_A和model_dense_B),有时不一样(例如model_conv_A和model_conv_B)。 即使我使用clear_session()方法和完全相同的代码,模型仍然是不同的。 有人知道这种行为吗? 代码片段: from tensorflow import keras
input_shape = (300, 3)
# MODEL DENSE A
keras.backend.clear_session()
input_ = keras.layers.Input(sh
我正在使用lambda函数设计一个特定的keras层,如何在函数中获得动态batch_size? 我试了很多次来解决这个问题,但都失败了。 def minus(inputs):
x,y = inputs
batch_size=K.shape(x)[0]
e = K.get_variable_shape(x)
for k in range(e[0]):
for i in range(e[1]):
for j in range(e[2]):
if x[k][i][j]==0:
我正在尝试使用tensorflow概率层来创建多变量正态分布的混合。当我使用IndependentNormal层时,它工作得很好,但是当我使用MultivariateNormalTriL层时,我遇到了event_shape的问题。我将这些层与MixtureSameFamily层组合在一起。下面的代码应该可以很好地说明我的问题,并且应该可以在google colab中运行: import tensorflow as tf
import tensorflow_probability as tfp
import tensorflow.keras as keras
tfpl = tfp.layers
我试图为NER任务创建一个基线模型,使用带有Keras提供的函数API的双向LSTM。
我使用的嵌入层是一个100维特征向量。
输入到该层的是一个填充的长度序列。
MAX_LEN = 575
(注:输入和输出尺寸相同)
我希望每个时间步骤都有一个输出,因此我已经设置了
return_sequences = True
输出只是通过软-max层进行的激活。
但是,在编译模型时,我一直收到这样的警告
UserWarning: Model inputs must come from `keras.layers.Input`
(thus holding past layer metadata), the