我尝试用LSTM运行变分自动编码器。所以我用LSTM层替换了dense层。但它不起作用。下面是示例:
# generate data
data = generate_example(length = 560,seed=253)
normal_data = data[1:400,:]
fault_data = data[400:,:]
timesteps = 5
# data prepare
# define the normalize function
# normalize function
def normalize(normal, fault):
normal_mean = n
我尝试用VAE LSTM构建一个keras模型。输入形状为(sample_number,20,31)
同时,也出现了一些不相容的问题。
我不知道我的代码哪一部分是错误的,请原谅我把它们都张贴了。
我的进口:
from keras.models import Sequential, Model
from keras.objectives import mse
from keras.layers import Dense, Dropout, Activation, Flatten, LSTM, TimeDistributed, RepeatVector, Input, Lambda
from ke
我有一个错误 {taskinstance.py:1455} ERROR - Cannot convert a symbolic Tensor (lstm_4/strided_slice:0) to a numpy array. This error may indicate that you're trying to pass a Tensor to a NumPy call, which is not supported 回溯(最近一次调用) 当我使用下面的代码创建LSTM-VAE模型时。 配置: Python: 3.7.9
Tensorflow: 2.4.0
NumPy: 1.1
我正在尝试做一个简单的Keras模型。但是,不管我指定的输出形状是什么,输出层总是形状(1,),所以由于输出层和目标数据形状不匹配,所以不能训练我的模型。
import keras
from keras.models import Sequential
from keras.layers import InputLayer, LSTM, Dense
# 63 is the number of unique characters
# 128 is the length of a sequence of characters
X = ... # X is an one-hot ndarray;
我正在建立一个LSTM,作为一份报告,并想总结一下有关它的事情。但是,我已经看到了在Keras中构建LSTM的两种不同的方法,它们为参数的数量产生了两个不同的值。
我想了解为什么参数会以这种方式不同。
问题正确地说明了为什么这样的代码
from keras.models import Sequential
from keras.layers import Dense, Dropout, Activation
from keras.layers import Embedding
from keras.layers import LSTM
model = Sequential()
model.ad
我是堆栈,我需要堆积如山的智慧。
我使用Functional在Keras中实现了两个输入神经网络,输入形状如下:
X.shape, X_size.shape, y.shape
((123, 9), (123, 2), (123, 9, 10))
所以,我的问题是,为了使用y张量,我想得到具有三维形状的LSTM的输出形状。我知道,我可以把我的y重塑成二维形状,但是我想用它作为一个三维数组。
from keras.models import Model
from keras import layers
from keras import Input
# first input
list_i
我试图创建一个带有角码的LSTM自动编码器。
同时,它在第一个时代结束时出现了一个值错误。
ValueError: operands could not be broadcast together with shapes (32,20) (20,20) (32,20)
模型输入的形状是(sample_size,20,31),下面是模型
抽样功能:
def sampling(args):
z_mean, z_log_var = args
batch = K.shape(z_mean)[0]
dim = K.int_shape(z_mean)[1]
# by d
我已经为编码器和解码器实现了一个带有CNN层的变分自动编码器。代码如下所示。我的训练数据(train_X)由40000幅大小为64x78x1的图像组成,而我的验证数据(valid_X)则由4500幅大小为64x78x1的图像组成。
当我使用正方形图像(例如,64x64)时,一切都工作得很好,但是当我使用上面提到的图像(64x78)时,我得到了以下错误:
File "C:\Users\user\AppData\Local\Continuum\anaconda3\lib\site-packages\keras\engine\training.py", line 1039, in f
我正在尝试keras.layers.LSTM,下面的代码可以工作。
#!/usr/bin/python3
import tensorflow as tf
import numpy as np
from tensorflow import keras
data = np.array([1, 2, 3]).reshape((1, 3, 1))
x = keras.layers.Input(shape=(3, 1))
y = keras.layers.LSTM(10)(x)
model = keras.Model(inputs=x, outputs=y)
print (model.predi
我已经训练了一个VAE,现在我试图用这个来预测新的数据。我已经从这个获取了预测代码行。但是,当我运行这个行时,我得到的是:Input 0 of layer "conv1d_5" is incompatible with the layer: expected min_ndim=3, found ndim=1. Full shape received: (None,)。我使用了角角VAE ,并自己调整了它。
数据:
df = pd.read_csv('local path')
data, data_test = train_test_split(df, test_
我正在尝试实现一个联邦培训Keras / Tensorflow模型,用于检测文本文章中的假新闻,但我对该模型有困难。当我试图运行代码时,我会得到以下错误:
ValueError: Input 0 of layer lstm is incompatible with the layer: expected ndim=3, found ndim=2. Full shape received: [None, 50]
并发出以下警告:
WARNING:tensorflow:Model was constructed with shape (None, 400) for input Tensor(
我的模型是在"imdb评论数据集“上训练的,在预测电影评论的情绪时效果很好。然而,当我将我的模型转换为Tensorflow Lite时,它会输出:只有在第1维中才支持任何一种。张量‘嵌入1输入’具有无效的形状‘无,无’。在训练我的模型时,我没有指定一个特定的形状,因此我不确定我的模型要使用我的android应用程序时要传递什么样的形状。(只要我将embedding_input形状转换为其他东西,就会创建TFLite模型,但不适用于我的安卓应用程序)
型号代码:
from tensorflow import keras
from keras.preprocessing.text impo