我正在尝试使用递归神经网络(LSTM)和书本数据集来进行文本预测。无论我如何尝试改变层的大小或其他参数,它总是适合的。
我一直在尝试改变层的数量,LSTM层中的单元数量,正则化,规范化,batch_size,洗牌训练数据/验证数据,将数据集更改为更大。现在我试着用~140 txt的txt书。我也尝试了200 5mb,1mb,5MB。
创建培训/验证数据:
sequence_length = 30
x_data = []
y_data = []
for i in range(0, len(text) - sequence_length, 1):
    x_sequence = text[i:i + sequence_length]
    y_label = text[i + sequence_length]
    x_data.append([char2idx[char] for char in x_sequence])
    y_data.append(char2idx[y_label])
X = np.reshape(x_data, (data_length, sequence_length, 1))
X = X/float(vocab_length)
y = np_utils.to_categorical(y_data)
# Split into training and testing set, shuffle data
X_train, X_test, y_train, y_test = train_test_split(X,y, test_size=0.2, shuffle=False)
# Shuffle testing set
X_test, y_test = shuffle(X_test, y_test, random_state=0)创建模型:
model = Sequential()
model.add(LSTM(256, input_shape=(X.shape[1], X.shape[2]), return_sequences=True, recurrent_initializer='glorot_uniform', recurrent_dropout=0.3))
model.add(LSTM(256, return_sequences=True, recurrent_initializer='glorot_uniform', recurrent_dropout=0.3))
model.add(LSTM(256, recurrent_initializer='glorot_uniform', recurrent_dropout=0.3))
model.add(Dropout(0.2))
model.add(Dense(y.shape[1], activation='softmax'))

编译模型:
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])我有以下特点:

我不知道该怎么办,因为我正在搜索互联网,尝试了很多东西,但似乎都没有用。
我怎么能得到更好的结果?这些预测现在似乎不太好。
发布于 2019-11-09 03:55:12
下面是我接下来要尝试的一些事情。(我也是个业余爱好者。如果我错了,请纠正我)
https://stackoverflow.com/questions/58764687
复制相似问题