编辑后添加:我找到了我认为可行的解决方案:
我试图使用Conv/LSTM网络来控制机器人。我想我已经把所有的东西都设置好了,这样我就可以开始用重放内存中的数据来训练它了,但是我不知道如何用它来控制一个机器人。下面是简化的测试代码。
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Flatten, Input
from keras.layers import Convolution2D
from keras.layers.recurrent import LSTM
f
这是一个单变量时间序列预测问题。如下面的代码所示,我将初始数据划分为一个列车数据集(trainX)和一个测试数据集(testX),然后通过keras创建一个LSTM网络。接下来,通过训练数据集对模型进行训练。然而,当我想得到预测时,我需要知道测试值,所以我的问题是:既然我知道问题中的测试数据集的真实值,我为什么要预测。我想得到的是未来时间的预测值?如果我对LSTM网络有一些误解,请告诉我。
谢谢!
# create and fit the LSTM network
model = Sequential()
model.add(LSTM(4, input_shape=(1, look_back)
我对蟒蛇和神经网络很陌生。我有一个用Keras编写的简单网络,它可以以线性顺序预测下一个数:
import numpy as np
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import LSTM
data = [[i for i in range(6)]];
data = np.array(data, dtype=int);
target = [[i for i in range(10, 16)]];
target = np.array(target, dtyp
我有以下的时间序列,我分为火车,瓦尔和测试:
📷
基本上,我对ARIMA和LSTM进行了关于这些数据的培训,结果完全不同,就预测而言: ARIMA:
📷
LSTM:
📷
现在,也许我是通过了,在某种程度上,测试设置为LSTM,以便表现得更好?或者LSTM仅仅是比ARIMA更好?下面是一些代码。请注意,为了在将来进行预测,在训练和预测: ARIMA代码之前,我要在我的系列中添加新的和最后的预测值:
# Create list of x train valuess
history = [x for x in x_train]
# establish list for predictions
mo
我正在尝试理解CNNs,并从一个相当简单的213行数据集开始。每个类别都被分类,因此它必须适合98个类别中的6个。即使是一个简单的三层网络在50k+时代之后也不会超过20%的准确率。有什么建议吗?
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import Flatten
from keras.layers import LSTM
from keras.layers import Dropout
from keras.layers import Reshape
from
我第一次使用Keras中的LSTM和Python中的Tensorflow,我想要创建一个包含一些层的神经网络,它提供了10个输出值。我在一个神经网络中生成了多个层,并创建了一个由10个元素组成的输出DenseLayer。我有下一个代码:
from pandas import DataFrame
from pandas import Series
from pandas import concat
from pandas import read_csv
from pandas import datetime
from sklearn.metrics import mean_squared_err
是否有一个机器学习模型(类似于LSTM或1D-CNN),以两个可变长度的时间序列作为输入,并输出二进制分类(对/假,时间序列是否具有相同的标签)?
因此,数据如下所示
date value label
2020-01-01 2 0 # first input time series
2020-01-02 1 0 # first input time series
2020-01-03 1 0 # first input time series
2020-01-01 3 1 # second input tim
我正在建立一个基于Keras的神经网络,包括多层LSTM、置换和密集。
看来LSTM是GPU-不友好。所以我做了研究和使用
With tf.device('/cpu:0'):
out = LSTM(cells)(inp)
但根据我对with的理解,with是确保执行清理代码的try...finally块。我不知道下面的CPU/GPU混合使用代码是否有效?他们会加快训练速度吗?
With tf.device('/cpu:0'):
out = LSTM(cells)(inp)
With tf.device('/gpu:0'):
out
我已经在Kerars中创建了神经网络,程序正在运行,但结果存在问题,它是预测中的Forexforcast网络,它应该返回0或1,如训练数据集中提供的那样,但结果在浮动中显示在0和1之间,如"[0.47342286]“
我尝试过使用numpy athmax,但它只得到了一个答案
# Importing the libraries
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import datetime
from sklearn.preprocessing import MinMaxSca
我正在尝试训练LSTM,但训练精度在每个时期都保持为零。我已经将数据转换为多变量时间序列数据,并以三维形状进行形状。我也有使用minmaxsaller的归一化数据。
我已经尝试了从5到50的纪元数和从25到200的批量大小。我尝试了从1000000到1000的数据样本,但都不起作用。
每次我得到的训练准确率都是零。
有没有人可以帮我理解它,或者建议我做更多的实验。
下面是我的网络。
from keras.layers.core import Dense,Activation,Dropout
from keras.layers.recurrent import LSTM
from keras.m
我有一个LSTM网络,我用它来预测负载。我想得到预测的置信区间。我不确定我能不能做到这一点。我试着在不同的平台上搜索,但是我找不到解决方案。这是我的简单模型。
导入熊猫为pd pd.options.mode.chained_assignment = None #默认值=‘警告’进口np
import tensorflow as tf
from datetime import datetime
from tensorflow import keras
from keras.models import Sequential
from keras.layers import LSTM, Dense,
我在Keras为有毒挑战训练了我的模型之后,预测的准确性就差了。我不确定我是不是做错了什么,但是在训练期间的准确性是相当好的~0.98。
我是如何训练的
import sys, os, re, csv, codecs, numpy as np, pandas as pd
import matplotlib.pyplot as plt
from keras.preprocessing.text import Tokenizer
from keras.preprocessing.sequence import pad_sequences
from keras.layers import Dense