腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
带
分类
的
LSTM
keras
、
deep-learning
、
lstm
、
recurrent-neural-network
可以将
LSTM
与我
分类
的
单词数组一起使用吗? 例如,我有一个包含1000个单词
的
数组: “绿色”“蓝色”“红色”“黄色” 我将单词
分类
为绿色= 0,蓝色=1,红色= 2,黄色= 3。单词可以在序列中以不同
的
顺序出现。例如,第一个序列可以输入=绿色、蓝色、红色、目标=黄色,下一个序列输入=蓝色、红色、黄色、目标=绿色等等。也许我不应该使用
LSTM
,但我想我应该使用,因为我想检查3个早期
的
输入并预测第4个。 到目前为止,这就是我所拥有的,我或多或少地坚持重
浏览 14
提问于2020-06-30
得票数 1
1
回答
PyTorch n-to-1
LSTM
什么也学不到。
python
、
nlp
、
lstm
、
pytorch
我是PyTorch和
LSTM
的
新手,我正在尝试训练一个
分类
模型,它接受一个句子,其中每个单词都通过word2vec (预训练向量)编码,并在看到完整
的
句子后输出一个类。我有四个不同
的
班。句子
的
长度是可变
的
。class
LSTM
(nn.
浏览 0
提问于2018-08-30
得票数 1
1
回答
为什么序列预测一直是RNN和
LSTM
类算法
的
目标?
nlp
、
lstm
、
rnn
、
sequence-to-sequence
标题基本上是我
的
问题。我还没见过任何使用不同训练目标的文献。我们
的
目标是最终找到隐藏
的
状态,那么为什么只有一种方法是如此流行,而没有看到其他方法呢?
浏览 0
提问于2021-09-03
得票数 0
回答已采纳
1
回答
当形状不匹配时,如何在角点中使用双向神经网络和Conv1D?
python
、
deep-learning
、
keras
、
convolution
、
recurrent-neural-network
我是Deep-Learning
的
新手,所以我通过阅读,学到了很多东西。我想开始使用其中
的
一些概念。我想尝试实现一个具有一维卷积层
的
神经网络,该层提供给双向递归层(如下面的论文)。我遇到
的
所有教程或代码片段都没有实现任何与此类似的内容(例如图像识别),也没有使用具有不同功能和用法
的
较旧版本
的
keras。(5)输入
分类
; 我不知道如何在Bidirectional RNN上获得匹配
的
形状。在这个阶段,我甚至连一个普通
的
RNN都找不到。如何
浏览 3
提问于2017-11-29
得票数 1
回答已采纳
1
回答
基本时间序列
分类
实例
classification
、
time-series
、
tensorflow
到目前为止,我一直在使用matlab对大量
的
标签时间序列进行
分类
。这是相对成功
的
,但我想尝试使用Tensorflow来应用深度学习范式。我是一个完全
的
菜鸟,所以我有点不知所措,因为我正在努力概括
的
例子,如0-9数字
分类
的
例子,我
的
问题。我当前
的
代码读取1064时间序列(长度3125),读取标签,将标签转换为onehot_encoding,并提取培训和验证集。如果有人能给我提供一些有用
的
例子,我将非常感激,谢谢。
浏览 0
提问于2018-02-05
得票数 3
回答已采纳
1
回答
RandomizedSearchCV没有停止运行
python
、
hyperparameter-tuning
我正在尝试使用RandomizedSearchCV优化我
的
模型
的
超参数。但是,即使我定义了很少
的
迭代,它也不会停止运行。有人能帮我吗?我正在使用
的
代码如下所示: model = tf.keras.Sequential()model.add(tf.keras.layers.
LSTM
(units, kernel_regularizer = regularizers.l1(l1 = l1), input
浏览 0
提问于2021-07-30
得票数 0
2
回答
Keras多步
LSTM
分批列
分类
python
、
keras
、
time-series
、
classification
、
lstm
问题假设我们有N只股票
的
每日收盘价,每一只股票
的
收盘价是:M特征,三个动作之一“买入”、“持有”、“卖出”。如果每只股票有30天
的
数据,我们可以训练一个
LSTM
来预测每个动作(每天,每只股票),如下所示。对于N << N
的
每一批样本,X_train将具有(n, 30, m)
的
形状,即n样本、30个时间步骤和m特征。=
浏览 2
提问于2018-10-18
得票数 2
回答已采纳
1
回答
LSTM
嵌入层形状误差
python
、
machine-learning
、
lstm
我有这样
的
网络架构:model.add(Embedding(9761, 100, input_length=longest_period))model.add(Dense(1, activation='sigmoid'))我已经部分解决了添加一个Flatten()层
的
问题:model.a
浏览 5
提问于2018-08-23
得票数 0
回答已采纳
1
回答
实时传感器数据
的
多类
分类
time-series
、
tensorflow
、
keras
我想用加速度计来检测火车
的
方向。您可以通过手动设置阈值来检测x轴上
的
加速度方向(该方向将与列车驱动轴对齐)。所以现在我可能可以使用RNN来创建这个上下文。我
的
想法是不使用RNN (因为它增加了复杂性),只是在一个样本中放置了几个度量。这将创造出网络需要判断
的
上下文--样本要么停滞不前,要么在X轴上加速正,在X轴上加速负值,或者如果火车只是正常行驶。 在我
的<
浏览 0
提问于2017-09-21
得票数 0
2
回答
KerasClassifier TypeError:__call__()在cross_val_score上精确地接受2个参数(1给定)
python
、
tensorflow
、
scikit-learn
,我试图对我
的
模型进行cross_val_score,并得到以下错误:这是我
的
模型:model.add(
LSTM
(int(128), input_shape=(timesteps, int
浏览 0
提问于2018-11-01
得票数 0
1
回答
Sklearn问题
分类
machine-learning
、
python
、
scikit-learn
、
dataset
、
text-classification
因此,我发现使用sklearn
的
SVM算法对单词进行
分类
有很多种方法。但是,我想按
分类
法对问题进行
分类
,如以下数据集所示:这个任务
的
目标是预测给定pdf文件/字符串(问题)
的
分类
法。问题如下:如何利用支持向量机训练问题
分类
模型?Encoder.fit_transform(Train_Y) Test_Y = Encoder.fit_transform(
浏览 0
提问于2020-07-11
得票数 -1
1
回答
如何使用
LSTM
对序列进行
分类
?
machine-learning
、
lstm
、
recurrent-neural-network
、
rnn
LSTM
可以很好地预测序列之后会发生什么,但是我假设我们有很多序列,并且每个序列对应于一个类标签。 我们如何使用
LSTM
对这些序列进行
分类
?
浏览 2
提问于2017-10-15
得票数 1
回答已采纳
1
回答
采用梯度增强和
LSTM
相结合
的
方法进行
分类
?
deep-learning
、
lstm
、
xgboost
我目前正在使用
LSTM
模型来
分类
高维表格数据,而不是文本/图像(维度21392x1970)。我还分别尝试了Python中
的
XGBoost (梯度增强)来完成相同
的
分类
任务(
分类
为14种不同
的
分类
值中
的
一种)。我遇到了在XGBoost中使用XGBoost方法
的
规定,它可以为我提供预测中最相关
的
特征
的
F1分数。我想要创建一个混合模型,它将
LSTM
和XGBoo
浏览 0
提问于2019-02-19
得票数 1
1
回答
可视化classification_report
的
问题
tensorflow
、
machine-learning
、
scikit-learn
我正在尝试绘图
分类
报告,但在我
的
问题中只有2个类(0和1),当我调用
分类
报告时,他
的
输出是: Model: "sequentialNone, 55, 300) 0
lstm</e
浏览 0
提问于2020-09-05
得票数 0
1
回答
带
return_sequence=True
的
LSTM
后
的
Keras致密层
python
、
keras
、
deep-learning
、
nlp
正如作者使用PyTorch 一样,我正在尝试在Keras中重新实现这篇论文
的
。以下是网络架构: number_of_output_classes = 1direc = 2
lstm
_layer=Bidirectional(
LSTM
(hidden_size, dropout=0.2, return_sequences=True))(combined) #shape after this step (None, 200)output_layer=Dense(1,
浏览 0
提问于2019-03-19
得票数 1
1
回答
用矩阵对单个值进行
分类
python
、
matrix
、
machine-learning
、
scikit-learn
、
classification
我有一系列矩阵30x30,其中包含从0到75 (输入矩阵)
的
元素,每个矩阵都有一个30x30矩阵,只包含1s和0s (输出矩阵)。我试图在输入矩阵上训练一个
分类
器来预测输出矩阵,但是我不知道如何最好地表示
分类
器
的
输入矩阵(理想
的
sk-学习)。我不能将矩阵抽象成另一种形式,因为输入矩阵中
的
每个元素必须映射到输出矩阵相同位置
的
元素。
浏览 0
提问于2019-03-29
得票数 0
回答已采纳
1
回答
训练CNN-LSTLM端到端?
neural-network
、
tensorflow
、
deep-learning
、
torch
已经有许多论文(特别是图像标题)将CNN和
LSTM
架构联合用于预测和生成任务。然而,他们似乎都是独立于
LSTM
训练CNN
的
。我在浏览Torch和TensorFlow (用Keras),却找不到为什么不可能进行端到端
的
培训(至少从架构设计
的
角度来看),但似乎没有任何关于这种模型
的
文档。 那么,能做到吗?火炬或TensorFlow (甚至西亚诺斯或卡菲)是否支持联合训练端到端
的
CNN神经网络?如果是这样的话,是否就像将输出从CNN链接到
LSTM
并运行SGD
浏览 2
提问于2016-10-17
得票数 8
1
回答
我们如何在Keras中定义一对一、一对多、多对一、多对多
的
LSTM
神经网络?
python
、
neural-network
、
keras
、
lstm
、
recurrent-neural-network
我正在阅读
的
文章(递归神经网络
的
不合理有效性),并想了解如何在Keras中表达一对一、一对多、多对一和多对多
的
LSTM
神经网络。我读过很多关于RNN
的
文章,了解了
LSTM
NNs是如何工作
的
,特别是消失梯度、
LSTM
单元、它们
的
输出和状态、序列输出等等。但是,我很难用Keras来表达所有这些概念。首先,我使用
LSTM
层创建了以下玩具NNfrom kera
浏览 0
提问于2018-09-02
得票数 8
2
回答
Word2Vec
的
使用
machine-learning
、
deep-learning
、
nlp
、
lstm
、
bert
抱歉,基本
的
怀疑, 我想知道我是否可以直接使用我
的
Word2Vec进行
分类
而不使用
LSTM
。我
的
假设是,这是不可能
的
,因为单词
的
顺序不会被考虑在内。因此,它不会用于
分类
。但是我们使用BERT嵌入来进行
分类
。但是在这种情况下,伯特根据句子
的
上下文生成嵌入。因此,我们可以使用它进行
分类
。我
的
理解对吗?伯特通过顺序学习实现了
LSTM
的
学习,无需顺序处理
浏览 0
提问于2022-07-29
得票数 2
1
回答
基于
LSTM
的
脑电信号
分类
体系结构
python
、
keras
、
classification
、
lstm
、
channel
我有一个多类
分类
问题,我在python3.6中使用了keras & tensorflow。我基于本文中提到
的
“叠层
LSTM
层(a)”实现了高精度
的
分类
:。有些事情是这样
的
:model.add(
LSTM
(128), return_sequences=True) model.add(
LSTM
(
浏览 5
提问于2021-01-20
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券