腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6362)
视频
沙龙
1
回答
使用
tf.saved_model
预测
多个
输入
向量
(
TensorFlow2.0
)
python
、
tensorflow
、
tensorflow2.0
由于我
使用
的是
TensorFlow2.0
,因此本指南中推荐的tensorflow不再可用,因此我求助于saved_model API,它是加载模型的official way。SavedModel written to: saved_model\temp-b'1579582279'\saved_model.pb 在official guide for predicting之后,我调用了
使用
输入
数据构建的当我
使用
每个特征的值列表构造tf.example时。并尝试
使用
相同的
浏览 19
提问于2020-01-21
得票数 1
1
回答
在推理过程中从自定义Tensorflow/Keras层提取中间变量(TF 2.0)
python
、
tensorflow
、
keras
、
deep-learning
下面是一些背景知识: 我主要
使用
TensorFlow2.0
的Keras函数模型实现了一个NLP分类模型。模型架构是一个非常简单的LSTM网络,在LSTM和密集输出层之间增加了一个关注层。我将经过训练的模型封装在一个简单的Flask应用程序中,并获得了相当准确的
预测
。除了
预测
特定
输入
的类别之外,我还从前面提到的关注层输出注意力权重
向量
"a“的值,这样我就可以可视化应用于
输入
序列的权重。我目前提取注意力权重变量的方法是有效的,但似乎效率非常低,因为我
预测<
浏览 2
提问于2019-11-21
得票数 5
1
回答
如何
使用
经过训练的skipgram模型
预测
单词?
python
、
c++
、
nlp
、
word2vec
、
gensim
我正在
使用
谷歌的Word2vec,我想知道如何在给定
输入
单词的情况下,通过
使用
分层softmax训练的skipgram模型
预测
出最热门的单词?例如,当
使用
负采样时,可以简单地将
输入
字的嵌入(来自
输入
矩阵)与输出矩阵中的每个
向量
相乘,并取具有最高值的
向量
。然而,在分层softmax中,由于
使用
了霍夫曼树,每个
输入
字都有
多个
输出
向量
。在这种情况下,我们如何计算给定<e
浏览 0
提问于2018-06-14
得票数 2
1
回答
K近邻OpenCV算法
java
、
opencv
、
evaluation
、
knn
我
使用
的是OpenCV 2.4.12Ps.Thanks到guneykayim,我需要添加一些和平的代码,以使我的问题更加明确。我有超过一个
向量
float predic
浏览 4
提问于2015-12-01
得票数 1
1
回答
sklearn线性回归()不返回矩阵
python
、
scikit-learn
、
linear-regression
我有一个矩阵x_train,它由10个
输入
数据集组成。y_train是唯一的培训输出。每个
输入
或输出有422个元素。r.fit(x_train, y_train) 现在,当我给它一个测试
输入
作为一个矩阵,我收到一个
向量
作为
预测
的输出。就我所理解的这一切而言,我应该能够
输入
一组数据(矩阵的一行),并接收(与矩阵的该行相同的维度)的
预
浏览 2
提问于2017-03-12
得票数 1
回答已采纳
1
回答
交叉验证后如何在Matlab中应用学习模型
matlab
、
machine-learning
、
classification
、
cross-validation
一旦
使用
交叉验证方法对分类器进行了培训和测试,如何
使用
这些结果对未见数据进行验证,特别是在自由运行阶段/部署阶段?如何
使用
所学的模型?下面的代码
使用
交叉验证来训练和测试数据X。在计算行pred = predict(svmModel, X(istest,:));之后,我应该如何
使用
所学习的模型?
浏览 0
提问于2018-06-10
得票数 1
回答已采纳
1
回答
gmodule对象上的Torch神经网络前向函数on图类
module
、
lua
、
neural-network
、
torch
继承自nn.module),语法是: return self:updateOutput(input)但是,我发现了将表作为
输入
传递的情况result_var = gmodule:forward{[1]=tensor_1,[2]=tensor_2,[3]=tensor_3,...,[5]=tensor_5} 问题是,取决于网络体系结构,您能否将
输入
--格式化为表--不仅传递给
输入
层,还传递给隐藏层?在这种情况下,您必须检查每个层是否传递了一个
输入
?
浏览 1
提问于2016-01-10
得票数 1
回答已采纳
2
回答
Keras:跨培训示例共享一层权重(而不是在层间)
python
、
tensorflow
、
keras
、
lstm-stateful
我有一个词汇量25K的分类
预测
任务。在其中一个(
输入
声10K,输出暗淡,即嵌入50)上,我想为
输入
嵌入(形状为1,50)和权重(形状(50,128))(无偏差)之间的矩阵相乘引入一个可训练的权重矩阵,所得到的
向量
得分与其他特征一起作为
预测
任务的
输入
关键是,如果我简单地把它加进去,我认为每个
输入
的可训练权重矩阵都是不同的。我希望这个权重矩阵在所有
输入
中都是通用的。 我应该澄清--这里的
输入
我指的是训练例子。在每隔这么
多个</em
浏览 2
提问于2019-06-25
得票数 4
回答已采纳
1
回答
如何
使用
TensorFlow服务进行预处理和后处理
tensorflow
、
input
、
keras
、
preprocessor
、
tensorflow-serving
我正在设计一个
使用
TensorFlow Serving的句子分类服务。 我成功地启动了docker服务器,请求了
预测
,并收到了
预测
结果。 我的模型有两个
输入
层和一个输出层。dense_2 (Dense) (None, 104) 43368 concatenate[0][0] 现在我的服务的
输入
格式和输出格式都是
向量
客户端(用户)必须
向量
化他们的
输入
字符串,并且他们必须执行argmax和ma
浏览 32
提问于2019-09-04
得票数 0
2
回答
神经网络中
预测
多神经元输出的概率归一化
neural-network
、
normalization
当用神经网络
预测
多神经元输出时,例如,
预测
多个
手写数字并给出输出神经元
向量
(0.1,...,0.9,0.1,.)时,许多人
使用
诸如softmax (或统计力学中的能量依赖概率指数公式)等方法来规范输出
向量
,使输出矢量的所有分量之和达到1,并且使归一化输出矢量成为概率
向量
。我怀疑这种规范化的必要性,因为没有它,我同样可以根据最大的
向量
分量来
预测
。有什么我忽略的吗?
浏览 0
提问于2018-11-09
得票数 1
回答已采纳
1
回答
创建一个张量,其中每个
输入
可以有
多个
答案。
tensorflow
我有一个问题,
输入
X可以有
多个
正确的答案。如果我们创建一个MLP来
预测
这里,成本函数是比较模型
预测
的X
向量
和Y
向量
。我正在检查模型是否能够
预测
任何
输入
的任何正确标签。给定X1,如果模型
预测
(Y1、Y2或Y3),我就没事了。我该如何构造这个问题呢?
浏览 3
提问于2016-06-13
得票数 1
2
回答
如何
使用
caffe
预测
浮动
向量
标签?
python
、
neural-network
、
regression
、
deep-learning
、
caffe
我想知道是否有可能
使用
caffe
预测
与
输入
图像关联的1*n特征。在中,有一个解决方案可以让caffe
预测
一个二进制
向量
,例如1 0 1 0。如果我有一个1*n的浮点
向量
作为标签,这个解决方案是否也适用(比如0.2,0.1,0.3,0.4?我想要
预测
这样一个
向量
,而不是一个二进制
向量
标签。
浏览 0
提问于2016-06-29
得票数 0
2
回答
神经网络训练连续值
neural-network
由于许多论文都描述了神经网络可以
预测
股票回报,所以我也开始研究这种方法。我无法精确地训练NN,即使在训练数据集上,我的
预测
也不匹配。我
使用
技术指标作为
输入
,将未来10天的最大值作为目标
向量
,但经过训练的神经网络即使对于训练数据集也无法
预测
精确值。我认为
输入
和输出数据之间存在一些不匹配。任何解决这一问题的想法,或者在连续值目标
向量
的情况下,作为
输入
的技术指标与目标
向量
之间的关系。
浏览 2
提问于2012-03-07
得票数 2
1
回答
如何在MATLAB中减少从一组矩阵和
向量
中提取要用于机器学习的特征
matlab
、
matrix
、
vector
、
feature-extraction
、
dimensionality-reduction
我有一个任务,我需要训练一个机器学习模型来
预测
来自
多个
输入
的一组输出。我的
输入
是一组3x1
向量
、一组3x3协方差矩阵和一组标量的1000次迭代,而我的输出只是一组标量。我不能
使用
回归学习app,因为这些
输入
需要具有相同的维度,你知道如何统一它们吗?
浏览 12
提问于2020-04-30
得票数 0
回答已采纳
3
回答
多层神经网络不会
预测
负值
perl
、
neural-network
、
classification
、
backpropagation
我已经实现了一个多层感知器来
预测
输入
向量
的正弦。
向量
由随机选择的4- 1,0,1组成,偏差设置为1。网络应
预测
向量
内容之和的sin。例如
输入
= <0,1,-1,0,1>输出= Sin(0+1+(-1)+0+1) 我遇到的问题是,网络永远不会
预测
负值,并且许多
向量
的sin值都是负值。它完美地
预测
了所有正的或零的输出。注意:网络有5个
输入
,6个隐藏单元在1个隐藏层和1个输出。我在激活隐藏层和
浏览 0
提问于2011-02-24
得票数 18
回答已采纳
1
回答
调用需要构建DataFrame的每一行DataFrame的函数。
apache-spark
、
pyspark
在它的实现中,lime基本上需要一个函数,该函数给定一个特征
向量
作为
输入
,对模型的
预测
进行评估。
使用
这个函数,lime可以稍微扰乱特性
输入
,查看模型
预测
是如何变化的,然后给出解释。这里的想法是
使用
它与火花毫升模型。特别是,我正在包装LimeTabularExplainer。为了工作,它需要一个特征
向量
,其中每个元素都是与类别相对应的索引。通过
使用
StringIndexer和类似的工具,从数据的“原始”值构建这样的
向量<
浏览 1
提问于2019-07-26
得票数 0
2
回答
如何访问keras中的类概率?
python
、
keras
我正在尝试
使用
Keras创建一个MLP。但是我不知道如何提取每个类的最终类概率。我
使用
这个作为我的基本示例: 谢谢!
浏览 1
提问于2017-02-10
得票数 14
回答已采纳
2
回答
与ANN、随机林(其他分类器)相比,支持
向量
分类器在
输入
特征方面表现较好,而不是转换特征。
random-forest
、
svm
、
classifier
使用
技术分析人员很少
使用
的转换,已经创造了20
多个
特性,给出了不同的指示。当试图
预测
未来几天的方向时,支持
向量
机显示的行为与其他分类器相反。(当考虑5个原始
输入
时,支持
向量
机提供了更好的结果,而其他方法(如预期的)在
使用
生成的特征时提供了更好的结果) 我完全明白市场数据是非常随机和嘈杂的。这是一个理论练习,以了解不同的ML方法的行为。
浏览 0
提问于2018-08-17
得票数 2
1
回答
在给定离散
输入
序列时,用于
预测
离散输出序列的损失函数是什么?
nlp
、
regression
、
multiclass-classification
、
transformer
、
sequence-to-sequence
例如,对于上面的
输入
序列,反向转换生成输出序列:2 5 3 8 1。我搜索参考资料,但找不到类似的设置。请链接一些您知道的合适的参考资料,这可能会有帮助。对于1),可以更改
输入
序列,以便将每个令牌替换为嵌入
向量
(学习的或固定的)并将其
输入
到模型中。对于
预测
,我考虑确保模型
浏览 0
提问于2023-02-12
得票数 0
回答已采纳
1
回答
ML .NET图像分类-我可以在默认的MLNET训练中
使用
字节数组而不是文件路径来
预测
图像吗?
c#
、
.net
、
machine-learning
、
computer-vision
、
ml.net
我已经
使用
MLNET默认接口训练了一个模型,它为
预测
的
输入
和输出生成了一些代码。 ? 总之,我的模型很好,它的
预测
得分很高,但我在
预测
性能上存在问题,因为需要将文件保存在磁盘上以进行
预测
。[ColumnName("ImageSource"), LoadColumn(1)]} 这是它生成的默认模型
输入
我检查了加载的模型上的模式,我可以看到有一个“Featu
浏览 28
提问于2021-07-23
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
word2vec参数学习解释(一)
CNN之文本分类之网络结构
基于双层序列的文本分类模型
Hsigmoid加速词向量训练
基于Doc2vec训练句子向量
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券