腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(513)
视频
沙龙
2
回答
准确率
较低
,
即
预测
准确率
为
52
%,
而
训练
期间
的
训练
和
验证
准确率
约为
92
%
、
、
我正在使用预先
训练
好
的
VGG19来
训练
模型。在
训练
时,我得到了
92
%左右
的
良好
准确率
(包括
训练
和
验证
)。) for i in predictions:y_pred = np.asarray(y_pred)
训练
时
的
准确性可以从这里查看然而,当我
预测
的
浏览 7
提问于2021-08-02
得票数 0
回答已采纳
1
回答
LIBSVM:未知
预测
标签
的
准确率
为
0%
、
、
、
,所以我把随机数作为
预测
标签,但对120个测试文件
的
准确率
为
0%。我
的
svm_model是用520个
训练
特征向量
训练
的
。
预测
是基于标签
的
吗?我怀疑,因为当我使用1-5 (
即
我
的
类标签)作为测试标签时,
准确率
约为
60%。
浏览 0
提问于2014-03-30
得票数 0
1
回答
如何在TensorFlow中提高CNN
的
预测
能力?
、
、
、
我在TensorFlow中使用具有两个卷积层
的
CNN,一个完全连接
的
层
和
一个线性层来
预测
对象
的
大小。标签是大小,特征是图像。两种方法
的
准确率
都有所提高,但交叉
验证
准确率
的
提高速度较慢。考虑到精度上
浏览 3
提问于2018-09-07
得票数 0
1
回答
Rnn
预测
率受批量大小
的
影响?
、
我正在使用Tensorflow RNN来
预测
一系列序列。我使用Grucell
和
dynamic_rnn。在
训练
时,我输入
训练
数据集,我将其分成8批,每批
的
批大小
为
10 (1批
的
形状
为
[10, 6, 2],
即
[batchsize, seqlen, dim])。为了防止过拟合,当
训练
数据集中
的
预测
率开始超过80%时,我会停止
训练
(通常在80%~83%
的
浏览 6
提问于2018-02-04
得票数 0
1
回答
Python:在哪些情况下,随机森林
和
SVM分类器可以产生高精度?
、
、
、
我使用随机森林
和
SVM分类器进行分类,我有18322个样本,它们在9个类别(3667,1060,1267,2103,2174,1495,884,1462,4210)中是不平衡
的
。我使用10倍
的
CV,我
的
训练
数据有100个特征维度。在我
的
样本中,
训练
数据在这100个维度上差别不大,当我使用SVM时,
准确率
约为
40%,
而
当我使用RF时,
准确率
可以达到
92
%。然后我让我
的</em
浏览 1
提问于2015-04-26
得票数 0
2
回答
在CNN中创建
的
模型没有给出预期
的
结果
、
、
、
、
我已经使用CNN创建了狗
和
猫
的
模型分类器,使用tensorflow.Its
准确率
约为
90%,
验证
准确率
为
80%.But当我输入自己下载
的
猫
和
狗
的
图像时,它给出了错误
的
结果。我确保输入
的
图像与
训练
中使用
的
图像大小相同。
浏览 3
提问于2020-05-02
得票数 0
1
回答
为什么在tensorflow 2中使用tf.GradientTape
的
训练
与使用fit API
的
训练
有不同
的
行为?
、
、
、
、
因此,我在fit
和
tf.GradientTape上
的
CiFAR-10数据集上实现并比较了一个简单
的
图像分类器,并分别
训练
了20个时期。运行几次后,结果如下 用tf.GradientT
浏览 5
提问于2020-01-14
得票数 2
回答已采纳
1
回答
Cleverhans加载预
训练
模型
有没有办法加载一个预先
训练
好
的
模型。我尝试过load("model.joblib")
和
save("model.joblib",model)函数,但加载
的
模型在
验证
数据上只有大约10%
的
准确性,并且成功地生成了大约10%
的
成功对抗性示例。保存前模型
的
准确率
约为
99.3%,生成
的
对抗性示例中约有87%是成功
的
。如果我将加载
的
模型
浏览 17
提问于2020-05-12
得票数 1
回答已采纳
1
回答
这是
训练
模特
的
有效方法吗?
训练
损失在1.1921 e-07?
、
、
、
当我
训练
角星模型
的
时候,我得到了这个日志。Epoch 49/50据我所知,在
训练
一个模型时,我知道理想
的
损失应该是1到10 (不确定),但我在e-07
的
训练
中遇到了这个损失值。这是有效
的
训练
吗?还是我哪里做错了??
浏览 0
提问于2019-08-01
得票数 0
1
回答
基于opencv
预测
的
测试图像预处理
、
、
、
、
我正在处理以RGB格式保存
的
灰色图像数据集。,
训练
和
验证
的
准确率
都很高(
92
%)。我在
训练
样本
和
验证
样本上再次尝试了
预测
,得到
的
准确率
很低,也在50%左右,这意味着问题处于
预测
阶段。 相反,我使用OpenCV库对图像进行预处理,结果
的
准确性更高,但仍不像预期
的
那样。我试着对
训练
样本进行
浏览 2
提问于2020-10-31
得票数 1
回答已采纳
1
回答
RNN L2正则化停止学习
、
、
、
我使用双向RNN来检测不平衡发生
的
事件。正面类
的
频率比负面类少100倍。虽然没有使用正则化,但我可以在
训练
集上获得100%
的
准确率
,在
验证
集上获得30%
的
准确率
。我打开了l2正则化,结果在
训练
集上也只有30%
的
准确率
,
而
不是在
验证
集上进行更长
的
学习
和
100%
的
准确率
。 我在想,也许我
的
浏览 0
提问于2016-10-21
得票数 1
2
回答
术语准确性
和
验证
准确性之间
的
区别是什么
、
、
我已经使用Keras
的
LSTM构建了一个模型,该模型可以检测堆栈溢出上
的
两个问题是否重复。当我运行模型时,我在纪元中看到了类似这样
的
东西。==============] - 67s - loss: 0.3136 - acc: 0.8581 - val_loss: 0.3518 - val_acc: 0.8391 我正在尝试理解这些术语中
的
每一个
的
含义上面的哪个值是我
的
模型
的
准确性。我对机器学习比较陌生,所以任何解释都会有所帮助。
浏览 1
提问于2018-07-15
得票数 20
回答已采纳
1
回答
如何为KNeighborsClassifier选择权重函数
、
、
我正在学习kNN模型
的
超参数,我遇到了“距离”
和
“均匀”权重函数参数。 我
的
理解是,权重函数将在模型经过
训练
后用于计算
预测
(通过对邻居
的
投票进行加权)。因此,我
的
问题如下: 我对权重函数
的
理解是否只用于
预测
(
而
不是在
训练
期间
)? 似乎使用'distance‘总是给出接近100%
的
训练
准确率
,这是否意味着使用'
浏览 74
提问于2021-02-04
得票数 1
2
回答
线性L1与L2 logistic回归性能差异
、
、
我正在用LIBLINEAR
训练
一个简单
的
logistic回归分类器。只有3个特性,标签是二进制0-1.753.80863694081768 2:-12.4841741178 3:14现在,如果我使用"-s 6",
即
“L1-正则logistic回归”,则10倍
的
交叉
验证
准确率
约为
70%,每个
验证
器在几秒钟内完成。但如果
浏览 3
提问于2015-05-24
得票数 1
1
回答
Keras IMDB情感分析
、
我是ML
的
新手,我正在尝试使用Keras对IMDB数据集进行情感分析,这是基于我找到
的
一个教程。下面的代码运行,在测试数据上
的
准确率
约为
90%。然而,当我尝试
预测
两个简单
的
句子(一个是正面的,一个是负面的)时,它给出
的
正面
和
负面的值分别
约为
0.50
和
0.73,其中正面应为0.71,负面应小于0.1,这是本教程中显示
的
结果。
浏览 0
提问于2018-10-12
得票数 1
1
回答
不合身,不合身还是很合身?
、
、
、
、
因此,我
为
二进制文本分类任务
训练
一个lstm rnn,而我对丢失结果
的
理解有一些问题。
训练
集
约为
70万个示例,
验证
集
约为
35000个示例。
验证
集
和
训练
集是独立
的
,所以我不对
验证
集中
的
数据进行培训。根据我在学校学到
的
知识,在检查其他职位时,
验证
损失应该略高于培训损失,这样才是一个很好
的
匹配。然而,在我
的<
浏览 0
提问于2018-03-28
得票数 1
1
回答
如何提高模型
的
测试精度?
、
、
下面是代码(https://github.com/maxmelnick/tensorflow/blob/no_随机/tensorflow/示例/图像_再培训/再培训)
的
链接,最初我有一个小
的
数据集。因此,我使用了增强技术来增加数据集
的
大小。 培训阶段数据集分为培训、
验证
和
测试。在
训练
阶段,11个班
的
准确率
为
96%。但当我
预测</
浏览 0
提问于2020-09-02
得票数 0
1
回答
如何提高模型
的
预测
精度
、
、
下面是代码(https://github.com/maxmelnick/tensorflow/blob/no_随机/tensorflow/示例/图像_再培训/再培训)
的
链接,最初我有一个小
的
数据集。因此,我使用了增强技术来增加数据集
的
大小。 培训阶段数据集分为培训、
验证
和
测试。在
训练
阶段,11个班
的
准确率
为
96%。但当我
预测</
浏览 0
提问于2020-09-01
得票数 1
1
回答
如何知道何时发生过拟合?
、
、
我有一个包含3961个不同行
和
32列
的
训练
数据,我希望将其适合随机森林
和
梯度提升模型。在
训练
时,我需要微调模型
的
超参数,以获得尽可能好
的
AUC。为此,我使用Scipy中描述
的
盆地跳跃算法最小化数量1-AUC(Y_real,Y_pred);因此我
的
训练
和
内部
验证
子样本是相同
的
。当优化完成后,我得到了随机森林
的
AUC=0.994,而对于梯度提升我得到
浏览 10
提问于2021-01-20
得票数 0
1
回答
在Keras中冻结
的
inceptionV3网
的
奇怪行为
、
、
加载保存
的
权重并将所有层
的
可
训练
标记设置
为
false后,我尝试拟合模型,并期望看到一切稳定。但
验证
损失随着每个时期
的
增加
而
增加(
和
准确率
下降),
而
训练
损失和
准确率
确实如预期
的
那样稳定。有人能解释这种奇怪
的
行为吗?我认为它与批处理归一化层有关。
浏览 1
提问于2016-12-19
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何防止我的模型过拟合?这篇文章给出了6大必备方法
“居高临下,势如破竹”-参数的动量更新方法
将人工智能应用于结算风险预警的研究
手把手教你机器学习识别交通路牌,好玩
机器学习方法现可以更快地预测某些沙门氏菌的动物来源
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券