腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
使用
神经网络
进行
文本
分类
时
,
准确率
和
损失
之间
是否
存在
直接关系
?
tensorflow
、
recurrent-neural-network
、
text-classification
、
loss-function
、
cross-entropy
我正在尝试
使用
深度递归
神经网络
进行
多类
文本
分类
。我的网络
在
一定的准确性下遭受了94%,80%,有时甚至100%的巨大
损失
。令人惊讶的是,
在
验证
准确率
为64%的情况下,
损失
为96%。我想要理解的是,所发生的
损失
是否
与准确性有
直接关系
,或者准确性是基于正确获取的数据计算的。我
使用
分类
交叉函数来估计
损失
。
浏览 196
提问于2020-11-10
得票数 0
1
回答
为什么迷你批次会降低我的网络MNIST
分类
器?
neural-network
、
gradient-descent
、
mini-batch-gradient-descent
、
convolutional-neural-network
我
在
python中从零开始制作了一个卷积
神经网络
来
分类
MNIST手写数字(集中式)。它由8个3x3核的单卷积网络、2x2个最大池层
和
一个以softmax为激活函数的10个节点密集层组成。我
使用
交叉熵
损失
和SGD。 当我把整个训练集训练成一个批次大小为1的时代
时
,我的
准确率
为95%。然而,当我尝试一个较大的批次大小(16,32,128)
时
,学习变得非常嘈杂,最终的
准确率
在
47%-86%
之间</
浏览 0
提问于2021-02-04
得票数 0
2
回答
类预测训练精度与计算精度的差异
python
、
tensorflow
、
neural-network
用11200幅图像数据集对
神经网络
进行
了训练,验证
准确率
为96%。我保存了我的模型,并将它的权重加载到同一个
神经网络
中。我
在
一个数组中选择了我的数据集的738幅图像,并试图用我的模型来预测它们的类别,并将它们与真实的标签
进行
比较,然后再一次计算出
准确率
,它是74%。这里有什么问题?我想它的准确度应该在96%左右。prelist[i]):test_precision = (count/len(x))*100
浏览 4
提问于2020-02-21
得票数 0
3
回答
Tensorflow:
损失
减少,但精度稳定
tensorflow
、
neural-network
、
deep-learning
、
conv-neural-network
、
convolution
我的团队正在
使用
Tensorflow对CNN
进行
训练,以便对损坏/可接受的零件
进行
二进制
分类
。我们通过修改cifar10示例代码来创建代码。
在
我以前
使用
神经网络
的经验中,我总是训练到
损失
非常接近于0(远低于1)。然而,我们现在正在评估我们的模型
在
训练期间
使用
验证集(
在
单独的GPU上),似乎精度
在
大约6.7k步长后停止增加,而
损失
在
超过4
浏览 2
提问于2017-04-19
得票数 29
2
回答
如何
使用
深度
神经网络
提高验证精度?
deep-learning
、
caffe
、
mxnet
我正在尝试建立一个具有13000个训练图像
和
3000个验证图像的11类图像
分类
器。我
使用
的是深度
神经网络
,它正在
使用
mxnet
进行
训练。训练
准确率
正在提高,达到80%以上,但验证
准确率
在
54-57%
之间
,而且没有增加。这里会有什么问题呢?我应该增加图片的数量吗?
浏览 1
提问于2016-05-04
得票数 13
回答已采纳
1
回答
朴素贝叶斯
分类
器
和
支持向量机的波动精度
machine-learning
、
classification
、
svm
、
accuracy
、
naive-bayes-classifier
比较了朴素贝叶斯(NBC)、支持向量机( SVM )
和
神经网络
的
分类
精度。我
使用
的数据集是~18K
和
26个标签。
在
目前的状态下,
神经网络
的
准确率
总是
在
80%以上,而NBC
和
SVM
在
15%到80%
之间
波动。他们大多接近两个极端之一。每次运行的唯一不同之处是
使用
sklearn的model_selection.train_test_split()函数对训练/测
浏览 0
提问于2022-07-19
得票数 0
回答已采纳
1
回答
关于激活功能工作机制的混淆
neural-network
、
classification
、
svm
、
activation-function
、
self-study
对于二进制
分类
,无论
使用
何种模型,sigmoid函数对于输出层都是一个很好的选择,因为实际的输出值‘Y’要么是0,要么是1,因此预测的输出值
在
0到1
之间
是有意义的。我的困惑是,
在
输出层中
是否
存在
一个二元步长函数,它将权重
和
输入的线性组合的值压缩为0或1?
分类
是否
意味着总是
在
隐藏层的线性或非线性函数之上应用阈值函数? 假设预测的产值为0.75,实际Y为0。
损失
函数按实际预测= 0-0
浏览 0
提问于2019-06-17
得票数 1
回答已采纳
1
回答
下采样
文本
文档
machine-learning
、
nlp
、
text-mining
、
downsampling
这些文件由
文本
组成。我想在
神经网络
中
使用
这些
文本
。但当然
存在
一个不平衡的数据集问题。每个
分类
器都会把所有的文档输入到第二类,并说:“我的
准确率
高达97.5%。您
是否
知道
是否
有任何实现检查文档--类2中的相似点
和
类集群--然后只删除每个集群的文档与其集群大小成比例? 或者你知道相同目标的类似方法吗?
浏览 2
提问于2017-01-26
得票数 1
4
回答
深度学习的准确性
和
损失
之间
的关系是什么?
neural-network
、
deep-learning
、
keras
、
tensorflow
、
metric
我创建了三个不同的模型,
使用
深度学习
进行
多类
分类
,每个模型都给了我不同的准确性
和
损失
价值。测试模型的结果如下:第二种模式:精确度: 98.5%
损失
: 0.0997我的问题是:
损失
和精确值
之间
的关系是什么为什么即使精度较高,第三种模型的
损失
也较高?
浏览 0
提问于2018-12-14
得票数 38
1
回答
在
Keras中对1700多个类
进行
MultiLabel
分类
keras
、
deep-learning
有9800个功能
和
大约1700个类标签。每个样本可以有4个或5个类别标签。我已经设计了模型并
进行
了初步训练。我得到了非常高的
准确率
,我知道这是为什么。我的问题是哪个优化器
和
损失
函数更准确才能得到好的结果。此外,谁能帮助我与自定义精度指标,这是证明有点棘手,因为它需要张量为基础。
浏览 7
提问于2019-05-09
得票数 0
2
回答
当我们用
神经网络
进行
监督
分类
时
,为什么我们要训练交叉熵而不是
分类
误差?
tensorflow
、
neural-network
、
gradient-descent
、
reinforcement-learning
我们建立N个输出的
神经网络
,用softmax将其转化为概率,
损失
是每个NN输出
和
相应的真标号
之间
的平均cross-entropy,表示为真标号中带有1的1-hot向量
和
其他0。然后,我们按照它的梯度来优化这个
损失
。
分类
误差只是用来测量我们的模型质量。 但是,我知道
在
执行policy gradient
时
我们可以
使用
,我们不再需要
使用
cross-entropy!我们的
损失
只是tf.ga
浏览 3
提问于2017-08-19
得票数 1
回答已采纳
2
回答
我能得到一个
神经网络
输出值>100吗?
neural-network
、
algorithms
、
java
、
genetic-algorithms
有没有一个隐藏的原因,为什么没有人
使用
NN来产生更高的值整数?我的情况是,我想要NN来预测确切的结果值,而不是a -1。如果我有一个
神经网络
,有4个输入,1个输出,第一轮输入: 51,22,35,43输出: 847第二轮输入: 25,31,46,29输出: 761我要第n轮输入: 51,33,19,27输出:??
使用
同样的例子,如果我
使用
第一轮错误值从第一次进化中得到(接近)最佳的权重,我
是否
在
第二轮的下一代中添加了父母的权重?我如何确保前几轮中最好的染色体不会在那一代人之后死亡。
浏览 0
提问于2017-11-17
得票数 2
1
回答
对于目标检测中的目标置信度,
是否
有任何有统计学意义的定义?
computer-vision
、
object-detection
、
loss-function
大多数现代对象检测算法依赖于
神经网络
,并为每个对象输出边界框
和
置信度(或者更准确地说,对于所考虑的每个可能的对象类的置信度,其中最高的被认为是真实的对象置信度并定义该对象的预测类)。除了给出“对象性”的相对可能性(置信度为0.9的预测边界框比置信度为0.1的预测边界框更有可能包含对象)之外,这些预测
是否
具有统计意义?例如,我们
是否
应该能够说,预测置信度为0.1表示在此置信度下大约10%的预测实际上是对象?有没有另一个有统计学意义的定义?我理解,这充其量是一个松散的统计意义,因为
神经网络
将
使用</e
浏览 70
提问于2021-02-09
得票数 1
2
回答
用于短
文本
分类
的CNN
在
验证集上表现不佳
machine-learning
、
tensorflow
、
deep-learning
我
使用
CNN
进行
短
文本
分类
(对产品标题
进行
分类
)。代码来自
损失
是不同的。验证的
损失
是训练集
和
测试集
损失
的两倍。(我不能上传超过2张照片。对不起!)训练集
和
测试集通过爬虫从web上获取,然后以7:3的比例分割,验证来自真实的应用程序消息,并通过手动标注
进行
标记。我尝试过上采样,下采样,无采
浏览 0
提问于2016-12-27
得票数 2
5
回答
二值
分类
为2类
分类
问题
machine-learning
、
deep-learning
、
image-classification
我想要创建一个狗
分类
器,它输出包含狗的图像的概率。二进制
分类
器(1类),它只输出包含狗的图像的概率.这在我看来是合理的。二级
分类
器,分为“狗”
和
“非狗”两类.但是这种方法的问题是,
神经网络
也必须学习“非狗”类,这是不可能的,因为它没有模式,而且
在
每个训练示例中都是不同的。 第二种方法
是否
不如第一种有效?或者根本不工作?
浏览 0
提问于2019-06-27
得票数 4
回答已采纳
1
回答
Tensorflow的双向lstm不收敛
tensorflow
、
bidirectional
、
lstm
、
convergence
我正在训练一个双向LSTM网络,但当我训练它
时
,我得到了如下结果:Iter 3456, Minibatch Loss= 10.305597, Training Accuracy= 0.25000Accuracy= 0.12500" 即使迭代次数为500000,
损失
和
准确率
也几乎相同
浏览 0
提问于2016-06-21
得票数 0
1
回答
是否
有可能在几个时代内超过25万例?
machine-learning
、
neural-network
、
deep-learning
、
conv-neural-network
一般说来,
是否
有可能判断
在
Z期的Y训练示例上训练一个给定的X深度
神经网络
是否
可能过于合适?或者,只有通过查看训练
和
测试集的丢失和精确图,才能确定
是否
存在
过拟合?该模型对12个不同的类
进行
了
分类
。我已经训练了大约35个小时,训练集的
准确率
达到了90%,测试集的
准确率
也达到了80%。
浏览 3
提问于2017-12-16
得票数 4
回答已采纳
2
回答
基于
文本
输出标签的相似
文本
输入特征
分类
keras
、
nlp
、
text-classification
、
gensim
、
doc2vec
我从来没有靠自己从零开始建立过
神经网络
。构建一个能够为输入
文本
数据分配标签的
分类
模型。 普通
分类
器:DecisionTree、RandomForest、NaiveBayes、KNeighborsClassifier ->最大
准确率
~ 41% 多标签
分类
器:OneVsRestClassifier、O
浏览 0
提问于2021-06-09
得票数 2
回答已采纳
1
回答
使用
神经网络
学习
分类
值的分布
python
、
tensorflow
、
machine-learning
、
keras
、
neural-network
使用
神经网络
学习
分类
值的分布 其目的是
使用
神经网络
对一维输入
进行
分类
。应该对两个类
进行
分类
,即A
和
B。用于确定类的每个输入都是一个介于0.0
和
1.0
之间
的数字。class A的输入值
在
0
和
1
之间
均匀分布,如下所示: ? class B的输入值都在0.4到0.6
之间
,如下所示: ? 现在我想训练一个<e
浏览 25
提问于2019-04-24
得票数 1
回答已采纳
2
回答
验证
损失
<训练
损失
和验证精度<训练精度
keras
、
accuracy
、
loss-function
我有一个二元
分类
问题。我得到了以下结果:val_loss (远)低于train_loss,但是与培训集相比,验证的accuracy也更低。这怎么可能?Epoch 5/10这是我
使用
的
浏览 0
提问于2018-01-03
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
人工智能不一样的文档分类
教程 从检查过拟合到数据增强,一文简述提升神经网络性能方法
强化学习新模型Jumper,让神经网络学习在阅读中何时做决定
从检查过拟合到数据增强,一文简述提升神经网络性能方法
数据分析精选案例:3行代码上榜Kaggle学生评估赛
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券