腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(2465)
视频
沙龙
1
回答
如
何在
机器
学习
中
固定
恒定
的
验证
精度
?
python
、
machine-learning
、
keras
、
computer-vision
我正在尝试使用预训练
的
InceptionV3模型对具有平衡类
的
dicom图像进行图像分类。testY, shuffle=True) predictions= model.predict(testX)
浏览 2
提问于2018-08-20
得票数 1
回答已采纳
2
回答
在
机器
学习
中
具有高损失
的
恒定
验证
精度
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
我目前正在尝试使用Inception V3创建一个包含2个类
的
图像分类模型。我有1428张图像,大约是70/30
的
平衡。当我运行我
的
模型时,我得到了相当高
的
损失以及持续
的
验证
准确性。validation_steps = validation_samples//batch_size,这是我运行模型时
的
日志
浏览 0
提问于2018-10-02
得票数 3
1
回答
基于ECC
的
工作
精度
和时间常数算法?
elliptic-curves
、
timing-attack
在这些算法
中
,必须执行算术运算(
如
加法和乘法)。这些“内部”操作也必须在
固定
时间内执行,对吗?那么我猜所有中间变量
的
精度
都是一样
的
。但是这里需要什么
精度
(例如,如果我把两个256位数相乘,我想结果需要512位)。 在
恒定
时间内执行这些“内部”算术运算
的
好算法是什么?
浏览 0
提问于2016-08-30
得票数 3
回答已采纳
3
回答
如果有的话,
机器
学习
算法被认为是可解释性和预测之间
的
一个很好
的
权衡?
machine-learning
、
predictive-modeling
描述梯度增强
机器
或神经网络等算法
的
机器
学习
文本经常评论说这些模型擅长预测,但这是以失去可解释性或可解释性为代价
的
。相反,单决策树和经典回归模型被标记为善于解释,但与更复杂
的
模型(
如
随机森林或支持向量机)相比,预测
精度
(相对)较差。是否有普遍接受
的
机器
学习
模型代表两者之间
的
良好权衡?是否有任何文献列举了算法
的
特点,使它们可以解释?(这个问题以前是在交叉
验证<
浏览 0
提问于2016-05-22
得票数 9
回答已采纳
5
回答
在哪个时代我应该停止训练以避免过度适应。
machine-learning
、
neural-network
、
deep-learning
、
accuracy
、
overfitting
我正在做一个年龄估算项目,试图在一个预定义
的
年龄范围内对一个给定
的
面孔进行分类。为此,我正在使用keras库来训练深度NN。培训和
验证
集
的
准确性如下图所示:正如你所看到
的
,
验证
的
准确性以比训练
精度
更小
的
步骤不断提高。我是应该在训练和
验证
精度
相同
的
280年代停止训练,还是应该在
验证
精度
提高
的
情况下进行训练,即使训练
精
浏览 0
提问于2018-05-29
得票数 10
回答已采纳
1
回答
基于LSTM
的
文本生成器
的
理想
验证
精度
应该是多少?
python
、
tensorflow
、
keras
、
lstm
我使用我拥有的数据集来建模一个基于LSTM
的
文本生成器。该模型
的
目的是预测句子
的
结束。我
的
训练显示出大约81%
的
验证
准确率。在阅读几篇文章时,我发现与分类问题不同
的
是,我更应该担心
的
是损失而不是准确性。是这样
的
,如果是的话,什么是理想
的
损失价值?现在我
的
损失就在1.5+附近。
浏览 10
提问于2019-12-06
得票数 1
回答已采纳
1
回答
CNN链接器
中
验证
精度
的
下降
python-3.x
、
conv-neural-network
、
chainer
我正在使用CNN在Chainer
中
对细胞图像进行分类。随着主/训练
精度
的
提高,模型
的
验证
精度
也在下降。我想知道为什么
验证
准确率在下降,有什么方法可以提高
验证
准确率。我已经在除最后一层之外
的
所有层
中
应用了relu和dropout。在该模型
中
,即使在50个时期之后,训练和
验证
精度
也是不变
的
。下面给出
的
模型显示主/
浏览 24
提问于2019-01-08
得票数 1
回答已采纳
4
回答
快速Java矩阵库适用于JOGL +泛型矩阵数学?
java
、
matrix
、
jogl
我对在JOGL2
中
使用着色器而不是
固定
函数管道来编写OpenGL应用程序很感兴趣。我需要在CPU端做相当多
的
4x4双
精度
矩阵数学运算,以取代
固定
函数管道
的
推送/弹出/转换业务。同样
的
应用程序还将包含一些
机器
学习
代码,这些代码需要对大矩阵进行操作。我看过用于
机器
学习
的
JBLAS (由于我已经在使用JNI for JOGL,依赖于另一个本地库
的
缺点
浏览 0
提问于2011-06-11
得票数 6
回答已采纳
1
回答
基于
精度
优化超参数
的
正确方法
python
、
machine-learning
、
catboost
、
optuna
我正在使用optunta + catboost来优化和训练一些增强
的
树。我想知道优化超参数
的
正确方法,以最大限度地提高准确性(而不是最小化对数损失)。目前,我
的
代码是: def objective(trial): 'depth' = trial.suggest_int('depth', 4, 9),study = optuna.create_study(direction = 'maximize') study.optimize(objec
浏览 19
提问于2021-07-01
得票数 1
3
回答
机器
学习
的
非预测应用
machine-learning
Prediction似乎是machine learning
的
主导主题。大多数算法都有fit和predict函数,因此可以建立模型,从新
的
特征集中预测结果或其他感兴趣
的
参数。
机器
学习
的
non-prediction applications是什么?
浏览 0
提问于2018-11-05
得票数 0
回答已采纳
1
回答
如何改进我对德语文本
的
多类文本分类?
python
、
nlp
、
svm
、
text-classification
、
tf-idf
我是NLP
的
新手,这让我有点困惑。我试图在我
的
数据集上使用SVC进行文本分类。我有一个6个类
的
不平衡数据集。这篇文章是健康、体育、文化、经济、科学和网络课程
的
新闻。我用TF-以色列国防军进行矢量化。因为我
的
文本是德语
的
,所以我没有使用lemmatization。我
的
第一次尝试: train, test = train_test_split(df, test_siz
浏览 1
提问于2020-12-04
得票数 0
回答已采纳
1
回答
随机状态值
的
变化会改变模型
的
精度
python
、
scikit-learn
、
cross-validation
、
train-test-split
在测试我
的
线性回归模型时,我发现更改train_test_split
中
的
random_state参数会更改模型
精度
。为了详细说明,我
的
列车测试拆分如下:X = pd.DataFrame(boston_data.data, columns=boston_data.feature_namesMEDV']) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=
浏览 1
提问于2018-03-28
得票数 0
1
回答
在代码中导致过度匹配
的
问题是什么?
machine-learning
、
neural-network
、
overfitting
、
regularization
、
dropout
**from sklearn.model_selection import train_test_splitfrom keras.layers import Densefrom keras.layers import Activationfrom sklearn.preprocessing import St
浏览 0
提问于2021-12-12
得票数 0
回答已采纳
1
回答
如何用异常图像测试卷积神经网络代码?
neural-network
、
keras
、
conv-neural-network
我是深度
学习
的
初学者(CNN)。我使用了这个代码:()来
学习
更多关于卷积神经网络
的
知识。这个python代码只是将数据分成"train“和"test”两部分,代码
中
没有
验证
部分。那么,如
何在
包含不同图像(
如
正常图像和异常图像)
的
代码
中
添加
验证
文件夹呢?我
的
目标是:向代码中提供一个异常图像(该图像与
机器
以前训练过
的
训练和测试图像
浏览 3
提问于2017-03-27
得票数 1
回答已采纳
1
回答
模型好但混乱矩阵差?
deep-learning
、
keras
、
accuracy
、
confusion-matrix
、
kaggle
输出12结果表明,即使对于
验证
集,模型
的
精度
也在90%以上,而16
中
的
混淆矩阵甚至不能达到50%
的
精度
,而且在
验证
集上也是如此,所以我不理解混淆矩阵
的
这种低
精度
。我认为这可能是由于数据
的
增加,但如果有人能向我解释并告诉我如
何在
学习
曲线
的
充分性方面有一个混乱
的
矩阵,我会很感激。提前谢谢。
浏览 0
提问于2021-05-28
得票数 0
1
回答
在sklearn中使用支持向量机时如何实际使用
验证
集
machine-learning
、
cross-validation
在使用SVM时,我发现对原始数据集执行三向拆分是一种很好
的
做法,类似于70/15/15
的
拆分。我<em
浏览 1
提问于2014-01-26
得票数 3
1
回答
是否有可能得到一个超适合
的
模型之间
的
不适应比较,与此图表?(家庭作业)
machine-learning
、
random-forest
、
data-science-model
、
model-selection
、
boosting
我不知道该怎么解释,因为我认为LGBM
验证
错误
的
事实是广泛
的
,类似于训练盒图,没有过度拟合
的
问题,但是当我看到另一种执行LGBM
的
图表时,我可以看到LGBM确实是过度
的
,所以我真的不知道如何解释这个正确
的
方法📷LightGBM可能是最好
的
选择,因为它更快,最后您可以获得足够
的
准确性,与其他两个相比,套袋有较少
的
超适合,因为误差之间
的
差异较小。谢谢
浏览 0
提问于2020-06-27
得票数 1
回答已采纳
1
回答
EM-ELM交叉
验证
machine-learning
、
neural-network
、
cross-validation
我知道交叉
验证
用于找到最大限度减少平均误差
的
最佳超参数。例如,将交叉
验证
的
平均误差最小化
的
神经元数在ELM
中
估计。冯,G,黄,G.B.误差最小化
的
极端
学习
机器
增长
的
隐藏节点和增量
学习
。IEEE关于神经网络
的
交易,20 (8),1352-1357。
浏览 0
提问于2018-07-05
得票数 4
1
回答
是否可以拥有与
验证
历史非常相似的培训历史?
python
、
keras
、
plot
我训练了一个50年代
的
模型,按照以下比例分割数据集: X = np.load(....)从历史上可以看出,
验证
的
准确性/损失与培训
的
准确性/损失非常相似。有时
验证
损失甚至低于训练损失。至于最后一条声明,
浏览 1
提问于2021-01-08
得票数 1
回答已采纳
1
回答
使用Lasagne
的
卷积神经网络
精度
(回归与分类)
python
、
neural-network
、
lasagne
、
nolearn
然而,尽管我在训练和
验证
损失方面得到了for (Ish)结果,但我
的
验证
和测试
精度
始终是
恒定
的
(网络总是预测同一个类)。有谁知道如
何在
Lasagne
中
设置相同
的
变量(因为我不想使用Nolearn)?
浏览 9
提问于2015-09-18
得票数 2
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券