腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
我
的
数据
集
在
训练
时
减
少了
?
、
、
、
、
在
训练
过程中,
我
的
数据
集
正在减少。
我
不知道是什么引起
的
。train_test_split(X, y, test_size = 0.2, random_state = 101) X_train.shape (17983, 4500) y_train.shape (17983,) 这是
我
的
当纪元开始运行时,
在
它是1/17983之前。现在,当我再次运行时,它是1/562。请注意,<em
浏览 72
提问于2020-04-01
得票数 0
1
回答
DLIB :为194个地标提供Shape_predictor培训(helen )
、
、
、
我
正在使用shape_predictor海伦
数据
集
( helen dataset )
训练
dlib
的
194个人脸地标,该
数据
集
用于通过dlib库
的
face_landmark_detection_ex.cpp现在,它给了我一个sp.dat二进制文件,大约为45 MB,这比给出
的
文件()
少了
68个人脸地标。
在
训练
中 平均测
浏览 4
提问于2016-04-28
得票数 3
回答已采纳
2
回答
损失函数-
在
时代开始
时
减
少了
很多。
、
、
当我看到详细
的
输出
时
,
我
注意到了一些东西。当我
训练
我
的
模型
时
,在这个时代
的
早期(前20 %),损失减
少了
很多。然后在其余
的
时期(最后
的
80%),损失是非常稳定
的
,并且在下一个时代之前不会有太大
的
变化。它也做同样
的
事。
我
建立了一个模型,用于
训练
一种大型
数据
集
(60000条条目
浏览 0
提问于2020-05-19
得票数 2
回答已采纳
1
回答
偏差与
数据
集
大小
的
关系
、
、
我
正在读一本书:http://www.feat.engineering/resampling.html,作者
在
书中提到了以下内容:
我
无法理解作者在这里想说什么。
我
的
理解是,当我们缩小
数据
集
的
大小时,我们会产生偏差,即
浏览 0
提问于2022-01-24
得票数 0
回答已采纳
2
回答
提高卷积神经网络
的
精度
、
、
、
我
正在尝试
训练
一个卷积神经网络来对句子进行分类。
我
取自
的
代码 代码
在
我
的
一个
数据
集中运行得很好。然而,
在
另一个
数据
集
上,它
的
性能非常差。两个
数据
集
在数量和句子长度方面具有可比性。对于性能较差
的
数据
集
,
我
注意到步长后损失函数减
少了
。蓝色表示
训练</em
浏览 0
提问于2016-04-12
得票数 3
1
回答
C4.5决策树算法不能提高准确率
、
、
、
我
使用10折交叉验证
在
Weka中运行了C4.5剪枝算法。
我
注意到,未修剪
的
树比修剪
的
树具有更高
的
测试精度。
我
不明白
为什么
修剪树不能提高测试
的
准确性?
浏览 18
提问于2017-02-05
得票数 0
1
回答
理解正则化
、
我
目前正试图理解逻辑回归
的
正规化。所以,这就是
为什么
我们引入正规化。这样,我们减
少了
浏览 0
提问于2016-02-17
得票数 7
3
回答
为什么
在
LSTM模型中使用冻结嵌入层
、
、
、
我
正在研究这个LSTM模式:https://www.kaggle.com/paoloripamonti/twitter-sentiment-analysis嵌入层被冻结,这意味着
在</
浏览 0
提问于2019-06-02
得票数 5
回答已采纳
1
回答
为分类
数据
创建虚拟对象
、
我
正在尝试建立一个二进制分类器,
我
的
大多数变量都是分类
的
。因此,
我
希望将分类
数据
处理为虚拟变量。
我
有以下
数据
集
:ruri_user objectfrom_userX = data[features].drop(dropped_features, axis=1) y = data[targe
浏览 12
提问于2018-02-20
得票数 1
回答已采纳
1
回答
对于10个班,Tensorflow深度学习模型
的
准确性较低,而作为3个类
的
一组,效果非常好。
、
、
、
、
我
正在从事一个计算机视觉项目,基于嘴唇运动
的
单词分类。有10个类别(单词)需要分类。
数据
集中
的
每个类都有一个图像或帧序列。
我
选择了一个时间分布模型和LSTM模型作为任务。
在
错误
的
情况下,
数据
集
将被转换为一个numpy数组,该数组首先提供给CNN层,以识别每幅图像中
的
特征。将结果反馈给时间分布层和LSTM,将帧作为时间序列处理。最后,使用一些稠密层进行分类。
我
面临
的
问题是,当我将模型
浏览 6
提问于2020-08-06
得票数 0
回答已采纳
1
回答
随机森林:k折交叉验证
的
OOB?
、
、
、
我
是机器学习
的
新手,目前
我
正在尝试使用R中
的
插入符号和randomForest包实现随机森林分类。
我
正在使用trainControl函数,并反复进行交叉验证。也许这是一个愚蠢
的
问题,但据我所知,随机森林通常使用装袋将
训练
数据
分成不同
的
子集并进行替换,使用1/3作为验证
集
来计算OOB。但是,如果您指定要使用k折交叉验证,会发生什么情况?从插入符号文档中,
我
假设它只对重采样使用交叉验证,但是如
浏览 1
提问于2021-03-19
得票数 0
2
回答
神经网络
在
Python
训练
后没有给出预期
的
输出。
、
、
、
、
我
的
神经网络
在
Python
训练
后并没有给出预期
的
输出。代码中有错误吗?有没有办法降低均方误差(MSE)?https://drive.google.com/open?id=1GLm87-5E_6 6YhUIPZ_CtQLV9F9wcGaTj2 这是
我
浏览 0
提问于2019-11-22
得票数 0
1
回答
为什么
神经网络
的
训练
时间
在
增加1-2层隐层时会减少,同时保持学习速率不变?
、
、
、
当我
在
神经网络中添加一个额外
的
隐藏层
时
,
我
观察到
训练
时间减
少了
。随着可
训练
参数数
的
增加,
我
预计
训练
时间会增加,以达到一定
的
验证精度(例如x),但在比较复杂
的
模型中,达到相同精度所需
的
时间较少。设想情况: 有人能解释一下
浏览 4
提问于2022-05-24
得票数 1
1
回答
计算mAP后
的
暗网停止
、
、
我
现在正面临着一个奇怪
的
问题。最近,
我
使用以下命令
训练
了几个不同
的
yolov4模型:darknet.exe detector train datapath cfgpath yolov4.conv.137 -map。通常情况下,这是很好
的
,但不知从哪里冒出来,现在它开始停止后,每次地图计算。通常,它只会继续并向我显示计算出来
的
地图,但是现在
我
需要再次运行相同
的
命令(使用最后
的
权重,而不是yolov4.con.137)来
浏览 3
提问于2022-03-15
得票数 0
1
回答
随机森林排样置换与特征抽样
的
目的
、
、
在
随机森林中,我们实际上使用了引导聚合,实际上,我们遵循两个步骤,比如用替换
的
行采样和创建引导示例
的
特性采样,实际上
我
的
问题是 1)此行抽样和特征抽样
的
实际目的是什么?2)
在
带替换
的
行抽样中,同一行可以
在
引导样例中重复(如果
我
错了,请纠正
我
),如果同一行出现了两次,它将如何影响我们
的
最终预测:是否需要进行替换/是否有必要进行替换?3)假设一个
数据
浏览 5
提问于2022-03-25
得票数 -1
2
回答
如何避免过度拟合(Encog3 C#)?
、
、
我
是神经网络
的
新手,
我
正在与Encog3合作。
我
已经创建了可以
训练
和测试
的
前馈神经网络。问题是
我
不确定如何防止过度拟合。
我
知道
我
必须将
数据
分成
训练
集
、测试
集
和评估
集
,但我不确定在哪里以及何时使用评估
集
。目前,
我
将所有
数据
分成
训练
和测试
集
(50%,50%),<
浏览 1
提问于2015-06-10
得票数 0
1
回答
在
列车和测试
数据
上运行get_dummies会返回不同数量
的
列--
在
特性工程之后,可以将这两组
数据
连接起来并分开吗?
、
、
我
的
训练
和测试
数据
集
是两个独立
的
csv文件。|Condition|PoorGood
我
的
问题是,当我试图预测值时会出现不匹配,因为测试
集
在
pd.get_dummies()之
浏览 1
提问于2019-11-13
得票数 1
回答已采纳
1
回答
我
是否应该将我
的
数据
分成培训/测试/验证
集
,并进行k-交叉验证?
、
在
评估推荐系统
时
,可以将其
数据
分成三部分:培训、验证和测试
集
。在这种情况下,培训
集
将用于从
数据
中学习推荐模型,而验证
集
将用于选择要使用
的
最佳模型或参数。然后,使用所选择
的
模型,用户可以使用测试
集
来评估其算法
的
性能。
我
已经找到了一个scikit学习交叉验证()
的
文档页面,它说,
在
使用k-折叠交叉验证
时
,不需要将
数据</em
浏览 5
提问于2017-04-05
得票数 0
回答已采纳
1
回答
LSTM中节点数
的
影响
、
、
、
、
我
是机器学习
的
新手,
我
建立了一个2层稠密
的
神经网络。当我进行实验
时
,
我
有以下观察: 当我减少每个密集层中
的
节点数
时
,
我
似乎得到了更好
的
训练
和预测精度。这让
我
感到惊讶,因为我会假设一个密集层中
的
节点越多,模型就越能理解
数据
。模型
在
每个稠密层
的
节点数不一致
的
情况下也得到了较好
的
结
浏览 2
提问于2020-01-30
得票数 0
回答已采纳
1
回答
这个代码有什么问题,
为什么
这个代码中
的
损失没有减少?
、
、
、
、
我
已经
在
tensorflow中实现了VGG-16,VGG-16是相当深
的
网络,所以损失一定要减少。但在
我
的
代码中它并没有减少。但是,当我一次又一次地
在
同一批上运行模型
时
,损失就减
少了
。知道
为什么
会发生这种事。
训练
在
狗-猫
数据
集
上进行,图像大小为224x224x3.
浏览 2
提问于2019-03-05
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券