腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow
:
无法
对
批量
大小
大于
1
的
训练
数据
进行
过
拟合
、
、
、
、
我使用
Tensorflow
编写了一个小
的
RNN网络,以返回给定一些参数
的
总能耗。我
的
代码中似乎有一个问题。当我使用
批量
大小
>
1
(即使只有4个样本!)时,它不能
过
拟合
训练
数据
。在下面的代码中,当我将BatchSize设置为
1
时,损失值达到0。但是,通过将BatchSize设置为2,网络
无法
过
拟合
,损失值接近12.500000
浏览 7
提问于2018-01-02
得票数 2
1
回答
通过增加
训练
数据
大小
来减少CNN中
的
过度
拟合
,而不是使用DataImageGenerator增强图像(预处理
数据
)
、
、
增加
训练
数据
的
大小
是否有助于减少
过
拟合
?或者建议使用
Tensorflow
中
的
ImageDataGenerator
进行
图像增强(
数据
预处理),以倾斜或旋转图像以减少
过
拟合
?哪种方法更好地减少
过
拟合
??
浏览 27
提问于2019-09-15
得票数 1
1
回答
Rnn预测率受
批量
大小
的
影响?
、
我正在使用
Tensorflow
RNN来预测一系列序列。我使用Grucell和dynamic_rnn。在
训练
时,我输入
训练
数据
集,我将其分成8批,每批
的
批
大小
为10 (
1
批
的
形状为[10, 6, 2],即[batchsize, seqlen, dim])。为了防止
过
拟合
,当
训练
数据
集中
的
预测率开始超过80%时,我会停止
训练
(通常在80%~83%<
浏览 6
提问于2018-02-04
得票数 0
1
回答
在
Tensorflow
中
拟合
模型时,
批量
大小
和纪元数应该有多大?
、
我正在从事物体检测
的
工作。我
的
训练
集是5984,测试集是1496 (KITTI跟踪
训练
数据
集)。 在
Tensorflow
中
拟合
模型时,
批量
大小
和纪元数应该有多大?有没有什么基于
数据
输入
大小
的
经验法则?我应该将其拆分为
训练
/val/test,还是继续使用当前拆分
的
train/val?
浏览 14
提问于2017-07-03
得票数 0
1
回答
对
CNN
的
numpy图像
数据
集
进行
预处理:内存错误
、
、
、
我有一个
数据
集(71094个
训练
图像和17000个测试),我需要
训练
一个CNN.During预处理,我尝试使用numpy创建一个矩阵,结果发现这个矩阵非常大(
训练
数据
为71094*17000* 100因此我得到一个内存error.How做我处理
的
情况。??请帮助。这是我
的
代码..import cv2 data_dir = '.train[ix,
浏览 1
提问于2016-04-14
得票数 0
1
回答
训练
损失正在减少,但验证损失是重要
的
。如何避免过度
拟合
、
、
、
、
我想重新
训练
谷歌
的
mediapipe手部地标,以便
进行
更多关键点检测,但该模型仅在tflite格式下可用,
无法
重新
训练
。我创建了一个与mediapipe手模型相同
的
模型,并用我
的
自定义
数据
对
其
进行
了
训练
,但面临着过度
拟合
的
问题, 我正在使用: RMSprop作为优化器 MSE (均方误差作为损失函数)
批量
大小
= 32初始学习率
浏览 20
提问于2021-08-03
得票数 0
2
回答
完全卷积网络
训练
图像
大小
、
、
、
、
我正在尝试使用
TensorFlow
复制用于语义分割
的
完全卷积网络
的
结果。 我被困在将
训练
图像输入到计算图中。全卷积网络使用VOC PASCAL
数据
集
进行
训练
。然而,
数据
集中
的
训练
图像具有不同
的
大小
。我只想问他们是否
对
训练
图像
进行
了预处理,使它们具有相同
的
大小
,以及他们是如何
对
浏览 2
提问于2016-08-20
得票数 6
1
回答
tensorflow
在带有队列
的
测试集上求值
、
TensorFlow
的
客户/生产者预取机制非常适合
训练
。谢谢!
浏览 1
提问于2016-06-17
得票数 0
2
回答
海量
数据
集上
的
深度学习
、
我知道,在处理
无法
放入单机内存
的
数据
集时,spark + EMR是一种很好
的
方法。我是不是走错路了?对内存
无法
容纳
的
数据
进行</
浏览 10
提问于2017-10-18
得票数 0
0
回答
如何读取一个hdf5
数据
文件中
的
批次
进行
训练
?
、
、
我有一个
大小
为(21760,
1
, 33, 33)
的
hdf5
训练
数据
集。21760是
训练
样本
的
整数。我想使用
大小
为128
的
小
批量
训练
数据
来
训练
网络。我想问一下: 如何使用
tensorflow
每次从整个
数据
集中提供128小
批量
训练
数据
?
浏览 6
提问于2016-07-06
得票数 6
回答已采纳
3
回答
如果学习曲线显示验证误差低于
训练
误差,预测是否可信?
、
、
、
我正在使用神经网络(NN)作为我
的
地球物理学论文
的
一部分,并且正在使用
TensorFlow
和Keras来
训练
我
的
网络。 我目前
的
任务是使用神经网络来近似热力学模型,即非线性回归问题。它接受13个输入参数,并输出450个参数
的
速度剖面(速度与深度)。我
的
数据
由100,000个合成示例(即没有噪声存在)、
训练
(80k)、验证(10k)和测试(10k)组成。我已经针对许多不同
的
架构测试了我
的</e
浏览 0
提问于2019-01-29
得票数 2
2
回答
如何提高验证
的
准确性?
、
、
我
的
val精度远远低于
训练
精度。可能
的
原因是什么?谢谢。
浏览 2
提问于2019-10-11
得票数 0
4
回答
关于使用CNN
进行
图像分类
、
、
、
利用卷积神经网络建立图像分类模型,经过5次classes.It
训练
,
训练
准确率为100%,测试准确率为82%。但是当我手动给出一幅图像
进行
预测时,该模型
无法
将它们分类为10幅图像该模型仅对3-4幅图像
进行
分类correctly.What是错误
的
吗?我该怎么办??
浏览 3
提问于2018-04-16
得票数 0
1
回答
神经网络
训练
精细和测试预测是可怕
的
,近乎荒谬
、
、
我在使用R neuralnet()函数
的
神经网络模型上遇到了很多问题。当我按照预期
对
所有
数据
进行
网络
训练
时,预测是非常准确
的
。然而,当我将
数据
分成
训练
集和测试集时,测试预测很糟糕。我已经包含了R代码和一些曲线图,完整
数据
下面的一个
数据
示例是3600个观测值。致以最好
的
问候--帕特 更新5/12/18:基于反馈,这看起来像是过度
拟合
,我尝试更早地停止
训练<
浏览 0
提问于2018-05-12
得票数 0
1
回答
批量
归一化:固定样品还是不同尺寸
的
样品?
、
、
、
、
当我读到一篇论文“
批量
规范化:通过减少内部协变量转移来加速深度网络培训”时,我遇到了一些问题。文件中说: 它们是选择m个例子,然后同时
拟合
批范数参数,还是为每个输入维选择不同
的
m个例子集?
训练
集由x(i) = (x
浏览 2
提问于2017-09-30
得票数 1
回答已采纳
1
回答
为什么fit()中
的
训练
集精度与使用相同
数据
预测后
的
准确度不同?
、
、
、
、
为什么
训练
结束时报告
的
训练
集准确性(0.4097)与直接报告
的
训练
集准确性不同,直接用预测函数(或使用给出相同数目的评估)= 0.6463
对
相同
的
训练
数据
进行
计算? 在下面;直接输出。下面的最初答案已经解决了我
的
第一个问题,指出当您只运行一个时期时,批处理
大小
很重要。当运行小批
大小
(或批
大小
=
1
)或更多
的
时代
浏览 6
提问于2022-01-20
得票数 2
回答已采纳
1
回答
我在
Tensorflow
中
的
神经网络与Keras中
的
神经网络相比做得很差
、
、
我试图从这个
数据
集预测“销售”:在are>
1
,000,000行中,我使用
数据
集中
的
10个特性来预测销售额。我提前将两个
数据
集合并为一个
数据
集。我在Keras中创建了一个代码来预测“销售”。首先,我创建了一些新变量,丢弃了一些不需要
的
数据
。然后对分类变量
进行
了一次热编码,将
数据
集分
浏览 0
提问于2018-07-04
得票数 2
回答已采纳
3
回答
随机梯度下降增加成本函数
、
、
在神经网络中,梯度下降会查看整个
训练
集以计算梯度。成本函数随着迭代
的
进行
而减小。如果代价函数增加,通常是因为错误或不适当
的
学习率。 相反,随机梯度下降计算每个单个
训练
示例
的
梯度。我想知道成本函数是否有可能从一个样本增加到另一个样本,即使实现是正确
的
并且参数调整得很好。我有一种感觉,代价函数
的
异常增量是可以
的
,因为梯度是在单个样本
的
最小化之后
进行
的
,这可能不是整个系统
的</e
浏览 2
提问于2018-05-16
得票数 0
2
回答
如何避免在CNN中过度
拟合
?
、
、
、
、
我正在制作一个模型,通过分析人们
的
面部来预测他们
的
年龄。我使用预
训练
模型,并制作了一个自定义损失函数和一个自定义指标。所以我得到了离散
的
结果,但我想要改进它。特别是,我注意到,经过一些时期后,模型开始在
训练
集上过度
拟合
,然后val_loss增加。我怎样才能避免这种情况?我已经在使用Dropout了,但这似乎还不够。我想也许我应该使用l
1
和l2,但我不知道如何使用。tf.keras.optimizers.schedules.PiecewiseConstantDecay(
浏览 0
提问于2020-06-02
得票数 0
0
回答
在CNN上,快速损失收敛意味着什么?
、
、
、
、
我正在两个不同
的
DL库(Caffe
Tensorflow
)中
训练
两个CNN (AlexNet E GoogLeNet)。网络由每个图书馆(和)
的
开发团队实施 我将原始Imagenet
数据
集减少到
1
个类别的1024张图像--但设置了1000个类别在网络上
进行
分类。所以我
训练
了CNN,不同
的
处理单元(CPU/GPU)和批处理
大小
,我观察到损失很快收敛到接近零(在大多数情况下在
1
个时期完成之前)
浏览 5
提问于2017-12-05
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
tensorflow训练模型loss不变化的可能原因和怎么判断tensorflow模型是否过拟合
机器学习100天-Day1503训练模型-逻辑回归
千万小时机器学习训练后,我从趟过的坑中学习到的 16 个技巧!
一位ML工程师构建深度神经网络的实用技巧
tensorflow训练模型loss不变化的可能原因
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券