腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
精确度
和
损失
不随
RMSprop
优化
器
而
改变
、
、
、
、
self.fc2(x)) x = self.softmax(self.fc3(x)) first_model.to(device) train_model(first_model_rms, opt
浏览 28
提问于2020-10-28
得票数 0
回答已采纳
1
回答
Keras模型评估显示了一个TypeError:'numpy.float64‘对象对于mnist数据集是不可迭代的
、
、
、
、
10, activation = tf.nn.softmax)) 我用model.compile(loss = 'sparse_categorical_crossentropy', optimizer='
rmsprop
浏览 0
提问于2018-12-02
得票数 2
回答已采纳
2
回答
keras CNN具有低
而
恒定的精度
、
、
、
、
我正试着
和
凯拉斯一起训练CNN。
浏览 10
提问于2017-02-21
得票数 0
1
回答
交叉熵
损失
在图像网络上周期性地上升
和
下降
、
、
训练
损失
w.r.t步骤如下所示。X轴单元长度为20k步(由于批量size=128
和
总共1281167个样品,大约2个时期)。
浏览 21
提问于2019-08-05
得票数 1
回答已采纳
1
回答
高损耗验证
、
、
、
、
我使用以下模型来预测竞争:“智能手机-宫颈癌筛查”。标签分为3类(1 ,2 ,3)。型号:resnet50.last_linear=torch.nn.Linear(in_features=2048,out_features=3, bias=True)device = torch.device("cuda:0"
浏览 2
提问于2020-06-01
得票数 0
回答已采纳
1
回答
如何使用keras实现简单的梯度下降?
、
、
这些天,我试图看到关于权重
和
偏差的
损失
函数的图表。特别是,我希望应用梯度下降方法来获得平滑的线条,
而
不是来自其他
优化
器
的随机特征。Keras框架提供了各种类型的
优化
器
,如SGD,
RMSprop
,Adagrad,AdaDelta,Adam等。然而,正常的,一般的和平坦的梯度下降(没有随机特征)在Keras官方文档中没有看到。关键参数、剪裁法线
和
剪裁值是否与普通GD相关?例如,如果SGD
优化
器使用键args,clipno
浏览 13
提问于2019-11-08
得票数 1
1
回答
如何使用Keras 3找到总
损失
、准确性、预测日期时间?
、
、
、
、
错误
损失
是否有所改善。 我怎样才能实现这个目标?有没有办法把OHLC
和
预测时间结合起来?
浏览 0
提问于2018-07-11
得票数 1
1
回答
拟合Keras模型会产生错误“常量折叠失败:无效参数:不支持的类型: 21”
、
、
、
、
我对示例所做的惟一更改是所使用的数据集(我从获取),由于标签只能是0或1,因此我将
损失
函数更改为binary_crossentropy,将
优化
器
更改为
RMSprop
。.] - ETA: 9:35 - loss: 11.0703 - accuracy: 0.2780 但它并没有最小化
损失
,实际上似乎是在最大化
损失
,每次迭代后
精确度
都会下降。(事实上,如果准确度度量是正确的,如果我只使用not [prediction],它将是一个很好的分类
器
)。这里有没有
浏览 0
提问于2019-04-29
得票数 7
2
回答
加载模型后更改
优化
器
或lr会产生奇怪的结果
、
、
、
、
我使用的原始
优化
器
是:model.compile(optimizer= r_optimizer所以我想试着
改变
学习率或
优化
器
。准确率将重置到15% - 20%左右,
而
不是从86%左右开始,我的
损失
会更高。即使我使用一个很小的学习率,并重新编译,我仍然会从一个非常低的准确率开始。从浏览互联网来看,一些
优化
器
,如ADAM或
R
浏览 0
提问于2018-05-22
得票数 1
2
回答
用不同的
优化
器
运行Keras序列模型
、
、
、
我想对照各种
优化
器
(sgd、
rmsprop
、adam、adamax等)检查我的模型的性能。我对所有
优化
器
都这样做(在上面的代码中只提到sgd
和
rmsprop
),然后执行这些语
浏览 0
提问于2018-09-12
得票数 1
回答已采纳
1
回答
“太早”在Keras早停
、
、
然而,当训练的时候,网络很早就到达了一个点,验证
损失
是不自然的低,这会在一段时间后变平,就像这样。 在patience = 50中使用早期停止时,验证
损失
会减少,但从一开始就不会低于验证
损失
。我对网络进行了多次训练,结果是相同的,使用的是
rmsprop
(学习率为0.1到1e-4)
和
adam
优化
器
。有没有人知道是否有方法为网络设置一个“烧伤期”(如马尔可夫链蒙特卡罗模型),然后监测验证
损失
,以选择最佳模型?
浏览 0
提问于2019-05-28
得票数 3
回答已采纳
1
回答
模型的Keras权值大于预期
我可以在v3 dataset上创建初始的cifar10模型。保存后,模型的大小是175 Mo,在训练前大约是90 Mo,所以我想知道为什么细调模型更大?当我查看这两个模型的参数数时,它几乎是相同的。微调模型:总配角: 21,823,274个可训练的旁瓣: 21,788,842个不可训练的旁瓣: 34,432checkpoints = ModelCh
浏览 0
提问于2017-10-23
得票数 3
回答已采纳
2
回答
使用Keras递归神经网络的预测精度总是1.0
、
., 0.71153846 0.70833333 0.69230769]model.compile(loss="mean_squared_error", optimizer = "sgd") 我试过SimpleRNN,GRU
和
LSTM(这可能是错误的使用方式-我只看到它用于分类,
而
不是预测)。
浏览 4
提问于2015-09-24
得票数 9
回答已采纳
2
回答
不使用tf.train.AdamOptmizer的原因?
、
我读过,看起来,如果有足够的内存,你应该总是使用Adam
而
不是其他可能的
优化
算法(adadelta,
rmsprop
,vanilla sgd等)。我设想对于大多数密集输入的主要凸
损失
函数,使用普通SGD可能会获得更快的收敛速度,但您仍然需要调整学习计划
和
内容,这需要一些时间。
浏览 4
提问于2016-05-24
得票数 0
2
回答
验证
损失
和验证精度在神经网络模型中保持不变。
、
、
、
、
我有193个训练/预测功能,它应该可以预测价值
和
唤醒值。activation='elu'))model.add(Dense( 2, activation='elu'))model.compile( loss = "mean_squared_error", optimizer = '
RMSprop
', me
浏览 0
提问于2020-11-26
得票数 0
3
回答
基于Keras的简单线性回归
、
、
、
、
Sequential() model.compile(optimizer = '
rmsprop
浏览 0
提问于2018-07-04
得票数 5
回答已采纳
1
回答
当你的神经网络变大时,你的学习速度应该变小吗?
、
、
当你增加更多的层
和
更多的神经元时,你的学习率会下降,这是正确的吗? 所以,一般来说,网络越大,学习速度就越小?
浏览 0
提问于2021-04-28
得票数 1
1
回答
conv_lstm.py示例使用“binary_crossentropy”
损失
进行回归。为什么不改用“mean_squared_error”呢?
、
、
、
我在想他们为什么要用这个
损失
相反,我相信使用: 谢谢。
浏览 0
提问于2018-07-21
得票数 1
回答已采纳
1
回答
Tensorflow在机器之间
损失
方面的主要差异
、
、
、
、
我使用Tensorflow作为后端,用Keras编写了一个变分自动编码
器
。我使用Adam作为
优化
器
,学习率为1e-4,批处理大小为16。当我在Macbook的中央处理
器
(英特尔核心i7)上训练网络时,一个时期(~5000个迷你批次)后的
损失
值比运行Ubuntu的不同机器上的第一个时期后的
损失
值小2倍。对于另一台机器,我在中央处理
器
和
图形处理
器
(英特尔至强E5-1630
和
Nvidia GeForce GTX1080)上
浏览 0
提问于2017-06-12
得票数 2
3
回答
Keras RNN
损失
不随
时间的推移
而
减小。
、
、
、
、
()) model.compile(loss='mean_squared_error',optimizer=
rmsprop
, metrics=['mean
浏览 1
提问于2016-09-03
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券