腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
<
tensorflow.python.keras.optimizer_v2.learning_rate_schedule.CosineDecay
>
对象
获取
学习
率
、
、
、
、
如何在每个on_train_batch_begin处更新
学习
率
的值 lr_decayed_fn = tf.keras.experimental.CosineDecay(initial_lr, decay_stepson_train_batch_begin (self, batch, logs = None): lr = K.get_value(self.model.optimizer.lr) 但我得到了<
tensorflow.python.keras.optimizer_v2
浏览 103
提问于2021-04-09
得票数 0
1
回答
如何显示一个时期后的最后一次使用
学习
率
我已经尝试了几种方法来显示Keras中最后一个时期有效使用的模型的
学习
率
。一些答案意味着重新计算应该根据公式计算多少比率。但我想要的只是获得用于反向传播的
学习
率
,而不是基于算法计算它。显示的
学习
率
似乎是初始
学习<
浏览 0
提问于2018-05-23
得票数 2
1
回答
Y截距在线性回归梯度下降中不变
、
、
我目前正在
学习
梯度下降,所以我写了一段使用线性回归的梯度下降的代码。然而,我得到的这行不是最好的行。我计算了梯度下降的线性回归和最小二乘误差回归的误差。
浏览 0
提问于2017-09-13
得票数 0
1
回答
如何使用OpenCV BackgroundSubtractorMOG2
获取
移动
对象
的蒙版
、
、
、
、
我想对视频中的移动
对象
进行遮罩。我发现OpenCV有一些内置的BackgroundSubtractors,这可能会大大节省我的时间。所有我想要的是一个简单的封闭区域,填充白色(例如)来表示移动的
对象
。我怎么能这么做呢? 任何回复或建议都将不胜感激。非常感谢。
浏览 0
提问于2012-11-28
得票数 3
回答已采纳
2
回答
一旦损失停止减少,就改变Keras中的
学习
率
、
、
、
、
我是深度
学习
的新手。
浏览 0
提问于2020-09-03
得票数 0
1
回答
人工神经网络软件程序中的
学习
率
参数
、
该软件的参数之一称为
学习
率
(也称为alpha)。可以通过来回移动滑块来控制
学习
率
设置。滑块的一侧是1E-05,另一侧是1。中间是各种值,如9E-05、.000045等。我想知道的是,这2个
学习
率
中哪一个是最快的
学习
率
,1E-05在一侧还是1在另一侧。谢谢。
浏览 3
提问于2016-08-17
得票数 0
1
回答
使用梯度下降的神经网络
、
在我的神经网络模型中,数字分类成本
从
7下降到1.7,然后又开始增加,可能的原因是什么?对于5000次迭代,我使用
学习
率
为0.1%,对于下一个5000次迭代,
学习
率
为0.03%,对于下一个5000次迭代,
学习
率
为0.001。我在训练数据上的准确
率
只有78%。我该怎么办?
浏览 4
提问于2019-12-29
得票数 1
2
回答
为什么Adam优化器的Keras实现有decay参数,而Tensorflow没有?
、
、
、
为什么Adam优化器的Keras实现有decay参数,而Tensorflow没有?这个说法是什么意思呢?
浏览 2
提问于2018-11-01
得票数 0
1
回答
Tensorflow损失没有改变,还计算了梯度和应用了批量范数,但损失仍然没有改变?
、
、
、
、
我的Tensorflow损失没有改变。这是我的代码。from __future__ import divisionimport numpy as npimport osimport randombatch_size = 100end = batch_size learning_rate
浏览 9
提问于2016-08-18
得票数 1
5
回答
从
tf.train.AdamOptimizer
获取
当前
学习
率
我想打印出我的神经网络的每个训练步骤的
学习
率
。 我知道Adam有一个自适应的
学习
率
,但是有没有一种方法可以让我看到这一点(在tensorboard中可视化)
浏览 102
提问于2016-05-03
得票数 35
回答已采纳
1
回答
GradientBoostingClassifier训练损失增加且无收敛
、
、
、
我正在尝试为我的多类别分类问题找到一个模型。我有一个150k条记录的训练集,X_train.shape = (150000,89)和y_train.shape = (150000,),有462个类别整数标签。我想试一试sklearn.ensemble.GradientBoostingClassifier,看看它的性能如何。问题是训练损失在增加,而不是减少: Iter Train Loss Remaining Time 1 560305.4652 4495.28m
浏览 25
提问于2019-11-02
得票数 0
2
回答
码头设计:在集装箱之间交换数据,还是在一个容器中放置多个进程?
、
在当前的项目中,我必须执行以下任务(除其他外): 流全景图,以便在用户界面中显示。目前,拼接和流运行在一个码头容器,而
对象
检测运行在另一个,读取全景流作为输入。由于我需要提高
对象
检测器的输入分辨
率
,同时维护UI的流分辨
率
,所以我必须寻找替代的方法,
从
缝纫机容器到检测器容器获得拼接(全分辨
率
)全景图(每帧10 MB )。
浏览 1
提问于2019-03-06
得票数 1
回答已采纳
2
回答
我们怎样才能看到BigBlueButton会议的与会者
从
BBB的API web服务中加入日期和时间?
、
、
、
我在下面的文件中找不到对我的问题的任何答复。谢谢。
浏览 13
提问于2022-02-28
得票数 0
1
回答
为大数据选择bach大小和
学习
率
、
、
、
数据集大约有250万行,我使用的是80/20的训练测试拆分。我在这里读到了一些答案和一些关于这方面的论文,这些论文建议批处理大小为32或64。但是,相对于数据集的大小来说,这不是非常小吗?我之前用浴缸大小的of10000和1e-2的LR进行训练,但没有得到很好的准确性。
浏览 0
提问于2021-03-15
得票数 0
1
回答
如何改善两幅图像的OpenCV背景
、
、
我正在使用OpenCV与NodeJS (opencv4nodejs),并试图取代背景
从
网络摄像头图片(一个与和一个没有头部在框架内)。
浏览 0
提问于2019-06-06
得票数 0
回答已采纳
1
回答
Caffe:如何通过代码
获取
`solver.prototxt`参数?
、
、
、
、
我想从python代码中访问solver.prototxt参数,如base_lr (基本
学习
率
)或weight_decay。谢谢
浏览 0
提问于2016-06-25
得票数 3
3
回答
增加线性回归的成本
、
、
出于训练的目的,我用python实现了一个线性回归。问题是成本在增加,而不是减少。对于数据,我使用翼型自噪声数据集。数据可以在上找到import pandas as pd Y = features.iloc[:, 5] r
浏览 2
提问于2018-08-30
得票数 14
2
回答
在机器
学习
中具有高损失的恒定验证精度
、
、
、
、
我目前正在尝试使用Inception V3创建一个包含2个类的图像分类模型。我有1428张图像,大约是70/30的平衡。当我运行我的模型时,我得到了相当高的损失以及持续的验证准确性。可能是什么原因导致了这个常量值?labels = np.array(labels,dtype ="uint8") data,labels,
浏览 0
提问于2018-10-02
得票数 3
3
回答
如何在N个时期后调整
学习
率
?
、
、
、
如何在N个时期后调整
学习
率
?例如,我将初始
学习
率
设置为lr=2e-6,并且我希望在第一个时期之后将
学习
率
更改为lr=1e-6,并在剩余的训练中保持该
学习
率
。last_epoch=-1我知道有,但在这里,它每个时代都会降低
学习
率
浏览 5
提问于2021-07-23
得票数 1
2
回答
为什么在训练tensorflow
对象
检测ssd移动网络模型时我的训练损失很高
、
、
我正在尝试使用tensorflow api模型ssd移动网络创建自己的自定义
对象
检测器,但问题是,当模型开始训练时,损失非常高,比如700-800,并且损失一直在波动,我看到相同的损失值在重复,有人能给我解释一下吗
浏览 48
提问于2020-08-23
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从机器学习中获取价值的正确姿势
如何从机器学习数据中获取更多收益
SQL Server数据库对象信息的获取,大数据学习必须get到的点!
从 MAX 网站中获取模型,一秒开始你的深度学习应用
如何将机器学习模型的正确率从 80%提高到 90%以上
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券