腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如
何在
批量
结束
后
更改
Tensorflow
中
的
学习
率
?
tensorflow
、
keras
、
deep-learning
、
neural-network
、
callback
我需要创建一个类来搜索模型
的
最佳
学习
率
,在每批中将
学习
率
的
值递增%5。我已经看到了on_train_batch_end()回调,但我无法设置它。
浏览 35
提问于2021-10-28
得票数 0
回答已采纳
1
回答
在
TensorFlow
上,CNTK相当于简单
的
SGD是什么?
tensorflow
、
cntk
遵循
TensorFlow
中
ML初学者
的
MNIST,我们
学习
最基本
的
SGD,
学习
速率为0.5,
批量
大小为100,以及1000步如下 sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys}) 在CNTK
中
,直观
的</
浏览 3
提问于2016-11-15
得票数 1
回答已采纳
0
回答
在CNN上,快速损失收敛意味着什么?
batch-file
、
tensorflow
、
deep-learning
、
caffe
、
loss
我正在两个不同
的
DL库(Caffe
Tensorflow
)
中
训练两个CNN (AlexNet E GoogLeNet)。网络由每个图书馆(和)
的
开发团队实施 在葡
浏览 5
提问于2017-12-05
得票数 2
回答已采纳
1
回答
python
中
keras和
tensorflow
.keras之间
的
意外性能差异
python
、
python-3.x
、
tensorflow
、
keras
、
deep-learning
我正在根据我在网上找到
的
一个简单
的
自动编码器示例在python
中
构建一个模型。这个例子是为keras写
的
。通过建议
的
向
tensorflow
.keras
的
转换,我修改了程序
的
导入,希望不需要进行其他
更改
。mnistfrom
tensorflow<
浏览 3
提问于2020-06-12
得票数 1
回答已采纳
3
回答
损失函数适用于reduce_mean,但不适用于reduce_sum
tensorflow
我是张量流
的
新手,并且一直在看示例。我想将多层感知器分类模型重写为回归模型。然而,在修改损失函数时,我遇到了一些奇怪
的
行为。它在tf.reduce_mean上工作得很好,但是如果我尝试使用tf.reduce_sum,它会在输出
中
给出nan。这似乎非常奇怪,因为函数非常相似-唯一
的
区别是平均值除以元素
的
数量?所以我看不出这个变化是如何引入nan
的
?import
tensorflow
as tf learning_rate = 0.001 #
浏览 0
提问于2017-01-31
得票数 13
回答已采纳
1
回答
在使用keras
的
mnist上
的
测试准确
率
明显高于
tensorflow
.keras
tensorflow
、
testing
、
optimization
、
keras
、
mnist
我用一个基本
的
例子验证了我
的
TensorFlow
(v2.2.0)、Cuda (10.1)和cudnn (libcudnn7-dev_7.6.5.32-1+cuda10.1_amd64.deb),我得到了奇怪
的
结果……我可能忘了什么。要使用
tensorflow
运行,请执行以下
浏览 3
提问于2020-05-27
得票数 6
2
回答
我那两个隐藏
的
深层神经怎么了?
machine-learning
、
neural-network
、
deep-learning
、
tensorflow
valid_labels))现在已经两天了,我想知道我
的
解决方案到底出了什么问题,我希望有人能发现它,目的是训练一个由两个隐藏
的
NN组成
的
简单
的
深层神经网络,我已经检查了其他人
的
解决方案,我仍然不知道我
的
代码有什么问题(这是Udacity深入
学习
在线课程
的
第四题第三次作业
浏览 0
提问于2018-05-25
得票数 2
回答已采纳
1
回答
为什么MNIST任务
的
随机梯度下降比批GD差得多?
neural-network
、
tensorflow
、
gradient-descent
这里是
Tensorflow
教程
中
的
代码:一个多层感知器
的
实现实例如果我将批次大小设为1,那么训练需要十倍
的
时间,但准确
率
仅为9%。我在没有运气
的
情况下测试了不同
的
学习
率
。SGD
的
性能对于小
批量
来说是很糟糕
的
。我们可以预期SGD
的
性能会更低,但不会少十倍!性能损失
的
原因是什么?
浏览 0
提问于2017-02-10
得票数 4
回答已采纳
2
回答
你将如
何在
坦索弗洛做ReduceLROnPlateau?
python
、
tensorflow
、
machine-learning
、
neural-network
、
keras
Keras有一个回调,它在指定
的
度量(称为 )
的
平台上降低
学习
速度。 如
何在
本地
Tensorflow
中
创建这样
的
特性?在
Tensorflow
模型
中
,可以调用Keras回调吗?还是需要用本地
的
Tensorflow
编写?如果是这样的话,你会如何设定在培训期间
的
学习
率
?
浏览 2
提问于2018-05-10
得票数 1
回答已采纳
1
回答
如
何在
从头开始训练
tensorflow
模型时使用
学习
率
计划
python
、
tensorflow
、
keras
但是,答案并没有说明如何使用调度器修改优化器
学习
率
(这可以用简单
的
python实现)。 我正在从头开始训练一个
tensorflow
模型,正如所解释
的
那样。因此,优化器被定义为:optimizer = keras.optimizers.SGD(learning_rate=1e-3),因此,
学习
率
在开始时被定义。然而,我希望有一个像tf.keras.optimizers.schedules.ExponentialDecay这样
的
学习
<em
浏览 2
提问于2020-11-17
得票数 1
2
回答
在
TensorFlow
2
中
使用
学习
率
计划和
学习
率
预热
python-3.x
、
deep-learning
、
tensorflow2.0
我必须使用
学习
率
预热,您可以使用
学习
率
预热开始训练CIFAR-10
的
VGG-19 CNN,在前10000次迭代(或大约13个时期)
中
从0.00001到0.1%
的
学习
率
。然后对于剩余
的
训练,您使用
学习
率
0.01,其中
学习
率
衰减用于在80和120个时期将
学习
率
降低10倍。该模型必须训练总共144个时期。我使用<em
浏览 62
提问于2020-08-02
得票数 3
2
回答
为什么在训练
tensorflow
对象检测ssd移动网络模型时我
的
训练损失很高
tensorflow
、
object-detection-api
、
mobilenet
我正在尝试使用
tensorflow
api模型ssd移动网络创建自己
的
自定义对象检测器,但问题是,当模型开始训练时,损失非常高,比如700-800,并且损失一直在波动,我看到相同
的
损失值在重复,有人能给我解释一下吗我最初训练了7000步
的
模型,但损失并没有减少,然后我又开始训练模型。我正在分享我新训练
的
截图。我已经被困在这里快两天了,真的很感谢任何人
的
帮助。我
的
训练数据集中有16482张图像,图像大小为64x64 ?
浏览 48
提问于2020-08-23
得票数 1
1
回答
在
tensorflow
中
寻找一个用于cifar10
的
resnet培训脚本
tensorflow
、
resnet
我想在
tensorflow
的
cifar10上为resnet找到一个培训脚本。我已经在估计器和苗条
中
检查了代码。但两者都不适合我
的
项目。我需要以下几点: 一个很好
的
训练脚本,可以达到93%
的
准确
率
。我发现在cifar10上
的
resnet在估计器上
的
训练脚本是好
的
。关键是
学习
速度。但是估计API是固定
的
。我需要修改模型架构,替换模型
中
的
一些操作。
浏览 1
提问于2019-02-06
得票数 0
1
回答
如何改变
Tensorflow
中
的
学习
率
取决于批次和时代
的
数量?
python-3.x
、
tensorflow
、
callback
、
tensorflow2.0
、
learning-rate
是否有可能使用
Tensorflow
实现以下场景:如何将此组合组合在回调
中
?
Tensorflow
提供了tf.keras.callbacks.LearningRateScheduler和回调函数on_train_batch_begin()或on_train_batch_end()但我不会谈到这些回调<em
浏览 3
提问于2020-08-06
得票数 1
回答已采纳
1
回答
为什么在相同
的
数据集上使用
tensorflow
和keras重新训练初始空间( Inception V3 )显示出不同
的
准确性?
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
,我获得了85%到90%
的
()之间
的
精度,如图所示。经过4000次迭代
后
,我在93%到96%之间获得了一个精度,如下图所示:低
学习
率
= 0.001期= 100,
批量
大小= 32 aug = ImageDataGenerator(rotation_range=25, width_shift_range
中
浏览 1
提问于2019-04-22
得票数 0
1
回答
张量流在卷积网络
中
运行时
的
nan损失
tensorflow
我试图为
tensorflow
中
的
房屋编号图像创建一个卷积神经网络请告诉我我在哪里弄错了
浏览 2
提问于2016-06-10
得票数 3
回答已采纳
2
回答
如
何在
指定
的
纪元数
结束
时获取回调?
python
、
keras
我想在使用Keras时对模型进行微调,我想要
更改
训练数据和
学习
率
,以便在纪元数达到10时进行训练,那么如
何在
指定
的
纪元数
结束
时获得回调。
浏览 0
提问于2019-08-24
得票数 0
2
回答
Tensorflow
for XOR在500个时期
后
无法正确预测
python
、
tensorflow
、
machine-learning
、
keras
、
neural-network
我正在尝试使用
TensorFlow
实现一个神经网络来解决异或问题。我选择sigmoid作为激活函数,shape (2, 2, 1)和optimizer=SGD()。我选择batch_size=1是因为问题
的
全局性是4,所以真的很小。问题是,预测结果甚至与正确答案相去甚远。我做错了什么?我在Google Colab上这样做,
Tensorflow
的
版本是2.3.0。import
tensorflow
as tf
浏览 46
提问于2020-11-04
得票数 3
回答已采纳
1
回答
为什么
学习
速度会导致我
的
神经网络
的
权重猛增?
machine-learning
、
python
、
tensorflow
、
optimization
、
gradient-descent
我正在使用
tensorflow
编写一些简单
的
神经网络进行一些研究,我在训练过程
中
遇到了许多关于“nan”权重
的
问题。我尝试了许多不同
的
解决方案,
如
更改
优化器、
更改
损失、数据大小等,但都没有效果。最后,我注意到
学习
率
的
变化使我
的
体重发生了难以置信
的
变化。 使用.001
的
学习
速率(我认为这是相当保守
的
),最小化函数
浏览 0
提问于2016-12-27
得票数 11
回答已采纳
1
回答
如
何在
TensorFlow
中计算子梯度?
tensorflow
、
tensorflow-gradient
TensorFlow
中
的
自动微分过程是否在需要时计算次梯度?如果有许多子梯度,那么将选择哪一个作为输出?我正在尝试在link <code>C0</code>
中
实现这篇论文,它使用递归神经网络来执行有效
的
语言解析。目标函数使用铰链损失函数来选择最优输出向量,这使得该函数不可微。我在急切模式下使用
TensorFlow
(v1.12)对模型进行编程,并使用自动微分来计算梯度。每批处理
后
,我可以看到梯度值发生变化,精度略有提高。一段时间
浏览 21
提问于2019-04-02
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习第二步:jupyter notebook 使用自己创建的新conda环境
Keras正式从TensorFlow分离:结束API混乱与耗时编译
TensorFlow和Keras:初学者的简单示例教程
你用iPhone打游戏,有人却用iPhone来训练神经网络
无人驾驶系列——深度学习笔记:Tensorflow的安装-windows系统
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券