腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
Tensorflow
自定义
梯度
的
解析
解释
是什么
?
、
、
、
在官方
的
tf.custom文档中,它展示了如何为log(1 + exp(x))定义
自定义
渐变 @tf.custom_gradient e = tf.exp(x)grad(dy): return tf.math.log(1 + e), grad 当为y = log(1 + exp(x))时,
解析
得出
的
导数是但是,在代码中,def grad显示它
的
dy * (1 - 1 / (1
浏览 43
提问于2020-07-29
得票数 0
回答已采纳
2
回答
Tensorflow
- autodiff会让我们重新体验背靠背
的
实现吗?
、
、
、
、
问题对于numpy,当创建一个层(例如matmul )时,反向传播
梯度
首先被
解析
地导出并相应地编码。 self._dX) 在
Tensorflow
中,有,它似乎负责雅可比计算。这是否意味着我们不必手动导出
梯度
公式,而是让
Tensorflow
磁带来处理它?计算渐变以
浏览 4
提问于2021-04-06
得票数 2
2
回答
Lambda层中
的
自定义
函数失败,无法将张量转换为numpy
、
、
、
、
因此,我正在尝试使用Keras (
Tensorflow
后端)中
的
Lambda层实现一个
自定义
函数。这是我
的
代码: return tensor.eval(session=K.get_session()) 基
浏览 0
提问于2018-03-30
得票数 1
2
回答
自定义
Lambda层Keras输出预测。我得到一个操作有‘`None`’表示渐变误差
、
、
、
Lambda层
的
输出是一个预测,并使用keras.losses.mean_squared_error。adam(lr=0.0001), loss=keras.losses.mean_squared_error, metrics=keras.losses.mean_squared_error) Lambda
的
输出为我得到ValueError:一个运算有None
的
梯度
。请确保您
的
所有操作都定义了一个
梯度
(即可微性)。无
梯度
的
普通操作: K.argmax,K
浏览 0
提问于2019-03-28
得票数 2
1
回答
Tensorflow
自定义
渐变未给出预期答案
、
、
我正在学习
Tensorflow
1.14中
的
自定义
渐变。我通过为一个简单
的
ReLu函数定义
自定义
渐变来测试它,如下所示: import numpy as npdefinput z1 = rateFunction(vv) 我希望使用
自定义
浏览 31
提问于2021-09-13
得票数 0
回答已采纳
1
回答
在
梯度
计算过程中,
tensorflow
如何处理不可微节点?
、
、
、
我理解自动微分
的
概念,但找不到任何
解释
tensorflow
如何计算不可微函数
的
误差
梯度
,例如我
的
丢失函数中
的
tf.where或图形中
的
tf.cond。它工作得很好,但是我想了解
tensorflow
是如何通过这样
的
节点反向传播错误
的
,因为没有计算它们
的
梯度
的
公式。
浏览 1
提问于2018-11-08
得票数 9
回答已采纳
1
回答
尝试使用grad-CAM热图可视化ML,但K.gradients返回零值
、
、
、
为了可视化ML过程
的
结果,我决定使用CAM热图。)
的
返回值是全零
的
,但是conv_layer_output_value中有值。model.compile(loss='categorical_crossentropy', metrics=['accuracy']) 有人知道我
的
问题
的
根源
是什么
吗我还尝试了使用
tensorflow
.kera
浏览 49
提问于2020-09-08
得票数 2
2
回答
tensorflow
如何处理复杂
梯度
?
、
设z是复变量,C(z)是它
的
共轭。在复分析理论中,C(z) w.rt z
的
导数不存在。但是在tesnsorflow中,我们可以计算出dC(z)/dz,其结果就是1。= np.random.rand(2,2)+1.j*np.random.rand(2,2)Z = sess.run(z,{x:X})[0]结果Z是 [
浏览 3
提问于2017-02-27
得票数 5
1
回答
在
TensorFlow
2.0中,`Tensor.grad`
的
等效语法
是什么
、
、
、
在Pytorch中,我们可以通过以下方式访问变量x
的
梯度
z.grad 在
Tensorflow
2中相同
的
语法
是什么
?我
的
目标是减少
梯度
。以下是Pytorch代码 if z.grad > 1000: z.grad = 10
tensorflow
2可以应用相同
的
功能吗? 谢谢
浏览 23
提问于2020-12-25
得票数 1
回答已采纳
1
回答
tf.square、tf.math.square和tf.keras.backend.square有什么区别?
、
、
我一直在寻求学习
TensorFlow
,我注意到不同
的
函数用于相同
的
目标。例如,为了求一个变量
的
平方,我见过tf.square()、tf.math.square()和tf.keras.backend.square()。这对于大多数数学运算来说都是一样
的
。这些都是相同
的
,还是有什么不同?
浏览 148
提问于2021-02-13
得票数 2
1
回答
如何在TF2.0中创建具有
自定义
梯度
的
角化层?
、
、
、
由于在
TensorFlow
2.0中,他们计划将所有高级API统一到keras (我不太熟悉)下,并完全删除会话,我想知道: 如何创建具有
自定义
梯度
的
自定义
角化层?我已经看到了(非常有限
的
) 在keras中创建
自定义
层,但是它没有描述如果我们希望操作具有
自定义
梯度
,我们应该做什么。
浏览 0
提问于2019-06-18
得票数 15
回答已采纳
1
回答
optimizer.compute_gradients渐变是如何编程计算
的
?
、
、
我是机器学习
的
新手。我正在使用
tensorflow
,我对某个特定功能有疑问。grads_and_vars =optimizer.compute_gradients(损失)谁能
解释
一下
梯度
是如何编程计算
的
(即,它使用什么公式来计算
梯度
)?
浏览 1
提问于2017-01-31
得票数 0
1
回答
TensorFlow
还是Theano:他们怎么知道基于神经网络图
的
损失函数导数?
、
、
在
TensorFlow
或Theano中,你只告诉图书馆你
的
神经网络是怎样
的
,以及前馈应该如何操作。例如,在
TensorFlow
中,您可以编写: _X = tf.constant(X) _y = tf.constant(y)我
的
问题是:
TensorFlow
(或Theano)如何知道反向传播
的
解析
导数?或者他们做近似值?还是不知何故不使用导数?我已经完成了 on
TensorFl
浏览 2
提问于2016-02-11
得票数 10
回答已采纳
1
回答
是否可以使用Autograd来计算神经网络输出相对于其输入之一
的
导数?
、
、
、
我有一个神经网络模型,它为大约9个输入X输出一个大小约为4000
的
向量Y。我需要用一个或两个输入X_1或X_2计算Y
的
输出
的
偏导数。我已经有了这些导数,并且我已经为X_1和X_2训练了两个不同
的
神经网络。它做得很好,但问题是导数没有计算Y
的
神经网络准确。我希望有一种方法可以从最终/优化
的
神经网络中计算输出向量Y到X中
的
一个输入
的
导数,这样我就不需要为导数训练两个额外
的
神经网络。 有没有办法用autograd做到这一点?
浏览 18
提问于2019-02-11
得票数 0
1
回答
tf.keras.optimizers.Adam和其他具有最小化
的
优化器
、
、
、
、
tf.train中
的
类有一个函数minimize,您可以使用它来优化您
的
函数。但是,tf.contrib.keras.optimizers中
的
类不存在此minimize函数。假设我们有以下代码:tf.train.AdamOptimizer(learning_rate=0.001) updateModel = trainer.minimize(loss我试图寻找一个使用tf.keras和
tensorflow
的
示例或变通方法,但我找不到任何对我有帮助
的</
浏览 3
提问于2018-02-17
得票数 5
2
回答
如何得到y_true和y_pred之间差异
的
水平和垂直
梯度
?
、
、
、
、
我想使用Keras定义一个
自定义
损失函数,它包含y_true和y_pred之间
的
差异
的
梯度
。我发现numpy.gradient可以帮助我得到数组
的
梯度
。因此,损失函数
的
部分代码如下所示: d = y_true - y_pred gradient_y = np.gradient(d, axis=1) 但事实证明,d是一个<e
浏览 4
提问于2018-10-02
得票数 1
1
回答
如何在
TensorFlow
中计算子
梯度
?
、
TensorFlow
中
的
自动微分过程是否在需要时计算次
梯度
?如果有许多子
梯度
,那么将选择哪一个作为输出?我正在尝试在link <code>C0</code>中实现这篇论文,它使用递归神经网络来执行有效
的
语言
解析
。目标函数使用铰链损失函数来选择最优输出向量,这使得该函数不可微。我在急切模式下使用
TensorFlow
(v1.12)对模型进行编程,并使用自动微分来计算
梯度
。每批处理后,我可以看到
梯度
值发生
浏览 21
提问于2019-04-02
得票数 0
回答已采纳
1
回答
在
TensorFlow
2.0中替换损失函数
的
梯度
计算
、
、
我想将
tensorflow
2.0中
的
损失函数替换为
梯度
函数。例如,我有一个损失函数,如下所示: # do some standard
tensorflow
things here然后,我使用tf.GradientTape方法应用
梯度
,即 prediction = model(input),我想要更改
梯度
计算,并
浏览 21
提问于2019-11-20
得票数 1
1
回答
Tensorflow
,tf.gradients计算
、
、
我正在学习如何使用
Tensorflow
,在这一点上,我真的被困住了,无法理解它。假设我有一个5层
的
网络,其输出由output表示。现在假设我想找出output相对于layer_2
的
梯度
。为此,我将在
Tensorflow
中编写如下代码:从理论上讲,这个
梯度
应该通过链式法则来计算。我想问一下,
Tensorflow
是通过链式规则计算这些
梯度
,还是只取outpu
浏览 5
提问于2018-02-10
得票数 0
回答已采纳
1
回答
h2o与其他软件包(
tensorflow
,theano等)
的
深度收益
深度学习
的
h2o实现与
tensorflow
或theano有何不同。展示了h2o中
的
tensorflow
实现。当h2o本身可以为神经网络
的
梯度
下降问题找到最小值时,
tensorflow
在h2o中
的
用途
是什么
?
浏览 14
提问于2017-07-14
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow惊现大bug?网友:这是逼着我们用PyTorch啊
对比TensorFlow提升树与XGBoost:我们该使用怎样的梯度提升方法
面向隐私AI的TensorFlow深度定制化实践
对比PyTorch和TensorFlow的自动差异和动态子类化模型
机器学习100天-Day2102 Tensorflow实现梯度下降
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券