腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1654)
视频
沙龙
1
回答
Tensorflow
渐变
磁带
返回
None
、
我正在使用Python1.14.0和
TensorFlow
(3.6.8)。我正在尝试使用
tensorflow
_probability的lbfgs优化器实现(documentation/example)。 如果我运行文档中提供的示例代码,它工作得很好。当这样做的时候,
渐变
返回
为
None
类型。 我不明白为什么其中一个可以工作,但另一个却不能。 编辑:我意识到使用
渐变
运行急切执行是行不通的,所以我调整了示例,使其能够以急切执行运行。具有紧急执行的非工作示例(使用GradientTap
浏览 16
提问于2019-10-04
得票数 0
回答已采纳
1
回答
为什么此
Tensorflow
渐变
磁带
返回
None
?
、
我正在使用
Tensorflow
2.0并计算二阶导数。然而,
tensorflow
为u_tt和u_xx
返回
了
None
。正确计算了u_x、u_t。变量u,x,t是在前面定义的,它们是tf.Tensor的 import
tensorflow
as tfwith tf.GradientTape(persistent(1000,1) u_tt = tp2.grad
浏览 37
提问于2021-07-10
得票数 0
回答已采纳
1
回答
对于我的数值函数模型,tf.tape.gradient()
返回
None
、
、
但问题是tape.gradient
返回
None
,因此弹出错误输出(TypeError : unsupported operand type(s) for *: 'float' and 'NoneType正如您在我的代码中看到的,dloss_dparams = tape.gradient(Cost, [XX,YY])
返回
none
。我不知道问题出在哪里。有人知道它为什么会这样吗?import
tensorflow
as tfimport numpy as
浏览 4
提问于2021-01-29
得票数 1
1
回答
tensorflow
中的Pytorch等效特性?
、
、
、
我最近读了一段Pytorch代码,遇到了loss.backward()和optimizer.step()函数,有没有类似于使用
tensorflow
/keras的函数呢?
浏览 2
提问于2020-05-05
得票数 6
3
回答
Tensorflow
梯度
磁带
的用途是什么?
、
我观看了
Tensorflow
开发人员关于在
Tensorflow
中急切执行的峰会视频,演示者介绍了“梯度
磁带
”。现在我知道Gradient Tape跟踪TF模型中发生的自动微分。我在试着理解为什么我会使用
渐变
磁带
?有人能解释一下梯度
磁带
是如何作为诊断工具使用的吗?为什么有人会使用
渐变
胶带而不是Tensorboard的权重可视化。或者,梯度
磁带
还有其他用途吗?
浏览 2
提问于2018-12-28
得票数 76
回答已采纳
1
回答
为大型数据集的HMC创建自定义梯度函数
、
、
我正在尝试使用
tensorflow
-probability中的HMC来推断高斯过程的参数。 我有多个独立的数据序列,这些数据序列是从相同的底层进程生成的,我想要推断出它们都共享的内核参数。,
None
] gram = gram_matrix(xs) ys = np.random.multivariate_normal(此代码对任意N运行,并
返回
正确的似然和梯度: def joint_log_prob(amplitude, length_scale, noise_varia
浏览 29
提问于2019-08-31
得票数 0
回答已采纳
1
回答
在
tensorflow
2.0中,如何计算输入变量的损失梯度?
在
TensorFlow
2.0中,
TensorFlow
2.0不支持tf.gradients,并且GradientTape只计算可训练权重的梯度,那么如何像TF1.0那样获得输入的梯度?
浏览 1
提问于2020-01-14
得票数 1
2
回答
加速
Tensorflow
2.0
渐变
磁带
、
、
由于它是急切的,因此手动计算
渐变
,然后使用tf.GradientTape()手动应用
渐变
。
浏览 22
提问于2019-03-03
得票数 2
1
回答
Tensorflow
tf.GradientTape()应该只使用Tf.variables吗?
、
、
我在用
tensorflow
写一个强化学习代理。我想知道状态应该是tf.Variables还是可以使用梯度
磁带
作为反向传播的numpy数组。如果我的状态/动作数组是numpy而不是
tensorflow
数组,我不确定
渐变
是否正确,但是我知道丢失函数
返回
一个tf.Variable。谢谢,我还是一个使用
Tensorflow
的初学者--任何解释/建议都会有帮助。
浏览 1
提问于2022-05-03
得票数 2
1
回答
内部错误:尝试在没有
Tensorflow
句柄数据的情况下获取变量的梯度(或类似值)
、
、
、
、
我正在使用
Tensorflow
为一个二进制情感分析类调整BERT。我想使用自定义训练循环/损失函数。注意:我使用的是
tensorflow
2.3.0。name="input_type_ids") bert_layer = hub.KerasLayer("https://tfhub.dev/
tensorflow
浏览 27
提问于2021-08-17
得票数 0
1
回答
在tf.contrib.eager.custom_gradient的实现中,
tensorflow
.python.eager.tape做了什么?
我正在经历中的
TensorFlow
Eager,我发现很难理解定制
渐变
的部分。我真的不能理解
磁带
背后的工作机制。下面是我从tf.contrib.eager.custom_gradient实现中借用的代码。有人能解释一下
磁带
在这里是做什么的吗?from
tensorflow
.python.eager import tapefrom
tensorflow
.python.opsimpor
浏览 2
提问于2018-03-22
得票数 1
1
回答
使用
Tensorflow
立即执行的OpenAI梯度检查点
、
、
、
我最近切换到了
Tensorflow
Eager (目前使用TF 1.8.0),并且非常喜欢它。然而,我现在有一个相当大的模型,它不适合我的GPU内存(GTX 1080Ti,12 TF ),当使用梯度
磁带
运行时,需要计算TF中的梯度。正向传递(即不使用
渐变
带)工作正常。import
tensorflow
as tfimport memory_saving_gradients tf.g.gradient(full, model.v
浏览 7
提问于2018-06-08
得票数 3
1
回答
梯度错误地
返回
none
、
computed 0显然,tfe.Variable x正在影响损失函数,因此梯度不应为
None
normed_data[:10], dtype=tf.float64), s), params=['s'])输出: Gradient [
None
使用
Tensorflow
1.10.1与急切执行。
浏览 1
提问于2018-09-03
得票数 0
回答已采纳
1
回答
Tensorflow
哪些操作是可微的,哪些是不可微的?
在
Tensorflow
中,很难判断一个函数是否可微。例如,tf.argmax是不可微的。我想知道有没有什么文档可以说明哪些操作是可微分的?
浏览 2
提问于2016-10-04
得票数 3
2
回答
Tensorflow
- autodiff会让我们重新体验背靠背的实现吗?
、
、
、
、
问题在
Tensorflow
中,有,它似乎负责雅可比计算。这是否意味着我们不必手动导出梯度公式,而是让
Tensorflow
磁带
来处理它?计算
渐变
以自动区分,
TensorFlow
需要记住在前进过程中发生了什么顺序的操作。然后,在向后传递期间,
TensorFlow
以反向顺序遍历此操作列表,以计算梯度。
浏览 4
提问于2021-04-06
得票数 2
1
回答
两个序列模型在GradientTape中变权和的GradientTape
、
、
、
所有的梯度似乎都是
None
。tf.clip_by_value(t, 0, 1)) w.trainableloss = m.compiled_loss(y_data, pre
浏览 6
提问于2022-05-25
得票数 1
1
回答
如何用
tensorflow
梯度带求解析梯度
、
、
、
、
假设我们有一些函数y=x^2 y = x**2不管怎样,我能找到
tensorflow
例如,在这种情况下,很容易找到dy/dx=2x,这是否意味着
tensorflow
将2乘以我的输入值x,然后
返回
me 6(即3*2)?我有一个非常复杂的函数,
浏览 14
提问于2022-03-01
得票数 2
1
回答
为什么在损失函数中使用.numpy()时,
Tensorflow
的自动微分失败?
、
、
我注意到,当损失函数将输入转换为numpy数组以计算输出值时,
Tensorflow
的自动微分不会给出与有限差分相同的值。下面是这个问题的一个最低工作示例:import numpy as np # Input is
浏览 1
提问于2020-11-10
得票数 2
回答已采纳
1
回答
GradientTape().gradient()
返回
None
,并观察肌腱-
Tensorflow
2
、
、
、
、
我正在使用
Tensorflow
2,并尝试使用两个张量来计算梯度。y_pred的形状为(
None
, 1),averaged_samples为长度为2的列表,其中每个元素的形状为(
None
, 16834, 1)。但是,
渐变
始终
返回
[
None
,
None
]。需要注意的一件事是,tf.gradients可以在禁用急切执行的情况下正常工作(而不是梯度
磁带
)。
浏览 1
提问于2019-12-27
得票数 0
1
回答
tf.GradientTape()的位置对模型训练时间的影响
、
、
、
、
问题是,为了使损失标准化,我需要在训练循环之外记录
TensorFlow
变量(要跟踪和标准化)。但是当我这样做的时候,训练时间是很长的。 我认为,它将所有批次的变量累积到图形中,并在最后计算梯度。
浏览 3
提问于2019-08-26
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券