腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
TensorFlow
如何
计算
vgg19.preprocess_input
的
梯度
?
、
、
、
我正在学习neural style transfer上
的
教程。通过最小化关于图像(用内容图像初始化)
的
损失函数来完成样式转移。让我感到困惑
的
是下面这段代码: preprocessed_input = tf.keras.applications.vgg19.preprocess_input(inputs) 它是StyleContentModel类中call方法
的
一部分。
TensorFlow
如何
知道此操作
的
梯度
?我在模块
tensorflow</em
浏览 26
提问于2020-10-09
得票数 1
回答已采纳
1
回答
我是否需要在自定义Keras丢失时使用后端函数?
、
、
、
我想用 Keras实现这个中显示
的
自定义丢失函数。是否有必要使用Keras函数,如果是这样的话,我需要哪种类型
的
操作(我看到了一些代码,其中一些简单
的
操作,例如加法,不使用K)。
浏览 0
提问于2019-07-20
得票数 0
回答已采纳
1
回答
TensorFlow
如何
计算
tf.train.GradientDescentOptimizer
的
梯度
?
、
、
、
我试图了解
TensorFlow
如何
计算
tf.train.GradientDescentOptimizer
的
梯度
。如果我理解
TensorFlow
白皮书中
的
4.1节,它通过向
TensorFlow
图中添加节点来
计算
基于反向传播
的
梯度
,该图
计算
原始图中节点
的
派生。当
TensorFlow
需要
计算
一个张量C相对于C所依赖
的
浏览 0
提问于2016-09-19
得票数 4
回答已采纳
1
回答
在
TensorFlow
中实现
梯度
下降,而不是使用它提供
的
、
我想在
TensorFlow
中构建分类器时,使用带有动量
的
梯度
下降(跟踪以前
的
梯度
)。所以我不想使用
tensorflow
.train.GradientDescentOptimizer,但我想使用
tensorflow
.gradients来
计算
梯度
,跟踪以前
的
梯度
,并根据它们更新权重。我
如何
在
TensorFlow
中做到这一点?
浏览 16
提问于2016-08-26
得票数 5
1
回答
是否有一个Python库可以导入
梯度
下降函数/方法?
、
、
、
、
在Python中进行
梯度
下降
的
一种方法是自己编写代码。然而,考虑到它在机器学习中有多么流行,我想知道是否有一个Python库可以导入,给我一个
梯度
下降方法(最好是小批处理
梯度
下降,因为它通常比批处理和随机
梯度
下降更好,但是如果我错了,请纠正我)。我没有使用
TensorFlow
的
经验,但是浏览了他们
的
在线API。我找到了tf.train.GradientDescentOptimizer,但是没有参数可以让我选择批处理大小,所以我对它
的
实
浏览 0
提问于2018-05-08
得票数 3
回答已采纳
1
回答
gen_nn_ops.max_pool_grad_v2()是
如何
工作
的
?
、
我正在做一个需要反褶积
的
项目。我读到gen_nn_ops.max_pool_grad_v2()可以做到这一点。我从
tensorflow
.python.ops加载函数。据我所知,函数采用输入和输出张量,其中输入是最大池之前
的
卷积层,输出是最大池操作
的
结果。但是grad是什么呢?这个函数
的
输出到底代表什么?1,2,2,1]u = gen_nn_ops.max_pool_grad_v2(input, output, grad, ksize, strides
浏览 1
提问于2018-07-25
得票数 2
回答已采纳
1
回答
tensorflow
中
的
Pytorch等效特性?
、
、
、
我最近读了一段Pytorch代码,遇到了loss.backward()和optimizer.step()函数,有没有类似于使用
tensorflow
/keras
的
函数呢?
浏览 2
提问于2020-05-05
得票数 6
1
回答
手动/稍后在
TensorFlow
中
计算
渐变
、
我有一个
TensorFlow
模型f(x),我有时需要它
的
梯度
,有时不需要,这取决于向前传递
的
结果。为了节省
计算
时间,我只想在需要
的
时候
计算
梯度
。如果我使用stop_gradient()停止
梯度
计算
,或者不将它们记录在GradientTape上,那么如果不重新
计算
正向传递,我似乎永远无法获得
梯度
。我尝试做
的
一个简化示例如下所示(用伪代码):y = f(
浏览 16
提问于2021-02-25
得票数 0
回答已采纳
1
回答
如何
用
tensorflow
梯度
带求解析
梯度
、
、
、
、
假设我们有一些函数y=x^2 y = x**2不管怎样,我能找到
tensorflow
对我
的
输入做了什么吗?例如,在这种情况下,很容易找到dy/dx=2x,这是否意味着
tensorflow
浏览 14
提问于2022-03-01
得票数 2
1
回答
在
tensorflow
2.0中,
如何
计算
输入变量
的
损失
梯度
?
在
TensorFlow
2.0中,
TensorFlow
2.0不支持tf.gradients,并且GradientTape只
计算
可训练权重
的
梯度
,那么
如何
像TF1.0那样获得输入
的
梯度
?
浏览 1
提问于2020-01-14
得票数 1
1
回答
TensorFlow
还是Theano:他们怎么知道基于神经网络图
的
损失函数导数?
、
、
在
TensorFlow
或Theano中,你只告诉图书馆你
的
神经网络是怎样
的
,以及前馈应该
如何
操作。例如,在
TensorFlow
中,您可以编写: _X = tf.constant(X)我使用L2-范数损失函数,C=0.5*sum((Yp)^2),在反向传播步骤中,可能需要
计算
浏览 2
提问于2016-02-11
得票数 10
回答已采纳
1
回答
在
梯度
计算
过程中,
tensorflow
如何
处理不可微节点?
、
、
、
我理解自动微分
的
概念,但找不到任何解释
tensorflow
如何
计算
不可微函数
的
误差
梯度
,例如我
的
丢失函数中
的
tf.where或图形中
的
tf.cond。它工作得很好,但是我想了解
tensorflow
是
如何
通过这样
的
节点反向传播错误
的
,因为没有
计算
它们
的
梯度
的
公式。
浏览 1
提问于2018-11-08
得票数 9
回答已采纳
1
回答
Tensorflow
,tf.gradients
计算
、
、
我正在学习
如何
使用
Tensorflow
,在这一点上,我真的被困住了,无法理解它。假设我有一个5层
的
网络,其输出由output表示。现在假设我想找出output相对于layer_2
的
梯度
。为此,我将在
Tensorflow
中编写如下代码:从理论上讲,这个
梯度
应该通过链式法则来
计算
。我想问一下,
Tensorflow
是通过链式规则
计算<
浏览 5
提问于2018-02-10
得票数 0
回答已采纳
3
回答
tensorflow
如何
确定哪个变量来
计算
并更新它
、
我最近在
tensorflow
上工作,对
tensorflow
中
的
自动毕业有一些怀疑。假设我们有一个丢失
的
函数loss = sigmod (theta * x),其中x是占位符,表示输出输入特征,theta是参数。当我们调用sess.run时,
如何
确定x或theta来
计算
梯度
并对其进行更新。tf是否同时
计算
x和theta gradients
的
损失
梯度
w.r.t并同时更新它们?
浏览 3
提问于2017-09-09
得票数 0
1
回答
TensorFlow
中Cholesky因子
的
分化
、
、
我想得到tf.cholesky
的
梯度
相对于它
的
输入。)import
tensorflow
as tfchol = tf.cholesky(A)虽然我可以自己
计算
梯度
并注册它,但据我所知,我所看到
的
计算
Cholesky
梯度
的
唯一方法涉及, 获得输入矩阵A
浏览 3
提问于2015-11-27
得票数 5
回答已采纳
1
回答
optimizer.compute_gradients渐变是
如何
编程
计算
的
?
、
、
我是机器学习
的
新手。我正在使用
tensorflow
,我对某个特定功能有疑问。grads_and_vars =optimizer.compute_gradients(损失)谁能解释一下
梯度
是
如何
编程
计算
的
(即,它使用什么公式来
计算
梯度
)?
浏览 1
提问于2017-01-31
得票数 0
1
回答
如何
在
TensorFlow
中
计算
子
梯度
?
、
TensorFlow
中
的
自动微分过程是否在需要时
计算
次
梯度
?如果有许多子
梯度
,那么将选择哪一个作为输出?我在急切模式下使用
TensorFlow
(v1.12)对模型进行编程,并使用自动微分来
计算
梯度
。每批处理后,我可以看到
梯度
值发生变化,精度略有提高。一段时间后,它会减少,这个过程会继续下去。小批量: 256,512,1024;正则化参数- 0.1,0.01,0.001;学习率- 0.1,0.01,0.001;优化函数-
梯度<
浏览 21
提问于2019-04-02
得票数 0
回答已采纳
1
回答
嵌入矩阵是
如何
在这个代码片段中训练
的
?
、
、
、
我遵循了coursera赋值
的
代码,它使用双向LSTM实现了一个NER标记器。你能帮助我理解嵌入是
如何
训练
的
吗?
浏览 0
提问于2018-06-23
得票数 0
1
回答
使用带有
tensorflow
和随机网络元素
的
外部优化器
我一直在使用来自openopt
的
l优化器使用
Tensorflow
。很容易设置回调,以允许
Tensorflow
计算
l-bfgs
的
梯度
和损失评估,但是,我很难在训练过程中引入像退出这样
的
随机元素。在线性搜索过程中,loss对损失函数进行多次评估,而损失函数需要与先验
梯度
计算
在同一网络上运行。但是,对于tf.nn.dropout函数
的
每一次
计算
,似乎都会创建一组新
的
退出。我正在寻找一种方
浏览 2
提问于2016-05-04
得票数 3
回答已采纳
1
回答
Tensorflow
函数中用作Keras自定义丢失
的
异常
、
我试图通过
Tensorflow
编写一个具有自定义丢失功能
的
Keras 2 LSTM:我
的
培训集有不同大小
的
时间维度
的
示例当我用不同<em
浏览 0
提问于2017-04-20
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对比TensorFlow提升树与XGBoost:我们该使用怎样的梯度提升方法
基于函数计算 + TensorFlow 的 Serverless AI 推理
如何使用TensorFlow中的Dataset API
实现属于自己的TensorFlow(一)-计算图与前向传播
如何理解深度学习的优化?通过分析梯度下降的轨迹
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券