腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
TensorFlow
2.0
中
替换
损失
函数
的
梯度计算
、
、
我想将
tensorflow
2.0
中
的
损失
函数替换为梯度函数。例如,我有一个
损失
函数,如下所示: # do some standard
tensorflow
things here然后,我
使用
tf.GradientTape方法应用梯度,即 prediction = model(input),我想
浏览 21
提问于2019-11-20
得票数 1
1
回答
当
使用
TensorFlow
对象检测API训练蒙面RCNN时,什么是‘
损失
’?
、
、
我正在训练
自定义
对象检测,
使用
Mask RCNN在
TensorFlow
对象检测
中
。因此,我将与边界框一起预测对象实例掩码。信息:
tensorflow
:全局步骤4181:
损失
= 0.0031 (3.290秒/步)信息:
tensorflow
:全局步骤4182:
损失
= 0.0030 (2.745秒/步)
浏览 1
提问于2019-01-24
得票数 2
回答已采纳
1
回答
tf.square、tf.math.square和tf.keras.backend.square有什么区别?
、
、
我一直在寻求学习
TensorFlow
,我注意到不同
的
函数用于相同
的
目标。例如,为了求一个变量
的
平方,我见过tf.square()、tf.math.square()和tf.keras.backend.square()。这对于大多数数学运算来说都是一样
的
。这些都是相同
的
,还是有什么不同?
浏览 148
提问于2021-02-13
得票数 2
1
回答
在Keras
中
自定义
减少每个批次
的
损失
、
、
、
我在Python
中
为
tensorflow
使用
keras。我有一个
自定义
的
损失
函数,它为批次
中
的
每个样本返回一个数字(因此,长度=批次大小
的
向量)。我如何还可以指定
自定义
的
减少方法,以将这些样本
损失
聚合为整个批次
的
单个
损失
?在
自定义
损失
函数
中
包含此减少,并让此函数仅返回单个标量而不是
损失
浏览 28
提问于2021-10-14
得票数 0
1
回答
Tensorflow
/ Keras在神经网络负二项
损失
中
的
应用
、
、
、
、
我正在
使用
一个高度倾斜
的
计数数据集,该数据集通常适合负二项式。我想在Keras或
Tensorflow
中
使用
负二项作为前馈神经网络
的
损失
函数。据我所知,在查看了可用
的
损失
函数后,keras或
tensorflow
不存在这样
的
函数(尽管我希望我错了,我只是错过了一些东西)。我环顾四周,看到一些帖子建议只交换
损失
以包含负二项式,但似乎在
tensorflow
中
创建
自
浏览 7
提问于2018-09-06
得票数 5
1
回答
使用
tensorflow
中
的
循环
自定义
损失
、
、
、
、
我在我
的
数据预处理中有一个函数,它在YCbCr模式下对3Dnumpy数组执行按块DCT。2] = dct(dct(img[i:(i+8),j:(j+8), 2].T, norm='ortho').T, norm='ortho') return dct_blocks 为了能够实现
自定义
均方误差函数问题是,当实现
损失
函数时,它是
tensorflow
张量。有一个逆DCT函数可供
使用
。然而,我不知道如何执行一个等价
的
双for
循环
浏览 18
提问于2019-04-01
得票数 1
回答已采纳
2
回答
Lambda层
中
的
自定义
函数失败,无法将张量转换为numpy
、
、
、
、
因此,我正在尝试
使用
Keras (
Tensorflow
后端)
中
的
Lambda层实现一个
自定义
函数。这是我
的
代码: return tensor.eval(session=K.get_session()) def np2tensor或者有没有什么办法,我可以在运行时获得
自定义
函数
的
结果,并转换为张量,并将其提
浏览 0
提问于2018-03-30
得票数 1
3
回答
非光滑不可微定制损耗函数
tensorflow
在
tensorflow
中
,是否可以
使用
非光滑函数作为
损失
函数,例如分段(或如果-否则)?如果你不能,为什么你可以
使用
ReLU?在这个链接
中
,它说 如果<
浏览 5
提问于2016-11-22
得票数 22
1
回答
Pytorch CrossEntropyLoss张量流等效项
、
、
、
我目前正在将pytorch代码转换为
tensorflow
。有一点是,我在
tensorflow
自定义
循环
中聚合了3个
损失
,我得到一个错误,我正在将一个二维数组与一个1维数组传递到
tensorflow
的
CategoricalCrossEntropy
中
,这是非常合法
的
,我理解为什么会发生这种情况……但在pytorch代码
中
,我传递了相同
的
形状,它与CrossEntropyLoss完美地工作在一起。传入<e
浏览 14
提问于2020-12-04
得票数 0
1
回答
在TPU上训练时,验证
损失
变为nan,但在GPU上完全正常
、
、
、
、
我在
使用
GPU和TPU
的
google colab训练
中
遇到了一个相当奇怪
的
问题,我
使用
了一个
自定义
损失
,它可以在GPU上
使用
tfrecord数据集,但如果我切换到TPU,就会给出nan作为验证
损失
。没有其他特定
的
错误。此外,较旧
的
验证tfrecord数据集在TPU上运行良好。这让我觉得数据
中
可能有一些特定
的
东西。这显示在model.evaluate上(...)也是
浏览 31
提问于2020-09-27
得票数 1
1
回答
大班不平衡训练
、
、
Class2
中
的
图像: 389 3)这是一个,我发现
使用
更快
的
RCNN意味着batch_size必须设置为1。因此,我不确定这是否意味着我必须在培训期间等待全局步骤来匹配训练集中
的
图像#(在我
的
自定义
数据集中大约为340 K)。我正在
使用</
浏览 3
提问于2017-11-02
得票数 4
1
回答
为什么tf模型
的
训练过程
中
的
二元交叉熵
损失
与sklearn计算
的
结果不同?
、
、
、
、
我正在
使用
tensorflow
构建一个神经协同过滤推荐模型,
使用
二进制交叉熵作为
损失
函数。当然,要预测
的
标签是二进制
的
。 在训练每个时期时,打印
损失
函数。我有一个for
循环
,它逐个时期地训练模型时期,然后在当前状态下
使用
模型来预测测试标签,并
使用
sci-kit学习
的
log_loss函数再次计算
损失
。我注意到
tensorflow
计算
的
损失<
浏览 38
提问于2021-10-08
得票数 0
回答已采纳
2
回答
Keras
损失
值显著跳跃
、
、
、
、
我正在用
Tensorflow
在Keras开发一个简单
的
神经网络。
损失
值从上一批小批次
的
L-1显著上升到第一批小型
的
历元L。 我知道
损失
应该会随着迭代次数
的
增加而减少,但是在每个时期之后
损失
的
大幅增加确实看起来很奇怪。为了避免移动平均,我实现了我自己
的
损失
函数,它应该输出小批
的
损失
值,而不是批量上
的
移动平均值。因为每一小批都是不同
的</
浏览 7
提问于2022-05-04
得票数 0
回答已采纳
1
回答
噪声不可微
损失
函数
的
自定义
Tensorflow
优化器
、
、
、
我
使用
低级别的
tensorflow
API构建了一个模型,它只有几个变量(大约10个),我想要优化这些变量。因此,我想实现一个
自定义
的
损失
函数,它产生噪声
损失
值(类似于一种基于仿真的优化方法)。通常,我会像SPSA优化器一样
使用
导数自由优化器。 有没有一种方法可以实现不可区分
的
损失
函数,以及像SPSA这样
的
带有低级别
tensorflow
API
的
优化器?有人可能会问,为什么要用<e
浏览 0
提问于2018-01-31
得票数 3
回答已采纳
2
回答
on_epoch_end给出
的
平均度量似乎与tf.keras错误
、
、
、
我在玩tf.keras,编写一些基本
的
自定义
回调,比如给一个更精确
的
回调。回调方法on_epoch_end给出
的
损失
度量应该是所有小型批次
的
平均
损失
,但我得到了最后一个记录
损失
,即最后一个小批
的
损失
。如果您查看一节
中
的
日志块
的
使用
情况,通过手工计算,您会发现在
使用
on_epoch_end 方法
的
示例
中<
浏览 2
提问于2020-05-15
得票数 1
回答已采纳
1
回答
定义
自定义
度量以计算"
tensorflow
.keras“
的
”几何平均分数“时出现问题
、
、
、
我正在研究
tensorflow
.keras
中
的
一个不平衡
的
分类问题。我决定按照this answer on cross validated
的
建议计算“几何平均分”。我在一个名为imbalanced-learn
的
包中发现了一个implementation of it,并意识到它不能用作
tensorflow
.keras.Model.compile(metrics=[])
中
的
指标之一;而且由于我还希望在每次调用时都向它传递一个参数,所以我决
浏览 17
提问于2020-07-22
得票数 2
2
回答
在
tensorflow
中
培训时
使用
自定义
损失
值
、
我想用我自己
的
自定义
损失
值来训练我
的
神经网络。因此,我想对一个小型批处理执行前馈传播,以将激活存储在内存
中
,然后
使用
我自己
的
损失
值执行反向传播。这是
使用
tensorflow
完成
的
。我假设优化器取决于
损失
,
损失
本身取决于输入。因此,我想把输入输入到图中,但是我想用我
的
值来表示
损失
。
浏览 1
提问于2018-07-13
得票数 1
回答已采纳
1
回答
如何在keras train_on_batch
中
的
损失
函数中计算tf张量值,而不需要计算两次或编写
自定义
循环
?
、
我有一个模型,我实现了一个
自定义
损失
函数,大致如下: global diff如何在运行完train_on_batch后获得diff,而不会导致它重新运行,在后台预测第二次(不必要
的
减速),并搞乱可训练/批处理规范等(可能存在
的
问题)?我希望避免手动创建原始
的
tensorflow</em
浏览 3
提问于2019-08-06
得票数 0
1
回答
用于三重
损失
训练
的
自定义
精度函数
、
、
、
、
我正在尝试用
tensorflow
和keras训练一个三元组
损失
模型。我正在
使用
VGG16模型从我
的
日期集创建2622个嵌入。我
使用
tfa.losses.TripletSemiHardLoss作为我
的
损失
函数。我想在训练过程
中
添加一些精度函数,因为我觉得只跟踪
损失
是不够
的
。我知道我可以在模型“编译”函数中
使用
带有"metrics“参数
的
自定义
函数,但我不确
浏览 25
提问于2020-07-17
得票数 2
1
回答
Keras
中
的
BCEWithLogitsLoss
、
、
、
如何在
使用
Tensorflow
作为后台
的
情况下,在keras
中
实现BCEWithLogitsLoss,并将其作为
自定义
损失
函数。我在PyTorch中
使用
了torch
中
定义
的
BCEWithLogitsLoss。 如何在Keras
中
实现同样
的
功能?
浏览 38
提问于2019-04-15
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券