腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6342)
视频
沙龙
1
回答
使
Keras
的
CTC
损失
适用于
大小
差别
很大
的
输入
、
、
、
所以我正在尝试将morsecode信号转换成它们
的
字符串表示。一些形式
的
预处理产生从0,1到C/RNN
的
输入
的
标准化浮点数
的
一维数组。示例: ? 此图像沿y轴拉伸以获得更好
的
可见性,但NN
的
输入
是1d。我正在寻找一种聪明
的
方式来翻译图像
的
内容,在这个例子中,正确
的
翻译应该是"WPM = TEXT I“。我当前
的
模型使用了this教程中
浏览 22
提问于2021-07-27
得票数 1
回答已采纳
2
回答
使用tensorflow,
CTC
损失
不会减少,而使用
Keras
则会减少
、
有一个使用
Keras
的
OCR实现,它工作得很好。 其结果是,
keras</em
浏览 1
提问于2018-08-09
得票数 1
1
回答
在将它们合并用于多任务学习之前,我是否应该消除它们
的
损失
?
、
、
、
、
我有一个多任务网络,需要一个
输入
,并试图实现两个任务(有几个共享层,然后是单独
的
层)。 一项任务是利用CrossEntropy
损失
进行多类分类,另一项任务是利用
CTC
损失
进行序列识别。我想使用这两个
损失
的
组合作为标准,类似于损耗=λCE + (1-λ)
CTC
。事情是,我
的
CE
损失
开始在2左右,而
CTC
损失
在400秒。如果用最大( L₁)/L₁因子来重新计算每个时期
浏览 0
提问于2018-10-25
得票数 4
回答已采纳
1
回答
Keras
CTC
损失
输入
、
我正在尝试使用
CTC
进行语音识别,使用
keras
,并尝试了
CTC
示例。在该示例中,
CTC
Lambda层
的
输入
是softmax层(y_pred)
的
输出。Lambda层调用内部调用Tensorflow
的
ctc
_loss
的
ctc
_batch_cost,但是说
ctc
_loss函数在内部执行softmax,所以您不需要首先使用softmax。我认为正确
的
用法是将inner
浏览 2
提问于2017-04-18
得票数 10
回答已采纳
1
回答
角星中
的
y_pred是什么?
、
在
keras
示例中,它们使用
的
是
CTC
损失
函数.在模型编译行中,model.compile(loss={'
ctc
': lambda y_true, y_pred: y_pred}, optimizer=sgd) 他们使用一个虚拟
的
lambda函数,其中y_true、y_pred作为
输入
,y_pre
浏览 0
提问于2018-07-03
得票数 3
回答已采纳
1
回答
Tensorflow中
CTC
和seq2seq损耗
的
理论与实践比较
、
、
、
、
Tensorflow为连接时间分类(反恐委员会)
损失
和一个特殊
的
( seq2seq
损失
(加权交叉熵)都内置了实现。我提出
的
一些问题(按相关性排列): 双向LSTM是否
适用于
seq2seq损耗?我只找到了b实现与
CTC
,甚至更简单
浏览 0
提问于2018-03-27
得票数 5
回答已采纳
1
回答
Tensorflow
Keras
矢量归一化输出层
、
、
我
的
模型在3d空间中输出一个方向向量,所以我不关心矢量
的
大小
。如何
使
输出层标准化,
使
损失
函数也不关心输出层
的
大小
?型号: [ layers.Denseactivation="relu"), layers.
浏览 1
提问于2022-08-07
得票数 0
回答已采纳
1
回答
运行
CTC
损失
函数
、
、
、
、
我想尝试一下莎士比亚数据集上
的
CTC
损失
函数,在计算
损失
时,预测
的
张量形状是(64,100,65),这与标签形状(64,100 )不匹配。所以我用一些数学来转换维数,但有一个错误。码 return tf.
keras
.losses.categorical_crossentropy(labels, logits) example_batch_losstf.math.argmax(tf.convert_to_tensor(example
浏览 0
提问于2020-08-18
得票数 0
1
回答
手写文本识别(CNN + LSTM +
CTC
)需要RNN解释
、
、
、
我正在尝试理解下面的代码,它是在python & tensorflow中
的
。我正在尝试实现一个手写文本识别。我指的是下面的代码here 我不明白为什么RNN输出要经过"atrous_conv2d“ 这是我
的
模型
的
架构,接受CNN
输入
并传递到这个RNN过程中,然后传递给
CTC
。
浏览 26
提问于2019-03-07
得票数 0
1
回答
LSTM层(
keras
)导致所有层在它之后不断地预测相同
的
事物,而不管
输入
。
、
、
、
、
(不包括由于预测而删除
的
CTC
)。另一件奇怪
的
事情是,即使在输出相同
的
东西之后,
损失
值也会在一段时间内减少(所以从20.5到16.2),所以它仍然在学习。我很确定这与学习率无关,因为我试验了极小
的
值(1e-10,只是花了很长时间才达到所有的输出都一样,从我
的
观察来看,
损失
在22到16之间)。FYI: CTCLayer来自
keras
网站
的
代码示例 d
浏览 0
提问于2021-09-30
得票数 0
1
回答
TensorFlow
Keras
MaxPool2D用
CTC
的
损失
打破了LSTM?
、
、
、
、
我试图将CNN层与2个LSTM层和
ctc
_batch_cost连接起来,但我遇到了一些问题。我
的
模型应该
适用于
灰度图像。在我
的
调试过程中,我已经知道,如果我只使用一个CNN层,
使
输出
大小
等于
输入
大小
+ LSTM和
CTC
,模型就能够训练:inp = Input(namecompiles, but calling fit crashes with: # InvalidArgumen
浏览 0
提问于2020-05-25
得票数 0
1
回答
具有多个neg 1张量
的
级联
输入
张量
、
我试图实现这些都是徒劳
的
。所以,我错过了一些东西,可能是因为我在
Keras
方面缺乏经验。,K.
ctc
_batch_cost(labels, ....上面的"
keras
示例“创建了一个RNN/GRU
浏览 2
提问于2019-09-29
得票数 2
回答已采纳
3
回答
Tensorflow连接器时间分类(
CTC
)示例
有没有一个关于Tensorflow
的
全面反恐委员会
损失
的
例子?tensorflow.contrib.
ctc
的
文档中没有足够
的
信息给我。我知道有一个,但我不能让它工作。也许有人有一个完整
的
(双向
的
) LSTM示例,他/她可以共享样本数据。谢谢。
浏览 9
提问于2016-07-12
得票数 5
回答已采纳
1
回答
基于前M和以下N元素
的
序列元素预测
、
、
、
、
...2121 # 300 numbers将所有序列拆分为训练/验证/测试集在测试和验证集中,将从180到190<em
浏览 0
提问于2020-07-13
得票数 2
回答已采纳
2
回答
如何在顺序模型中使用tf.
keras
.backend.
ctc
_decode?
、
、
、
由于我是初学者,所以我决定尝试重新创建中描述
的
模型。模型框架如下图所示。
CTC
丢失是否是编译参数中
的
丢失函数?
浏览 3
提问于2020-06-23
得票数 0
1
回答
验证
损失
比训练
损失
少5个单位。如何解释这个结果?
、
、
Iam训练用于端到端语音识别的
Keras
模型。我有自己
的
语音数据集,包含大约400个波形文件。文本转录也作为
输入
。:Adadelta()上一阶段
的
培训和验证
损失
是:27/27 [==============================] - 36s - loss: 19.9499 -400/400 27/27 [=================
浏览 0
提问于2018-03-30
得票数 2
1
回答
将
CTC
损失
和
CTC
解码添加到
Keras
模型
、
、
、
、
这个输出需要馈送到
CTC
层。我可以在原生tensorflow中找到一些代码来做这件事。在
Keras
中有没有更简单
的
选择。任何关于我们如何轻松添加
CTC
Loss和Decode层
的
帮助都将是非常棒
的
浏览 52
提问于2020-08-05
得票数 1
1
回答
ctc
blstm在训练过程中出现
keras
错误
我正在尝试训练一个具有
ctc
损失
的
blstm,用于语音序列识别。
损失
的
函数如下: y_pred, labels, input_length, label_length = args我认为错误
浏览 0
提问于2017-04-08
得票数 0
1
回答
验证
损失
在训练
损失
中不断波动。
、
、
、
我正在训练一个用于多目标回归
的
Keras
模型,使用一个自定义
的
损失
函数,目的是
使
该
损失
函数
的
预测精度低于0.01。从
损失
函数
的
下面图可以看出,训练
损失
和验证
损失
迅速低于目标值,训练
损失
趋近较快,验证
损失
在训练
损失
值上不断波动。虽然
损失
低于目标阈值,但我想知道这样
的
波动是否能反映模型拟合
的
一些问
浏览 0
提问于2018-08-06
得票数 1
3
回答
LSTM训练过程中角点
的
验证
损失
与LSTM稳定性
、
、
我现在使用
Keras
来训练我
的
LSTM模型来解决时间序列问题。我
的
激活函数是线性
的
,优化器是Rmsprop。然而,我观察到
的
趋势是,当训练
损失
缓慢减少时,在一个较小
的
值附近波动,验证
损失
在
很大
的
方差上上下跳跃。谢谢
浏览 6
提问于2017-08-21
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
《Deep Learning with Python》第三章 3.1 走进神经网络之神经网络剖析
用Keras搭建卷积神经网络
RetinaNet在航空图像行人检测中的应用
用Keras中的权值约束缓解过拟合
Python深度学习还不会?你需要“终极入门指南”来了!
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券