腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
注意力
r2unet
网络
在
Keras
-
TF2.x
中
的
实现
python
、
tensorflow
、
keras
、
deep-learning
我想使用
注意力
网络
从眼底图像中进行视盘分割。该模型
的
架构选自"https://github.com/lixiaolei1982/
Keras
-Implementation-of-U-Net-R2U-Net-Attention-U-Net-Attention-R2U-Net在前20个时期,分割
的
图像是完全黑色或完全白色
的
。我尝试对预测
的
图像进行归一化。但这是一样
的
。有人能帮我纠正这个问题吗?是损失函数<em
浏览 88
提问于2020-11-03
得票数 0
2
回答
Keras
有没有一个关注层?
python
、
tensorflow
、
keras
、
lstm
、
attention-model
我将为LSTM神经
网络
实现
注意力
机制。我使用了这一层(),但它增加了错误!也许这是因为我
的
数据集,但类似的研究已经
在
注意力
层获得了更高
的
准确性。你能给我介绍一下
在
Keras
中
实现
注意力
的
另一种简单易用
的
方法吗?
浏览 3
提问于2019-12-27
得票数 2
1
回答
在
推理过程
中
从自定义Tensorflow/
Keras
层提取中间变量(TF 2.0)
python
、
tensorflow
、
keras
、
deep-learning
下面是一些背景知识:我将经过训练
的
模型封装在一个简单
的
Flask应用程序
中
,并获得了相当准确
的
预测。我目前提取
注意力
权重变量
的
方法是有效
的
,但似乎效
浏览 2
提问于2019-11-21
得票数 5
1
回答
如何在LSTM/GRU上使用角膜注意层?
python
、
tensorflow
、
keras
我想
实现
一个基于LSTM或GRU
的
具有注意层
的
编解码结构。我看到
Keras
有一个用于该tensorflow.
keras
.layers.Attention
的
层,我希望使用它(所有其他问题和资源似乎自己
实现
它或使用第三方库)。另外,我不是使用序列
网络
进行序列转换,而是使用二进制分类,因此文档中提供
的
示例让我有点困惑。这个
网络
的
译
浏览 1
提问于2020-01-19
得票数 8
2
回答
在
图形
中
运行
keras
.Models.fit()
python-3.x
、
tensorflow
、
keras
如何在图中运行
keras
.model.fit()而不是立即执行...??我试图使用tf.compat.v1.disable_eager_execution()
在
图中运行我
的
模型,但返回
的
代码错误: numpy必须以急切
的
执行方式运行 错误出现在检查点模型之后 我使用
的
是tensorflowGpU 2.1.0和
keras
2.3.1
浏览 22
提问于2020-04-20
得票数 2
回答已采纳
1
回答
如何为非文本分类建模具有
注意力
机制
的
RNN?
python
、
recurrent-neural-network
、
attention-model
具有
注意力
机制
的
递归神经
网络
(RNN)通常用于机器翻译和自然语言处理。
在
Python
中
,具有
注意力
机制
的
RNN
的
实现
在机器翻译中非常丰富(例如,https://talbaumel.github.io/blog/attention/,但是我想要做
的
是
在
时态数据文件(不是任何基于文本我知道这是一种不同寻常
的
方法,但我想尝试一下并使用<e
浏览 28
提问于2019-01-17
得票数 1
4
回答
我如何用tf.
keras
.layers.Attention建立一个自我关注
的
模型?
keras
、
tensorflow
、
lstm
我已经完成了一个简单
的
多对一
的
LSTM模式如下。from tensorflow.
keras
.models import Sequentialfrom tensorflow.
keras
.layersimport LSTMmodel=Sequential() model.add(LSTM(2**LSTM_units我想
浏览 0
提问于2020-06-22
得票数 11
1
回答
Keras
:输出
的
梯度w.r.t.输入作为分类器
的
输入
python
、
tensorflow
、
keras
我正在做研究,对于一个实验,我想使用
网络
中
特定层相对于
网络
输入
的
梯度(类似于引导式backprop)作为另一个
网络
(分类器)
的
输入。我们
的
目标是根据分类器“迫使”
网络
改变“
注意力
”,因此这两个
网络
应该同时训练。我是这样
实现
的
:output_tensor = model.layers[-2].output grad_calc =
浏览 16
提问于2019-07-09
得票数 0
1
回答
复杂模型
中
的
自定义预测(Functional API
Keras
)
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
上面是我使用TF2构建
的
Keras
模型。我希望只通过连接层将来自Right Network
的
预测馈送到批处理归一化层,尽管训练是在上面显示
的
具有两个输入层
的
网络
上完成
的
。
在
预测期间,我只将输入提供给input_5层,以从最终分类层获得输出。我不希望
在
预测过程
中
来自左
网络
的
任何贡献。可能
的
解决方案: 1.保存Target_Model
的
权重,Batc
浏览 22
提问于2020-06-10
得票数 1
回答已采纳
1
回答
如何在分类损失和正则化之间取得正确
的
平衡?
machine-learning
、
deep-learning
、
classification
、
loss-function
、
cross-entropy
我正在开发一个深度学习分类器(
Keras
和Python),它将时间序列分为三类。我使用
的
损失函数是标准
的
分类交叉熵。除此之外,我还有一个
在
同一模型中学习
的
注意力
地图。我希望这个
注意力
图尽可能小,所以我使用了正则化。问题来了:如何设置正确
的
正则化参数?我想要
的
是
网络
首先达到最大
的
分类精度,然后开始最小化强度
注意力
图。出于这个原因,我训练我
的
模型一次没有正则化,第二次
浏览 4
提问于2018-10-01
得票数 0
2
回答
如何使用TensorFlow
在
LSTM
中
创建关注层?
python
、
tensorflow
、
deep-learning
、
nlp
、
tensorflow2.0
我正在使用Tensorflow
中
的
LSTM进行自然语言推理,我想应用下面从这个中表达出来
的
注意力
层 据我所知,Tensorflow没有这方面的
实现
。它有一个Bahadanou和Luong
注意力
的
实现
,这不是我想要
的
。到目前为止,我
在
Stack Overflow上搜索并找到了这个代码片段。它似乎工作得很好,但它并不是我想要
的
实现
。import tensorflow as tf
浏览 4
提问于2021-06-07
得票数 1
1
回答
如何在tensorflow 2.0
的
双向编码器
中
添加译码器&注意层
tensorflow
、
attention-mechanism
、
gru
、
encoder
我是一个机器学习
的
初学者,我试图创建一个拼写纠正模型,拼写检查少量
的
词汇(大约1000个短语)。目前,我参考了tensorflow 2.0教程
中
的
1.NMT和2.文本生成。我已经完成了一个编码层,但目前我有一些问题,以匹配以下各层
的
形状(译码器和注意)与前面的(编码器)。本教程
中
的
编码器不是双向
的
,而我正在尝试
实现
双向编码器。下面是我
的
编码器和注意层
的
代码。
在
GPU上运行时,它将使
浏览 0
提问于2020-05-18
得票数 1
1
回答
如何视觉化
的
注意LSTM使用角-自我注意包?
python
、
tensorflow
、
keras
、
lstm
、
attention-model
我正在使用来
实现
KERAS
中
的
注意LSTM。在对模特进行训练后,我怎样才能把
注意力
部分想象出来?这是一个时间序列预测
的
情况。from
keras
.models import Sequentialfrom
keras
.layers
浏览 2
提问于2019-10-12
得票数 14
回答已采纳
1
回答
tf.
keras
:
在
没有自定义训练方法
的
自定义模型
中
处理可变长度序列
的
迭代
python
、
tensorflow
、
keras
、
tf.keras
、
tensorflow2.x
我正在尝试使用TensorFlow2.1
中
的
tf.
keras
实现
一个简单
的
递归神经
网络
架构,并关注序列到序列任务。问题是:
在
解码器部分,由于
注意力
体系结构,人们必须手动迭代时间步长,进行
注意力
计算,并将结果提供给下一步。据我所知,这使得我通常会使用
的
Keras
函数API在这个模型
中
是不可能使用
的
,因为编写如下内容 x = tf.
keras
.Inp
浏览 18
提问于2020-04-30
得票数 0
1
回答
“从
keras
.models导入顺序”和“从tensorflow.python.
keras
.models导入顺序”之间有什么区别?
python-3.x
、
tensorflow
、
keras
、
tf.keras
我得到了以下错误:完整
的
追踪结果是:
在
尝试了来自不同SO答案
的
多个建议之后,我设法从以下导入语句中切换来修复它: from
浏览 1
提问于2019-10-29
得票数 1
1
回答
如何一层一层地将重量从火炬加载到
Keras
?
python
、
tensorflow
、
keras
、
pytorch
、
tf.keras
我已经尝试过很多方法,比如onnx2
keras
、pytorch2
keras
等等。但总会有什么不对劲
的
..。
在
我尝试之前,我想问一下你是否有类似的经历?我知道有set_weights方法,但这是针对角点到角点
的
,所以没有什么特别的。然而,
Keras
是基于对象
的
模型,所以我如何分配基于名称<
浏览 3
提问于2021-03-19
得票数 0
1
回答
如何获取张量对象
的
值
python
、
tensorflow
、
keras
我有下面的张量对象,它是a=model.layers[3].output代码
的
输出 a = <tf.Tensor 'dense_20/Softmax:0' shape=(None, 3) dtype=float32> 如何从上面的张量对象
中
获取值。a.numpy()),并得到了以下错误: AttributeError: 'Tensor' object has no attribute 'numpy' 我也尝试过eval(a)方法,得到了上面同样
的
错误我
浏览 3
提问于2020-06-11
得票数 0
回答已采纳
1
回答
注意层是如何在
keras
中
实现
的
?
python
、
keras
、
deep-learning
、
tf.keras
、
attention-model
我正在学习
注意力
模型及其
在
keras
中
的
实现
。
在
搜索过程
中
,我发现了这两种方法和,我们可以使用这两种方法
在
keras
中
创建一个注意层 defattention) sent_representation = merge([activations, attention], mod
浏览 1
提问于2019-07-11
得票数 1
回答已采纳
1
回答
多元时间序列
Keras
的
多步预测
machine-learning
、
keras
、
time-series
、
lstm
我一直试图了解如何使用
Keras
建立用于多变量时间序列预测
的
LSTM模型,但我仍然不确定如何以正确
的
形状表示数据。Temperature and humidity.我想做
的
事: 考虑到星期一一个城市新
的
一周
的
记录,我想预测那个城市剩下
的
6天
的
温度和湿度。多变量时间序列
的
多步预测。我希望
网络</
浏览 0
提问于2019-02-07
得票数 1
1
回答
在
TF 1.x中使用回调将整个模型保存为TF SavedModel?
python
、
tensorflow
、
keras
在
使用
keras
model.fit_generator()进行训练期间,我想每隔几个时期保存整个模型,包括优化器
的
状态、自定义指标等。目标是能够从中断的确切状态恢复训练。我正在使用
的
代码是TF 1.14。我知道ModelCheckpoint回调,但它默认以hdf5格式保存模型,这显然不能正确处理自定义丢失。我认为回调可能只是
在
训练期间以预定义
的
时间间隔调用model.save(),那么有没有办法
在
TF2.x
之前
的
版本
中</e
浏览 18
提问于2020-11-16
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
注意力及记忆模块在神经网络中的最新前沿
在智能相机中实现高效的神经网络
transformer 中的注意力机制和胶囊网络中的动态路由:它们在本质上或许具有相似性
深度学习用于文本分类的论文及代码集锦
Keras和TensorFlow之争何时休?
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券