腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何分别保存Keras
编码器
和
解码器
?
、
、
、
、
我已经创建了一个
自动
编码器
使用一个单独
的
编码器
和
解码器
,如本链接所述。
浏览 7
提问于2022-04-23
得票数 1
回答已采纳
1
回答
基于RBM
的
深度
自动
编码器
、
、
、
我正在使用RBM实现
深度
自动
编码器
。我知道,为了展开网络,我们需要使用
编码器
的
转置权值作为
解码器
。但我不确定我们该用哪种偏见来做
解码器
。如果有人能给我详细说明或者给我发一个伪码链接,我会很感激
的
。
浏览 2
提问于2013-12-12
得票数 1
回答已采纳
1
回答
为什么我们不想让
自动
编码器
完美地代表他们
的
训练数据呢?
、
、
、
来自伊恩·古德费罗
的
“
深度
学习书”:我不明白这部分。g是
解码器
,f是
编码器
。为什么
编码器
和
解码器
要完美地表示输入数据x是不可取
的
? 另一种解决这个问题
的
方法是--为什么
自动
编码器
需要正规化?然而,有了足够大
浏览 0
提问于2018-07-27
得票数 2
1
回答
不偷看或不注意
的
简单
深度
seq2seq会收敛吗?
、
深度
seq2seq模型有没有成功
的
应用,
解码器
在第一步只读取
编码器
的
输出状态(
编码器
内部状态
的
最后一步),并进行多步解码? 在每一步,
解码器
的
输入仅仅是前一步
的
输出和状态。我可以看到一些seq2seq
自动
编码器
的
实现,不知道它们在经过长时间
的
训练后是否真的收敛了,特别是当内部状态很小时。
浏览 0
提问于2017-05-20
得票数 0
0
回答
深度
自动
编码器
的
Get
解码器
、
、
、
、
我正在学习keras 中
深度
自动
编码器
的
教程。对于开始
的
简单
自动
编码器
,有一个定义如下
的
decoder:decoder_layer = autoencoder.layers='sigmoid')(decoded) encoder = Model(in
浏览 0
提问于2017-06-19
得票数 4
回答已采纳
1
回答
如何在不同大小
的
图像上训练keras模型
、
、
如何在不同大小
的
图像上训练模型。我
的
模型包含输入图像大小(None,None,3)。但是如何在不同
的
图像大小上训练模型呢? 注意:我
的
目标是使用
深度
学习执行图像压缩。一种考虑了编
解码器
的
自动
编码器
。
浏览 50
提问于2019-05-19
得票数 0
3
回答
从Keras中经过训练
的
自动
编码器
模型中获取
解码器
、
、
、
我正在训练一个深层
的
自动
编码器
,将人
的
脸映射到128维
的
潜在空间,然后将它们解码回原来
的
128x128x3格式。我希望在训练了
自动
编码器
之后,我能以某种方式“分割”
自动
编码器
的
下半部分,即通过函数Keras和autoenc_model.
get
_layer(),负责将潜在空间(128 )映射到图像空间(128、128、3)
的
解码器
网络。为了从经过训
浏览 2
提问于2019-04-01
得票数 3
1
回答
编码器
/
解码器
模型如何在
深度
学习中学习?
、
、
、
在学习了一些
深度
学习中
的
编码器
/
解码器
模型(主要是在Keras中)之后,我仍然不能理解学习发生在哪里。是
编码器
只创建特征映射,然后
解码器
尝试使用BackProp尽可能接近结果,还是
编码器
在训练模型时也会学习?最后一个问题:如果我理解正确的话,过滤器相当于经典机器学习模型中
的
节点,通过改变其权重来学习,对吗?
浏览 3
提问于2018-05-25
得票数 0
1
回答
我们能在
编码器
/
解码器
中同时有上采样层和下采样层吗?
我对
自动
编码器
很陌生。我看到
的
所有
自动
编码器
通常都会显示一个下采样
编码器
,然后是一个上采样
解码器
或一个上采样
编码器
,然后是一个下采样
解码器
。现在,我想问一问,我们能不能有一个同时包含上采样层和下采样层
的
编码器
,然后是一个具有精确镜像层
的
编码器
?例如,我们可以拥有以下
自动
编码器
的
架构吗?
编码器
:
浏览 4
提问于2022-08-01
得票数 1
2
回答
自动
编码器
如何降低维数?
、
我不明白
自动
编码器
是如何实现降维
的
,因为它学会了将数据从输入层压缩成一段短代码,然后将该代码解压缩到原始数据中,我看不出降维在哪里:输入数据和输入数据具有相同
的
维数?
浏览 0
提问于2018-06-13
得票数 2
回答已采纳
1
回答
为什么自然语言处理中
的
Transformers需要一堆
编码器
?
、
、
、
我正在关注这篇关于transformers
的
博客 http://jalammar.github.io/illustrated-transformer/ 我唯一不明白
的
是为什么需要一堆
编码器
或
解码器
。据我所知,多头注意力层捕获了问题
的
不同表现空间。我不明白为什么需要
编码器
和
解码器
的
垂直堆栈。不是只有一个
编码器
/
解码器
层可以工作吗?
浏览 26
提问于2019-12-18
得票数 6
回答已采纳
2
回答
训练CNN将椭圆转换成圆圈
、
、
我目前
的
项目是对物体在各种成像过程中
的
模糊/卷积效果进行建模。现在,我要从一个初步
的
,人工
的
模型开始。我正在使用Keras来完成这一任务。在128 x 128
的
图像中,我以随机位置上
的
一组圆圈来创建人工理想数据。然后,我有一个例程,它以这些圆圈
的
坐标和大小作为输入,并在相同
的
位置用椭圆替换圆圈。我试图训练一个卷积神经网络来执行这个函数
的
逆函数,即用椭圆作为输入读取图像,然后用圆圈代替它们。我通过将这两种图像类型与以椭圆作为输
浏览 0
提问于2019-07-09
得票数 1
1
回答
训练
编码器
.使用
解码器
输出
的
解码器
、
、
我正试图为文本类型
的
传输问题建立一个编解码模型。问题是我在这两种样式之间没有并行数据,所以我需要在一个无监督
的
环境中训练模型。 我见过
的
一些文章使用
自动
编码器
分别训练
编码器
和
解码器
组件。通过将问题设置为
自动
编码器
,他们可以通过将目标序列(等于输入序列)传递到
解码器
中来训练
解码器
。(以下是一些例子,https://arxiv.org/pdf/1711.06861
浏览 0
提问于2018-07-07
得票数 2
回答已采纳
1
回答
变分
自动
编码器
:
编码器
必须有与
解码器
相同
的
层数吗?
、
在变分式
自动
编码器
中,
编码器
必须具有与
解码器
相同
的
层数吗?我
的
编码器
(密度):54-10-5-3,
解码器
(密度):3-5-10-25-35-45-54,我得到了更好
的
结果。
浏览 1
提问于2018-05-02
得票数 3
回答已采纳
1
回答
如何使用tf.layers.conv2d训练具有绑定权重
的
自动
编码器
、
、
、
、
如果我想训练一个具有相同权重
的
自动
编码器
(
编码器
和
解码器
有相同
的
权重参数),如何使用tf.layers.conv2d来正确完成?我不能简单地在
编码器
和
解码器
的
相应conv2d层之间共享变量,因为
解码器
的
权重是
编码器
的
转置权重。 也许捆绑
的
重量现在很少使用,但我只是好奇。
浏览 1
提问于2018-01-15
得票数 0
1
回答
在tf.Estimator中输入中间值和计算子图
、
、
我正在用tf.Estimator训练一个变分
自动
编码器
。model_fn包含
编码器
和
解码器
,并将图像作为输入。在部署或评估阶段,我希望模型将随机采样
的
潜在代码作为输入,并仅执行
解码器
部分。有没有办法把
编码器
和
解码器
从我
的
估计器中分离出来?
浏览 2
提问于2019-04-16
得票数 0
1
回答
自动
编码器
的
损耗函数
、
我试图理解
自动
编码器
的
丢失功能。但我不明白如何比较才能找到
编码器
错误。 有人向我解释说,它是用来找
编码器
错误
的
。和
解码器
。
浏览 0
提问于2020-10-23
得票数 0
1
回答
如果我将层传递给两个Keras模型,并且只训练一个,那么在训练前者之后,这两个模型是否会共享权重
、
、
我试图使用Keras构建一个简单
的
自动
编码器
,为此我从一个完全连接
的
神经层开始,作为
编码器
和
解码器
。input_img) >autoencoder =Model(input_img, decoded)
的
帮助下创建了一个单独
的
编码器
模块batch_size=256,
浏览 17
提问于2020-03-31
得票数 0
回答已采纳
1
回答
CLDNN (tensorflow)
的
降维
、
、
、
我正在尝试用tensorflow编写CLDNN
的
实现,就像在中那样。我对降维层有一个问题。 据我所知,它是由几个堆叠限制Boltzmann机器(RBM)和工作像一个
自动
编码器
。该层
的
解码器
部分只是为了训练
编码器
以减小井
的
尺寸。这意味着您希望将
编码器
的
输出“插入”到下一层
的
输入中。我可以定义一个损耗函数来训练
自动
编码器
(通过比较解码输出
的
输入),还有一个其他
浏览 5
提问于2016-12-07
得票数 0
回答已采纳
1
回答
基于matlab
的
稀疏
自动
编码器
的
无监督训练
、
、
我尝试遵循mathworks提供
的
训练
深度
稀疏
自动
编码器
(4层)
的
示例,因此我分别预先训练了
自动
编码器
,然后将其堆叠到一个
深度
网络中。然而,当我试图通过train(deepnet,InputDataset)指令来微调这个网络时,训练会立即停止,并且我会收到一条“性能目标已达到”
的
消息。有没有办法在Matlab中以无监督
的
方式训练和微调
深度
自动
编码器
网络(不提供标签
浏览 2
提问于2016-10-14
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券