腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
我
用
tensorflow
制作
的
1
隐藏
层
自动
编码器
不能
工作
?
、
、
我
想做一个只有
1
层
的
自动
编码器
,它有100个
隐藏
的
单元。并且,
我
使用了
tensorflow
提供
的
MNIST数据集。请帮帮我。imp
浏览 17
提问于2017-03-16
得票数 0
1
回答
如何在
tensorflow
中重用
自动
编码器
中
的
隐藏
层
来执行分类任务
、
有人能举例说明如何重用
自动
编码器
的
隐藏
层
用于神经网络
的
分类任务吗?
我
想在
tensorflow
的
多层感知器模型中使用
自动
编码器
的
两
层
浏览 1
提问于2017-12-17
得票数 0
1
回答
卷积
自动
编码器
:黑色特征映射
、
、
、
我
正在使用卷积
自动
编码器
。
我
的
自动
编码器
配置有一个卷积
层
,具有stride (2,2)或avg-pooling和relu激活,以及一个解卷积
层
,具有stride (2,2)或avg-unpooling和relu激活。
我
用
MNIST数据集训练了
自动
编码器
。 当我查看第一个卷积
层
(20个滤波器,滤波器大小为3)之后
的
特征图时,<em
浏览 6
提问于2017-03-27
得票数 0
1
回答
有#(隐
层
神经元)=#(输入
层
神经元)
的
自动
编码器
不应该是“完美的”吗?
、
我
第一次探索
自动
编码器
。
我
用
的
是Matlab神经网络工具箱。
我
创建了一个由二维空间中
的
点加上一些噪声组成
的
合成数据集。
我
的
想法是可视化
隐藏
层
的
自动
编码器
的
特点,以获得它如何
工作
的
感觉。在对
自动
编码器
进行培训之后,
我
浏览 0
提问于2019-04-24
得票数 0
1
回答
我
可以使用具有非线性
的
堆叠
自动
编码器
训练Word2vec吗?
、
、
、
每次
我
读到Word2vec,嵌入都是通过一个非常简单
的
自动
编码器
获得
的
:只有一个
隐藏
层
,初始
层
是线性激活,输出
层
是softmax。
我
的
问题是:
为什么
我
不能
用堆叠
的
自动
编码器
训练一些Word2vec模型,有几个
隐藏
层
和更花哨
的
激活函数?(当然
浏览 16
提问于2019-06-27
得票数 1
回答已采纳
1
回答
lstm
层
初始状态在seq2seq
编码器
中
的
作用
、
、
、
我
正在尝试遵循这个指南来实现一个seq2seq机器翻译模型:https://www.
tensorflow
.org/tutorials/text/nmt_with_attention 本教程
的
Encoder有一个initialize_hidden_state()函数,用于生成全0作为
编码器
的
初始状态。然而,对于
为什么
这是必要
的
,
我
有点困惑。据我所知,只有在调用encoder时(在train_step和ev
浏览 16
提问于2021-05-02
得票数 0
回答已采纳
1
回答
h2o.deeplearning
自动
编码器
,手动计算深度特性
、
、
、
我
试图了解在
自动
编码器
中有多深
的
特性。然后,
我
提取了从输入
层
到
隐藏
层
1
的
重量和偏差。: 0.4854887"
浏览 0
提问于2018-04-07
得票数 2
回答已采纳
1
回答
自动
编码器
的
一般问题和不良损失
、
我
试图让一个简单
的
自动
编码器
工作
在虹膜数据集,以探索
自动
编码器
在一个基本水平。
我
遇到了一个问题,在这个问题上,模型
的
损失非常高(>20)。对于y有3种可能
的
输出--因此
我
在最后一
层
中使用了Softmax --如果
我
要对输出进行OHE,那么使用Sigmoid
浏览 0
提问于2022-06-25
得票数 0
1
回答
用
反褶积可视化神经网络和
自动
编码器
的
区别是什么?
、
、
、
我
看了一下泽勒·
的
论文,以及他在youtube上演讲
的
一些视频,当时
我
正试图
用
tensorflow
复制这篇文章,
我
偶然发现了一种叫做
自动
编码器
的
东西,它
的
程序看起来(无论是对还是外部
的
)都很相似,比如:对所有
层
进行冲洗和重复,完成后,将过程反转回像素空间, 将其与我在github 上看到
的</e
浏览 5
提问于2016-05-26
得票数 0
1
回答
Tensorflow
自动
编码器
:如何获得有代表性
的
输出?
、
、
、
、
设置
编码器
层
有256个神经元,具有线性函数。
我
用
大约250000张图像训练了
自动
编码器
。在下面,
我
展示了测试数据
的</e
浏览 1
提问于2017-02-21
得票数 1
1
回答
RNN
的
中间
隐藏
状态有什么好用?
、
、
、
因此,
我
以三种不同
的
能力使用了RNN/LSTM: 多对多: 使用最后一
层
的
每个输出来预测下一
层
。可以是分类或回归。 多对一: 使用最终
的
隐藏
状态执行回归或分类。一对多: 获取一个潜在空间向量,可能是LSTM
编码器
的
最终
隐藏
状态,并使用它生成一个序列(
我
已经以
自动
编码器
的
形式完成了这项
工作
)。 在这些情况下,
我<
浏览 46
提问于2021-02-28
得票数 0
回答已采纳
1
回答
CLDNN (
tensorflow
)
的
降维
、
、
、
我
正在尝试用
tensorflow
编写CLDNN
的
实现,就像在中那样。
我
对降维
层
有一个问题。 据我所知,它是由几个堆叠限制Boltzmann机器(RBM)和
工作
像一个
自动
编码器
。该
层
的
解码器部分只是为了训练
编码器
以减小井
的
尺寸。这意味着您希望将
编码器
的
输出“插入”到下一
层
的
输入中。
我
可以定义一个
浏览 5
提问于2016-12-07
得票数 0
回答已采纳
1
回答
什么是最佳
隐藏
单位
的
大小?
、
假设我们有一个标准
的
三
层
自动
编码器
(即L
1
是输入
层
,L3是#input = #output = 100
的
输出
层
,L2是
隐藏
层
(50个单元))。
我
知道
自动
编码器
有趣
的
部分是
隐藏
部分L2。它不是将100个输入传递给我
的
监督模型,而是向它提供50个输入。什么是最佳
隐藏
单位大小? 50是好
的<
浏览 0
提问于2018-05-09
得票数 0
回答已采纳
3
回答
两个
自动
修饰符由两个相似的向量学习(每个向量都有自己
的
)。隐
层
向量
的
相似性是否相同?
如果
我
只训练一个只有一个向量
的
自动
编码器
和一个只有第二个向量
的
第二个
自动
编码器
,这是否意味着如果向量相似,那么两个
自动
编码器
的
隐
层
向量也是相似的吗?
自动
编码器
结构是相同
的
。隐
层
神经元
的
数量小于输入。
我
知道这太合适了。但对
我
来说,似乎你不学习特征,只是模仿你
的</em
浏览 0
提问于2018-03-07
得票数 1
2
回答
分布式PCA或等效
、
、
、
我们通常有相当大
的
数据集可供建模,只是为了给您一个想法:超过六千万行。有人遇到过类似的问题吗?你做了什么来解决这个问题?GLRM虽然似乎是我们正在寻找
的
,但我们找不到这些想法
的
好
的
实际实现。
浏览 0
提问于2018-07-11
得票数 5
回答已采纳
1
回答
变分
自动
编码器
实现
、
、
、
我
正在尝试使用python和
tensorflow
实现一个变分
自动
编码器
。
我
在互联网上看到了各种各样
的
实现。
我
已经成功地使用了
我
找到
的
各个部分来创建
我
自己
的
部分,并使它们与我
的
具体案例一起
工作
。
我
在这里
用
一个
自动
编码器
结束了: 简单地说,
我
有一个
自动
编
浏览 0
提问于2017-07-02
得票数 1
1
回答
在什么情况下,应该选择一个
自动
编码器
而不是内核PCA?
、
、
、
、
我
的
理解是,如果一个
自动
编码器
(带有单个
隐藏
层
)具有线性激活函数,那么平方和误差函数(为方便而非统计相关性而选择)将对权重有一个唯一
的
解决方案。那么,
我
认为
我
上面描述
的
自动
编码器
一般不会给出线性PCA
的
解,但是在一些非常特殊
的
情况下,它们可能匹配,这是正确
的
吗?现在,毕晓普继续说,处理非线性输入
的
唯一方法是在<
浏览 0
提问于2018-02-09
得票数 2
1
回答
利用Keras在去噪
自动
编码器
中获取隐
层
输出
、
、
、
我
构建了一个包含三个
层
的
Sequential Keras模型:一个Gaussian Noise
层
、一个
隐藏
层
和与输入
层
相同维
的
输出
层
。为此,
我
使用了
Tensorflow
2.0.0-beta
1
1
附带
的
Keras包。因此,
我
希望获得
隐藏
层
的
输出,这样
我
就绕过
浏览 1
提问于2019-09-28
得票数 1
回答已采纳
2
回答
有人能帮我理解什么是
自动
编码器
吗?
、
有人能帮我理解
自动
编码器
的
含义吗? 我们期望
的
是输出等于输入,那么
为什么
我们需要这样做呢?对
我
来说没有任何意义。
我
发现一些解释说,它学会了如何重建输入数据,这是否意味着我们可以从原图中选择一些像素,然后重建整个原始图像?如果是这样的话,对
我
来说仍然是没有意义
的
,因为模型
的
重建部分是从
隐藏
层
到输出
层
,所以我们
不能
仅仅把选定
的
数据放
浏览 0
提问于2016-10-27
得票数 2
回答已采纳
1
回答
为什么
在变分
自动
编码器
中p(z)是正态高斯
的
?
、
在变分
自动
编码器
中,目标函数有两项,一项是使输入和输出x相同,另一项是正则化,q(z)和p(z)以KL散度接近。
我
不明白
的
是,
为什么
我们可以假设p(Z)~正态高斯分布,均值为0,方差为
1
?
为什么
say..variance
不能
小于
1
?以便在
隐藏
层
中用更窄
的
高斯压缩更多
的
信息? 谢谢
浏览 5
提问于2017-08-29
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券