腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
强制
自动
编码器
中
的
瓶颈
产生
二进制
值
?
tensorflow
、
keras
、
autoencoder
、
loss-function
我尝试
强制
自动
编码器
中
的
瓶颈
层生成
二进制
值
。我在一个自定义损失函数中使用tensorflow.cond,惩罚所有不是0或1
的
值
,但是这个方法非常慢。有没有更好
的
方法来做这件事?
浏览 4
提问于2020-03-20
得票数 2
回答已采纳
1
回答
自动
编码器
是否需要使用线性
瓶颈
层?
neural-network
、
autoencoder
我目前正在尝试使用
自动
编码器
网络进行降维。(即使用
瓶颈
激活作为压缩功能)不过,这是否正确呢?
自动
编码器
浏览 1
提问于2018-05-05
得票数 0
回答已采纳
2
回答
如何
从keras.tf
中
的
特定层获得输出,这是
自动
编码器
中
的
瓶颈
层?
tensorflow
、
keras
、
autoencoder
我正在开发一个
自动
编码器
集群某些组
的
图像。 input_images->...->bottleneck->...->output_images 我已经对
自动
编码器
进行了校准,并保存了模型;一切都是在python3上使用keras.tensorflow开发
的
。下一步是将
自动
编码器
应用于大量图像,并根据
瓶颈
层
中
的
余弦距离对它们进行聚类。哦,我刚刚意识到我不知道keras.tf<e
浏览 20
提问于2019-09-11
得票数 1
回答已采纳
1
回答
用于图像重建
的
自动
编码器
的
最佳架构是什么?
deep-learning
、
neural-network
、
autoencoder
、
convolutional-neural-network
我试图使用卷积
自动
编码器
的
潜在空间(嵌入层),特别是,我想使用嵌入
的
K最近邻搜索
的
潜伏空间(类似于word2vec)。我
的
输入是3x224x224 (ImageNet),我找不到任何详细阐述特定架构
的
文章(例如过滤器
的
数量、conv层
的
数量等等)。我尝试了一些任意
的
架构,比如:Conv(channels=3,filters=16,kernel=3) Conv(channels=16,fi
浏览 0
提问于2019-04-22
得票数 4
回答已采纳
1
回答
在Keras中使用自定义
的
步骤激活函数会导致“一个操作对渐变有`None`”。错误。
如何
解决这个问题?
python
、
tensorflow
、
keras
、
gradient
、
activation-function
我正在构建
自动
编码器
,我想将我
的
值
编码到一个逻辑矩阵
中
。我试过使用hard-sigmoid函数,但它不适合我
的
问题,因为当我只需要
二进制
时,它仍然会
产生
中间
值
。tf.shape(x), dtype=x.dtype.base_dtype) return keras.backend.switch(x > 0.5, ones, zeros) 我希望能够使用
二进制
步长激活函数来训练网络,然后将其用作典型
浏览 12
提问于2019-02-11
得票数 1
回答已采纳
1
回答
增加层
的
大小,同时保持旧
的
重量冻结
tensorflow
、
keras
、
neural-network
、
autoencoder
我现在正在尝试实现以下过程:首先,我有一个训练有素
的
自动
编码器
,然后我正在考虑增加
瓶颈
层
的
大小(增加该层
中
“神经元”
的
数量)。然后,我想训练增加
的
模型作为一个整体,同时保持与旧层对应
的
重量冻结。我
的
想法是,首先,我们训练一个正常
的
自动
编码器
,然后我可以建立相同
的
模型,除了
瓶颈
层
的
大小增加。然后,我把重量加载到这
浏览 2
提问于2020-08-02
得票数 0
回答已采纳
3
回答
从机器学习算法
中
获得负面结果
opencv
、
machine-learning
、
tensorflow
我有一组特定物体
的
图像。我想找出其中一些是否存在机器学习算法
的
异常。例如,如果我有很多照片
的
眼镜,我想知道其中一个是坏了,或有什么异常。就像这样:BAD!! 问题是我不知道每一个消极
的
情况,所以,对于训练,我只有正面的形象。 换句话说,我需要一种算法来识别图像是否有与数据集不同
的
内容。你有什么建议吗?特别是有一种使用卷积神经网络
的
方法吗?
浏览 7
提问于2017-02-07
得票数 4
2
回答
注意力对
自动
编码器
有意义吗?
lstm
、
recurrent-neural-network
、
autoencoder
、
dimensionality-reduction
、
attention-model
在
自动
编码器
的
背景下,我在努力思考注意力
的
概念。我相信我理解注意seq2seq翻译
的
用法--经过训练后,我们可以同时使用
编码器
和解码器来创建语言翻译(例如)。但是,如果
自动
编码器
的
主要目标是生成输入向量
的
潜在压缩表示,该怎么办?我说
的
是一些情况,在培训之后,我们基本上可以处理模型
的
解码器部分。例如,如果我在没有注意
的
情况下使用LSTM,那么“经典”方法就是使用最后
浏览 6
提问于2019-09-28
得票数 17
1
回答
在TensorFlow/Keras中将神经网络
的
SubGraph视为模型
python
、
tensorflow
、
keras
、
neural-network
我正在尝试使用Keras Layer API在tensorflow
中
训练
自动
编码器
。这个API非常好用,很容易用来设置深度学习层。快速回顾一下
自动
编码器
(在我看来)是一个函数$f( x ) = z$和它
的
伪逆\hat{x} = f^{-1}(z)使得f(f^{-1}(x)) \近似x。在神经网络模型
中
,您将建立一个具有
瓶颈
层
的
神经网络,它试图使用f^{-1}(f(x))预测自己
的
x。当训练误差最小化时,你就有了两个组
浏览 15
提问于2020-03-30
得票数 0
2
回答
有人能帮我理解什么是
自动
编码器
吗?
machine-learning
、
autoencoder
有人能帮我理解
自动
编码器
的
含义吗?提前谢谢。
浏览 0
提问于2016-10-27
得票数 2
回答已采纳
2
回答
解码器
如何
将
自动
编码器
中
的
低维转换为高维?
machine-learning
、
keras
、
deep-learning
、
artificial-intelligence
、
autoencoder
我正在建立一个
自动
编码器
。我在google上看到过,
编码器
压缩数据,比如将维度
的
784 no转换为
瓶颈
隐藏神经元
的
100 no,然后解码器再次将维度
的
100 no转换为784,我想知道它(解码器)
如何
从较低维度转换到更高维度,因为如果我们谈论
编码器
但是
如何
将较低
的
维度再次转换为较高
的
维度,要么是通过再次添加我们在
编码器
中
丢弃
的
位
浏览 6
提问于2020-11-24
得票数 0
1
回答
隐藏层在哪里?
keras
、
neural-network
、
nlp
、
keras-layer
、
autoencoder
我对
自动
编码器
还是个新手。我有来自Keras (https://blog.keras.io/building-autoencoders-in-keras.html)
的
代码。我想知道我在代码
中
的
注释是正确
的
吗?
浏览 70
提问于2020-11-10
得票数 0
回答已采纳
1
回答
对于小数据,`as.h2o()`
的
替代方案?
h2o
我
的
问题与大多数使用as.h2o()的人相反,尽管由此
产生
的
问题是相同
的
。我必须转换一系列仅有19列宽
的
单行向量,并将其提供给h2o
自动
编码器
。使用as.h2o()转换每个向量大约需要0.29秒,这是一个主要
的
瓶颈
。非常感谢。
浏览 1
提问于2017-12-12
得票数 0
2
回答
降维是可逆
的
吗?
artificial-intelligence
、
encog
、
som
、
dimensionality-reduction
我使用ENCOG实现了一种降维算法,它使用一个具有多个特征
的
数据集(称为A),并将其简化为一个只有一个特征
的
数据集(B) (我需要用于时间序列分析)。现在我
的
问题是,我有一个由时间序列分析预测
的
B
值
,我能把它转换回像A数据集中那样
的
两个维度吗?
浏览 1
提问于2015-06-30
得票数 3
回答已采纳
1
回答
在两个
自动
编码器
上堆叠完全连接
的
层以进行分类
keras
、
neural-network
、
deep-learning
、
autoencoder
、
keras-2
我正在训练使用卷积层
的
2D图像
的
自动
编码器
,并希望将完全连接
的
层放在
编码器
部分
的
顶部进行分类。,这是可行
的
,但现在
的
问题是,我有2个
自动
编码器
培训
的
图像集,所有的大小(64,80,1)。对于每个标签,我有两个大小
的
图像(64,80,1)和一个标签(0或1)。我需要将图像1输入到第一个
自动
编码器
,将图像2输入到第二个
自动<
浏览 0
提问于2019-08-09
得票数 1
回答已采纳
1
回答
除了异常检测之外,是否还有其他
的
例子可以用于无监督
的
深度学习?
deep-learning
、
clustering
、
unsupervised-learning
我对深入学习及其概念是陌生
的
。在阅读了一段时间后,我了解到无监督
的
深度学习技术通常试图重建输入数据(可能使用
编码器
和解码器
的
维数较少),并通过优化重构误差来训练网络。但是,我无法想象这些方法是
如何
用于解决实际任务
的
(除了异常检测,例如聚类)。 注意:如果我对无监督
的
深度学习技术
的
理解是错误
的
,你可以纠正我。
浏览 0
提问于2020-01-31
得票数 2
1
回答
LSTM
自动
编码器
在测试数据中
产生
较差
的
结果
keras
、
deep-learning
、
lstm
、
lstm-stateful
我正在应用LSTM
自动
编码器
进行异常检测。由于与正常数据相比,异常数据非常少,因此仅使用正常实例进行训练。测试数据由异常实例和正常实例组成。在训练过程
中
,模型损失似乎很好。然而,在对数据进行测试时,该模型
产生
的
准确性较差。也就是说,异常点和正常点没有很好地分开。.............plt.ylabel('True class') pl
浏览 3
提问于2019-11-07
得票数 0
1
回答
如何
获得
二进制
序列作为
自动
编码器
瓶颈
的
输出?
python
、
keras
、
deep-learning
、
autoencoder
我正在尝试实现一个
自动
编码器
,我想要一个
二进制
序列作为
瓶颈
层
的
输出,因为我想分别使用
编码器
和解码器。下面是我
的
自动
编码器
架构
的
代码: inputs_encoder = keras.Input(shape = 2**k) x = Dense(units=S*2**(k), activation=activation然后,我使用了一个技巧,把tf.stop_gradient(tf.math.round(x)-x)+x<e
浏览 14
提问于2020-10-08
得票数 0
1
回答
用RNN预测简单配置轨迹
的
参数
time-series
、
regression
、
lstm
、
rnn
= y = parameters\ of\ observed\ orbit 到目前为止我所做
的
:我使用了一个非常非常基本
的
([X_{o_{i}}^{1},X_{o_{i}}^{2},\ ...], y_{o_{i}})堆栈模型,它是用o_{i}是二维轨道
的
情况下训练
的
。我假设这是一个回归问题,所以我复制了一些我在互联网上发现
的
时间序列预测模型:这些模型通常以二维或三维向量作为输入序列,并给
浏览 0
提问于2020-06-02
得票数 2
回答已采纳
5
回答
二
值
分类为2类分类问题
machine-learning
、
deep-learning
、
image-classification
我想要创建一个狗分类器,它输出包含狗
的
图像
的
概率。
二进制
分类器(1类),它只输出包含狗
的
图像
的
概率.这在我看来是合理
的
。二级分类器,分为“狗”和“非狗”两类.但是这种方法
的
问题是,神经网络也必须学习“非狗”类,这是不可能
的
,因为它没有模式,而且在每个训练示例中都是不同
的
。 第二种方法是否不如第一种有效?或者根本不工作?
浏览 0
提问于2019-06-27
得票数 4
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券