腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(357)
视频
沙龙
1
回答
重要性
加权
自动
编码器
的
性能比
VAE
差
machine-learning
、
pytorch
、
autoencoder
、
unsupervised-learning
、
bayesian-networks
我一直在caltech silhouettes数据集上实现
VAE
和IWAE模型,并且遇到了一个问题,即
VAE
的
性能略高于IWAE (
VAE
的
测试LL约为120,IWAE
的
测试约为133)。我不认为应该是这样
的
,根据理论和实验产生
的
here。 我希望有人能在我
的
实现方式中发现一些问题,这是导致这种情况
的
原因。 我用来近似q和p
的
网络与上面附录中详细描述
的
网络相同。model_typ
浏览 58
提问于2020-04-01
得票数 1
1
回答
您认为解码器
编码器
FCN可以替代内核卷积算法吗?
machine-learning
、
conv-neural-network
、
convolution
、
autoencoder
、
image-preprocessing
我想尝试实现一个
自动
编码器
完全连接
的
卷积神经网络作为Unet,以将一幅图像转换为另一幅具有未知非线性关系
的
图像。 我有高斯核卷积算法,它工作得很好,但我想尝试一些机器学习
的
方法。你有没有其他
的
ANN架构
的
想法?没有标准
的
完全连接
的
ANN (已经尝试了很好
的
效果),非常感谢
浏览 13
提问于2020-01-16
得票数 0
1
回答
为什么
VAE
编码器
输出日志方差而不是标准
差
?
deep-learning
、
autoencoder
当谈到
VAE
(并查看
VAE
实现)时,
编码器
输出:当我们训练模型( decoder model)
的
一部分)时,我们将log(variance)转换成标准
差
:(我从这里举了一个例子:https://github.com/AntixK/PyTorch-
VAE
/blob/master/models/vanilla_
vae
.py)
浏览 0
提问于2022-12-26
得票数 1
1
回答
Beta变分AutoEncoders
python
、
neural-network
、
keras
、
autoencoder
我关注了中
的
变分
自动
编码器
部分。我在我
的
项目中
的
第一个任务是重新生成一些矢量,它们表示网格布局是如何划分
的
。因此,我创建了自己
的
数据集,其中至少包含5000行维度(1,36)
的
向量。这些矢量表示6x6
的
网格布局。因此,我使用了一些数据集作为我
的
模型
的
训练集,这是变分
自动
编码器
。然后,由于我
的
项目任务要求我使用Disentangled
VA
浏览 8
提问于2018-08-08
得票数 1
回答已采纳
1
回答
如何使用变分
自动
编码器
的
μ和σ与用户生成
的
z?
autoencoder
我对
VAE
的
理解是,与
自动
编码器
不同,它并不直接给出离散编码(潜在代码向量n- dim ),而是同时给出了mu和sigma ( n- dim均值向量和n-dim标准
差
向量)。这成为我
的
z,由我
的
解码器解码,以产生一个新
的
图像。 我
的
VAE
是在服装数据集上训练
的
。现在,如果我在数据集中
的
每个数据上运行我
的
VAE
编码器
,我会得到每个
浏览 0
提问于2019-12-02
得票数 1
1
回答
变分
自动
编码器
可以用于非图像数据吗?
deep-learning
、
autoencoder
、
data-augmentation
、
data-generation
我有一个关于变分
自动
编码器
(
VAE
)
的
问题谢谢。
浏览 5
提问于2022-02-03
得票数 0
1
回答
简单二进制数据
自动
编码器
的
丢失与精度
keras
、
mean
、
autoencoder
、
loss
我试图理解和提高变分
自动
编码器
的
丢失和准确性。我用一个简单
的
二进制数据填充了
自动
编码器
:sent_encoded = encoder.predict(np.array(test), batch_size = batch_size) sent_decoded =我不明
浏览 0
提问于2018-04-11
得票数 0
1
回答
如何重新训练变分式
自动
编码器
并再现相同
的
结果
python
、
tensorflow
、
autoencoder
、
random-seed
我用
自动
编码器
来学习tensorflow
的
表示法。实验有不同
的
自动
编码器
(
自动
编码器
、变分
自动
编码器
(
VAE
)、多模态
自动
编码器
和多模态
VAE
)。我想把这些
自动
编码器
的
模型留给将来
的
再现实验或者使用这些学习
的
表示。我
的
第一个策略是使用&qu
浏览 2
提问于2021-07-01
得票数 2
1
回答
自动
编码器
与变分式
自动
编码器
的
图像生成
autoencoder
、
image-generation
当我们使用卷积
自动
编码器
生成新
的
图像时,模型是否在每次运行该模型时都生成相同
的
图像?还是会产生随机变化
的
图像?我认为,每次运行模型时,
自动
编码器
(AE)都会生成相同
的
新图像,因为它将输入图像映射到潜在空间中
的
单个点。另一方面,变分
自动
编码器
(
VAE
)将输入图像映射到一个分布。因此,如果我们需要一些随机变化
的
图像,我们需要使用
VAE
,如果我们每次运
浏览 14
提问于2021-09-17
得票数 0
1
回答
变分
自动
编码器
与变压器
的
比较
machine-learning
、
deep-learning
、
autoencoder
、
transformer
我对这一领域还比较陌生,但我想知道变分式
自动
编码器
与变压器相比是如何运行
的
呢?
浏览 0
提问于2022-01-08
得票数 5
1
回答
VAE
中KL发散而不是交叉熵
的
原因
machine-learning
、
deep-learning
、
loss-function
、
autoencoder
、
vae
我理解KL散度是如何为我们提供一个度量一个概率分布与另一个参考概率分布是如何不同
的
。但是为什么它们在
VAE
中(而不是交叉熵)被特别使用(这是生成
的
)?
浏览 0
提问于2020-09-24
得票数 4
2
回答
将
自动
编码器
转换为变分
自动
编码器
?
python
、
neural-network
、
autoencoder
我想比较一下
自动
编码器
和变分式
自动
编码器
的
训练。我已经用AE进行了训练。我想知道是否有可能将这个AE转换成一个
VAE
,并保持相同
的
输出和输入。 谢谢。
浏览 0
提问于2019-03-11
得票数 9
回答已采纳
1
回答
创建MLP模型来预测用户使用PyTorch给未看过
的
电影
的
评分
python
、
deep-learning
、
pytorch
、
autoencoder
、
recommendation-engine
在我
的
项目中,我试图根据用户给其他电影
的
评分来预测用户对一部看不见
的
电影
的
评分。我使用
的
是movielens dataset.The主文件夹,它是ml-100k,包含关于100,000
的
信息。在对数据进行处理之前,主要数据(分级数据)包含用户ID、电影ID、用户评等(从0到5,以及该项目考虑
的
).I,然后使用sklearn库将数据拆分为培训集(80%)和测试数据(20%)。我使用
的
是PyTorch,代码是在Google 上实现
的
。这
浏览 2
提问于2020-07-10
得票数 0
回答已采纳
3
回答
什么是
自动
编码器
?
machine-learning
、
neural-network
、
deep-learning
、
autoencoder
我
的
重点是深生成模型,特别是
自动
编码器
和变分
自动
编码器
(
VAE
)。📷 关于
V
浏览 0
提问于2020-08-17
得票数 7
回答已采纳
1
回答
基于深度学习
的
异构数据匹配特性研究
python
、
deep-learning
、
artificial-intelligence
我面临
的
问题是,我希望匹配彼此相似的属性(房屋/公寓等)(例如经度和纬度(数字)、卧室(数字)、地区(类别)、条件(分类)等)。使用深度学习。数据是异构
的
,因为我们混合了数字和分类数据,而问题是无监督
的
,因为我们没有使用任何标签。 我
的
目标是获得属性相似性
的
度量,这样我就可以为每个目标属性找到最匹配
的
属性。我可以使用KNN,但我想使用一些可以让我找到嵌入并使用深度学习
的
东西。我想我可以确定一个混合距离度量,比如Gower距离作为损失函数,但是我如何建立一个模型
浏览 1
提问于2019-10-25
得票数 1
1
回答
为什么我
的
变分
自动
编码器
只产生正值?
pytorch
、
autoencoder
我复制了来构建一个变分
自动
编码器
(
VAE
)。该示例使用图像,但我将其用于包含负值
的
信号。训练后,
自动
编码器
只重建信号
的
正部分,不产生负值。有人能找出问题
的
所在或解释为什么会这样吗?
浏览 4
提问于2022-04-05
得票数 0
回答已采纳
1
回答
如何使用变分
自动
编码器
作为特征抽取器?
tensorflow
、
machine-learning
、
keras
、
feature-extraction
、
autoencoder
我想使用我在图像数据集上训练
的
VAE
作为另一个任务
的
特征提取器,这样我就可以用我
的
VAE
替换一个用于特征提取
的
ResNet。我用哪几层来做这个?使用“标准”
自动
编码器
,您只需使用编码网络,但是由于
VAE
的
潜在层由均值和分布组成,我不知道应该使用哪些层进行特征提取。 有人知道如何使用
VAE
作为特征提取器吗?使用不同
的
组件应该考虑什么?
浏览 4
提问于2020-11-10
得票数 0
回答已采纳
4
回答
变分
自动
编码器
在使用KL散度时,为每个输入mnist图像提供相同
的
输出图像。
deep-learning
、
pytorch
、
autoencoder
、
bayesian-networks
、
loss-function
在不使用KL散度项
的
情况下,
VAE
对mnist图像
的
重建几乎是完美的,但在存在随机噪声
的
情况下,无法正确地生成新
的
mnist图像。当使用KL发散项时,
VAE
在重建和生成图像时都会给出同样奇怪
的
输出。def loss_function(recon_x, x, mu, logvar): BCE = F.binary_cross_entropy(recon_x,mu.pow(2) - logvar.exp(
浏览 0
提问于2018-05-30
得票数 7
回答已采纳
1
回答
最小化kl散度(即保持接近后向接近先前)是否与避免后倾
的
目标相矛盾?
vae
\forall x: q_{\phi}(z_i|x) \approx p(z_i)方向
的
变化分布塌陷。z变得独立于x。我们希望在培训
VAE
时避免这种情况。当边对数似然上
的
变分下界最大化时,我们希望最小化kl-散度:KL(q_\phi(z|x)||p(z))。这就是保持近似的后验接近于先前。要有一个紧密
的
界限,KL=0。(我觉得我在这里混淆了一些概念,但不确定到底是什么。)
浏览 0
提问于2023-01-09
得票数 1
2
回答
变分
自动
编码器
是否只基于潜在
的
表示进行分布?
tensorflow
、
deep-learning
、
autoencoder
、
generative-adversarial-network
如果我
的
变分
自动
编码器
(
Vae
)
的
潜在表示为r,而我
的
数据集为x,那么
vae
的
潜在表示是否遵循基于r或x
的
归一化?If r= 10,这意味着它有10种均值和方差(多点分布),并且分布来自于数据
的
全部数据x?或r = 10基于r构造一个分布,并且每个样本都试图遵循这个分布
的
。 我搞不懂哪一个是对
的
浏览 8
提问于2022-07-24
得票数 -2
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券