腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
简单
的
自动
编码器
在
多个
时期
后
不
收敛
、
、
、
我正在为CIFA10数据集开发一个
自动
编码器
,而不会在输入端添加噪声(这是第二个目标)。基于Convnet
的
自动
编码器
不
收敛
:任何建议 input_img=Input(shape=(32,32,3)) x=Conv2D(16,(3,3),padding='same',activation我尝试将模型64-32-16-8:8-16-32-64与CIFAR-10
的
灰度图像一起使用,但我仍然有相同
的
收敛
问题网络输出
浏览 53
提问于2019-03-22
得票数 0
1
回答
Keras模型拟合周期的确定
、
、
、
、
我试图
自动
确定Keras
自动
编码器
何时
收敛
。例如,
在
“让我们构建最
简单
的
自动
编码器
”下面查看这个。
在
50 (当损失值
收敛
时)是硬编码
的
历元数。
浏览 0
提问于2017-07-10
得票数 4
回答已采纳
1
回答
使用Keras
自动
编码器
进行分类
、
、
、
、
我正在尝试使用Keras (具有Tensorflow后端)获取一个普通
的
自动
编码器
,并在损失值
收敛
到特定值时停止它。
在
最后一个
时期
之后,我想使用一个sigmoid函数来执行分类。你知道怎么做吗(或者至少给我指个正确
的
方向)? 下面的代码与上
的
普通
自动
编码器
非常相似。(我使用
的
是我自己
的
数据,但请随意使用链接中
的
MNIST示例来演示您正在讨论
的
内容
浏览 3
提问于2017-07-09
得票数 0
1
回答
不
偷看或不注意
的
简单
深度seq2seq会
收敛
吗?
、
深度seq2seq模型有没有成功
的
应用,解码器
在
第一步只读取
编码器
的
输出状态(
编码器
内部状态
的
最后一步),并进行多步解码?
在
每一步,解码器
的
输入仅仅是前一步
的
输出和状态。我可以看到一些seq2seq
自动
编码器
的
实现,不知道它们
在
经过长时间
的
训练
后
是否真的
收敛
了,特别是当内部状态很小时。
浏览 0
提问于2017-05-20
得票数 0
1
回答
是否有意义使用
自动
编码器
的
网络批处理标准化?
、
、
、
、
众所周知,DNN
的
主要问题是学习时间长。但是有一些方法可以加速学习:
浏览 4
提问于2016-12-09
得票数 5
回答已采纳
1
回答
为什么迁移学习会导致预训练完成
后
随机重新启动错误/丢失?
、
、
、
、
图表中
的
前15个时代已经被剔除,但趋势仍然可见。训练损失
在
多个
时期
减少,验证损失很容易
收敛
。 显然,这是训练/开发误差之间
的
方差问题。为了解决这个问题,我知道添加更多
的
数据是最
简单
的
解决方案。但由于我
的
笔记本电脑没有足够
的
内存来
在
单个进程中保存两倍
的
数据量,所以我决定加载第二组数据(来自相同
的
分布),并使用迁移学习来重新训练从400个<
浏览 1
提问于2017-10-21
得票数 1
9
回答
如何在
不
活动一段时间
后
自动
注销用户?
、
在网络上搜索了大量内容之后,我想知道是否有一种
简单
的
方法可以
在
一个
不
活跃
的
时期
后
自动
注销通过Symfony Security登录
的
用户。例如,我希望用户
在
不
活动30分钟
后
被注销。我使用像这样
的
自定义用户提供程序。还有一种
自动
方式,甚
浏览 10
提问于2013-09-18
得票数 20
回答已采纳
1
回答
用相同图像训练
自动
编码器
、
、
、
我正在训练
自动
编码器
与2000年相同
的
图像。我
的
期望是,如果
自动
编码器
有足够
的
容量,
在
一定
的
训练时间
后
,损失将接近0,精度将接近1。相反,我看到损失= 0.07和accuracy=0.76
的
快速
收敛
。减少卷积层数有一定
的
改善作用。减少每层籽粒
的
数量增加了损失。在那之后没有任何改善。我
的
期望错了吗?或者我
的
<em
浏览 4
提问于2020-03-23
得票数 2
回答已采纳
1
回答
关于如何使用
自动
编码器
减少尺寸
的
步骤
、
、
、
我正在考虑使用
自动
编码器
通过使用编码层
的
输出来减少数据
的
维数,将这些输出连接到我
的
数据中,并使用它作为随机森林
的
训练集。我使用Keras,所以
在
定义了
自动
编码器
模型之后,我对整个数据集进行了
浏览 0
提问于2019-12-01
得票数 1
回答已采纳
1
回答
基于神经网络
的
“全零类”预测
、
、
在
一个涉及识别欺诈交易
的
分类问题中,我降低了数据
的
维度(28列)。使用堆叠
的
自动
编码器
(28->15->5)
在
状态模型中通过Logit检测到完全
的
准分离,并将压缩数据(5列)馈送到具有两个隐藏层
的
神经网络中,每个隐藏层有10个节点和“relu”激活函数。我对模型进行了100个
时期
的
训练( AUC度量没有超过0.500,训练损失
在
几个
时期
后</e
浏览 16
提问于2020-12-22
得票数 0
回答已采纳
1
回答
tensorflow.compat.v1.disable_v2_behavior()应该对使用Keras API
的
训练有什么影响?
、
、
、
、
我有一个CNN,它训练几十万个例子,
在
一个
时期
后
验证准确率达到95%左右。这是
简单
的
代码,使用Keras定义使用Sequential API
的
网络。最初,我
在
TF 1.3上准备并使用了这个模型。当我将它移植到TF2.1,用tensorflow.keras替换keras调用时,它很快就达到了~60%,并停留在那里(似乎有很多
时期
),训练损失似乎总是
收敛
到相同
的
值。如果我
在
脚本
的
顶部添
浏览 240
提问于2020-05-14
得票数 2
3
回答
两个
自动
修饰符由两个相似的向量学习(每个向量都有自己
的
)。隐层向量
的
相似性是否相同?
如果我只训练一个只有一个向量
的
自动
编码器
和一个只有第二个向量
的
第二个
自动
编码器
,这是否意味着如果向量相似,那么两个
自动
编码器
的
隐层向量也是相似的吗?
自动
编码器
结构是相同
的
。隐层神经元
的
数量小于输入。但对我来说,似乎你不学习特征,只是模仿你
的
输入函数与较小
的
维向量,同时失去信息。所以你得到了一种低维近似的学习向量。因此,如果向量
浏览 0
提问于2018-03-07
得票数 1
1
回答
在建立
编码器
/解码器模型之前对
自动
编码器
进行训练是否有效?
、
、
、
、
我正在遵循教程来构建我
的
自动
编码器
。为此,我有两种策略:对
浏览 0
提问于2019-03-23
得票数 0
回答已采纳
1
回答
为什么我们不想让
自动
编码器
完美地代表他们
的
训练数据呢?
、
、
、
来自伊恩·古德费罗
的
“深度学习书”:我不明白这部分。g是解码器,f是
编码器
。为什么
编码器
和解码器要完美地表示输入数据x是不可取
的
? 另一种解决这个问题
的
方法是--为什么
自动
编码器
需要正规化?我理解
在
预测机器学习中,我们对模型
浏览 0
提问于2018-07-27
得票数 2
1
回答
keras使用restore_best_weights提前停止,使用save_best_only和过拟合创建模型检查点
、
、
这篇文章更多
的
是要求咨询而不是要求解决问题。我知道keras、回调、提前弯腰和模型检查点可以防止过拟合。当我
在
restore_best_weights=True中使用早期
的
弯腰时,由于耐心较小,我有时会错过最好
的
模型,而当我
在
save_best_only =True中使用检查点回调时,我需要做很多
时期
。因此,我认为也许我会以更大
的
耐心使用提前停止,但我
的
问题是,
在
一些
时期
之后,我
的
验证损失是非常Z字
浏览 3
提问于2020-09-01
得票数 0
1
回答
Tensorflow
在
机器之间损失方面的主要差异
、
、
、
、
我使用Tensorflow作为后端,用Keras编写了一个变分
自动
编码器
。我使用Adam作为优化器,学习率为1e-4,批处理大小为16。当我
在
Macbook
的
中央处理器(英特尔核心i7)上训练网络时,一个
时期
(~5000个迷你批次)
后
的
损失值比运行Ubuntu
的
不同机器上
的
第一个
时期
后
的
损失值小2倍。对于另一台机器,我
在
中央处理器和图形处理器(英特尔至强E5-16
浏览 0
提问于2017-06-12
得票数 2
1
回答
AutoEncoder无法理解为什么我
的
解码图像看起来像热图?
、
我
在
实现变分
自动
编码器
时遇到了一个很大
的
问题,那就是所有的图像最终看起来都是这样
的
: 当真实图像是这样
的
: 训练集是CIFAR10,预期
的
结果是设法构建相似的图像。虽然结果似乎正确地预测了特征图,但我不明白为什么50个
时期
后
的
结果是这样
的
。 我使用了更少和更多
的
过滤器,目前是128个。这一结果可能来自网络架构吗?或者是为数不多
的
纪元?使用
的</
浏览 2
提问于2018-10-23
得票数 0
1
回答
如何组合使用金属中不同着色器
的
呈现命令
编码器
、
、
、
、
我正在用金属写一个图形引擎,我使用模板缓冲器来掩盖场景中
的
球形谐波灯覆盖
的
卷。我使用了两个着色器,我需要每个灯3个绘图调用:一个是背面,另一个是正面,最后一个是用不同
的
着色器绘制光线。但是,如果我对金属文档有很好
的
理解,那么您需要“静态地”定义所有的传递,也就是说,对于您使用
的
每个着色器和渲染面,您需要一个不同
的
呈现命令
编码器
。这是正确
的
吗?这意味着我最终为我
的
灯创建了这个循环,这感觉很糟糕,因为我创造了很多
编码器
,
浏览 1
提问于2019-03-31
得票数 2
回答已采纳
1
回答
Terraform chef provisioner -如何更改应用程序版本
、
我想知道是否有任何解决方案可以销毁使用Terraform创建并配置了chef
的
AWS实例,以防安装chef
的
应用程序版本发生变化。我脑海中
的
场景如下: //name = "some_service_aws_launch_config= "terraform_asg_some_service" propagate_a
浏览 5
提问于2018-01-22
得票数 0
1
回答
利用交叉熵损失去噪
自动
编码器
饱和输出
、
、
我
在
CIFAR10数据集上使用这个去噪
自动
编码器
的
CIFAR10,该数据集已经缩放为0,1。Batch size = 50我对正在发生
的
事情稍有了解。交叉熵损失
在
代码中定义为-
浏览 4
提问于2017-11-01
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
何恺明MAE大火后,想梳理下视觉Transformer?这篇梳理了100多个
教自动编码器学会「自我纠正」,DeepMind提出语言模型“SUNDAE”
OpenAI文本生成3D模型再升级,数秒完成建模,比Point·E更好用
【前沿技术】软体机器人的循环学习联合优化算法
极简的CFD软件in:Flux
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券