腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
对抗
性
训练
和测试
computer-vision
、
generative-adversarial-network
、
adversarial-machines
我确实理解
对抗
性
训练
意味着在
训练
过程中引入一些损坏的实例,以便在测试时混淆模型并产生错误预测。然而,这个模型是否适用于以下场景?但是,如果模型同时
训练
带有和没有补丁的两个实例,情况会怎样呢?对于对象分类器,这并不是很难执行,并且攻击失去了所有成功的机会,对吧?我不明白为什么这些攻击可以成功,如果对于模型来说,只需要稍微多一点的
训练
就可以包括这些
对抗
性样本。
浏览 99
提问于2019-05-22
得票数 0
1
回答
对抗
健壮的Googlenet模型
tensorflow
、
cleverhans
如何在自己的图像分类数据集上
对抗
性地
训练
googlenet模型? 例如:使用cleverhans库,有批处理要运行攻击的数据是MNIST和CIFAR。我用自己的数据(Googlenet)使用Tensorflow
训练
了一个图像分类器,现在我想用
对抗
性的例子来
训练
模型。我可以用cleverhans库做的任何想法。谢谢。
浏览 15
提问于2019-03-18
得票数 0
回答已采纳
1
回答
用非常长的数据
训练
时间序列数据的网络
neural-network
、
time-series
我可以对这个系列进行细分,并使用use或什么的,但我希望
训练
一个RNN、CNN或扩展CNN,以获得更好的结果,并在与每个类别相关的数据中学习一些有趣的模式。我已经用一些基本的CNN验证了这一点,在
训练
集上我可以获得很高的精度,但是验证集比机会更好,但是没有收敛到任何重要的精度。 对此有什么想法吗?也许是一种损失函数,它对学习来自同一个人的数据是不利的?
浏览 0
提问于2023-03-21
得票数 0
1
回答
Cleverhans加载预
训练
模型
cleverhans
有没有办法加载一个预先
训练
好的模型。我尝试过load("model.joblib")和save("model.joblib",model)函数,但加载的模型在验证数据上只有大约10%的准确性,并且成功地生成了大约10%的成功
对抗
性示例。保存前模型的准确率约为99.3%,生成的
对抗
性示例中约有87%是成功的。如果我将加载的模型
训练
为与原始模型相同的纪元数,那么我将获得预期的准确率和
对抗
性示例生成率。有没有一种方法可以保存模型,这样就可以加载模型而不需要重新
训练
浏览 17
提问于2020-05-12
得票数 1
回答已采纳
1
回答
在
对抗
性
训练
中,应该再使用Dropout口罩吗?
python
、
tensorflow
、
keras
、
neural-network
、
conv-neural-network
我正在使用来自的FGSM方法实现
对抗
性培训,使用自定义的损失函数:它在tf.keras中使用自定义丢失函数实现,在概念上如下所示: ...这可能是有问题的,因为允许模型使用新的辍学口罩可能会削弱
对抗
性批次的效果。 由于在Keras中实现下拉掩码的重用非常麻烦,所以我对重用掩码的实际效果很感兴趣。会有什么不同吗?
浏览 1
提问于2018-11-20
得票数 2
回答已采纳
1
回答
Tensorflow nsl和cleverhans中FGSM
对抗
训练
/扰动的差异
tensorflow
、
cleverhans
、
nsl
我在 (nsl)和库中实现了我认为是相同的模型
训练
循环,奇怪的是,它们显示了使用与两个库(通过nsl.AdversarialRegularization和cleverhans.attacks.FastGradientMethod)进行的
对抗
性培训的模型并没有达到类似的性能。我更普遍地好奇,nsl.AdversarialRegularization.perturb_on_batch()中的
对抗
性扰动与相同/类似功能(即FastGradientMethod.generate(然而,在经过
对抗
性
训练
的
浏览 9
提问于2020-04-07
得票数 0
1
回答
带有train_on_batch的优化器?
tensorflow
、
neural-network
、
keras
我手动进行循环
训练
(用于
对抗
性
训练
),但我希望自动调整学习速度。
浏览 1
提问于2018-05-21
得票数 3
回答已采纳
1
回答
为什么用相同的数据和相同的参数
训练
的GAN会产生不同的结果?
gan
、
generative-models
我试图
训练
一个生成的
对抗
性网络,并在相同的数据集和相同的参数下运行几次
训练
,但似乎tp产生了不同的结果。为什么会发生这种事?
浏览 0
提问于2020-10-15
得票数 2
1
回答
神经网络在无标签新域上的应用
neural-network
、
semi-supervised-learning
是否有解决以下问题的方法: 比方说,我在一个大型数据集上
训练
了一个神经网络,用于对k类中的不同水果进行分类。之后,我得到了一个很好的模型,它的表现非常好。不幸的是,我现在想分类的水果都还没有成熟,但我的
训练
集只包括成熟的水果。此外,我还有一些照片,这些不是成熟的水果,但没有标签。我现在唯一的想法是使用
虚拟
对抗
性
训练
(增值税)的未标记图片。
浏览 0
提问于2018-12-18
得票数 0
回答已采纳
1
回答
在cleverhans中哪种攻击是灰盒攻击,在cleverhans库中哪种攻击是白/黑盒攻击?
python
、
tensorflow
、
google-colaboratory
、
cleverhans
我使用生成
对抗
性图像,但没有提供攻击类别算法。我不知道哪种攻击算法是灰盒攻击,哪种是白盒攻击算法或黑盒攻击算法? 因为我需要算法的分类来研究攻击防御算法。
浏览 1
提问于2019-01-30
得票数 0
1
回答
针对函数而不是数据
训练
LSTM文本生成器
deep-learning
、
pytorch
if valid: else return 0注:我使用的是毕道尔。
浏览 3
提问于2021-11-15
得票数 0
1
回答
Cleverhans :
对抗
性图像-分类精度太高
deep-learning
、
cleverhans
我已经使用cleverhans API - generate_np方法生成了
对抗
性图像。并使用默认的cleverhans CNN分类器对图像进行分类。
浏览 11
提问于2019-06-05
得票数 0
2
回答
GAN是无人监督的还是有监督的?
machine-learning
、
neural-network
、
classification
我从一些来源听说生成式
对抗
网络是无监督的ML,但我不明白。生成性
对抗
网络实际上不受监督吗?1) 2类真假反假案例 实际上,人们必须向鉴别器提供
训练
数据,这些数据必须是“真实”数据,即我会用f.e标记的数据。1.即使没有显式地标记数据,也可以通过在第一步中向鉴别器提供
训练
数据来隐式地标记数据,您可以告诉鉴别器是真实的。这样,你就可以以某种方式告诉鉴别器
训练
数据的标签。必须在
训练
数据中提供描述。明显的矛盾是提供了对无监督最大似然算法的响应。
浏览 21
提问于2017-06-09
得票数 28
回答已采纳
1
回答
有可能获得更低的均方误差和更多的SpatialDropouts吗?
machine-learning
、
deep-learning
、
keras
、
keras-layer
我已经观察到有一个在5个Convolutional2D层中的每一层之后,在最初的几个时期内,
训练
和验证误差比没有这些丢失层的相同网络低得多(其他条件相同)。
浏览 8
提问于2017-01-30
得票数 0
回答已采纳
1
回答
什么是tensorflow中的神经结构学习?
machine-learning
、
neural-network
、
tensorflow
、
data-science-model
什么是神经结构学习? 神经网络和神经结构学习的区别是什么?
浏览 0
提问于2020-03-12
得票数 1
回答已采纳
1
回答
理解生成
对抗
性网络
machine-learning
、
keras
、
deep-learning
、
generative-adversarial-network
1.初始
训练
(100个历元,500个批次/期,10个样本/批次) 这些结果都是基于除了
对抗
性loss?It以外的其他损失,这些结果表明鉴别器无法跟上产生更好图像的生成器。我认为鉴别器激活应该提前到大约0(假标签
浏览 1
提问于2020-02-03
得票数 6
1
回答
博弈论在生成
对抗
网络中的应用
python
、
tensorflow
、
deep-learning
、
generative-adversarial-network
我们知道生成性
对抗
网络的
训练
是基于博弈论的,并且在
训练
过程中达到了纳什均衡。但当使用tensorflow:查看GAN样本时, 我在代码中没有发现博弈论在哪里被应用,纳什均衡在哪里被估计。
浏览 32
提问于2020-02-19
得票数 0
回答已采纳
4
回答
我们能用生成的
对抗
性网络生成巨大的数据集吗?
deep-learning
、
gan
我正在处理一个问题,我找不到足够的数据集(图像)来输入我的深层神经网络进行
训练
。 斯科特·里德等人发表的论文“生成
对抗
性文本到图像合成”给了我很大的灵感。生成
对抗
性网络。
浏览 0
提问于2017-04-04
得票数 15
回答已采纳
1
回答
关于使用冻结层进行
训练
的Keras问题
python
、
tensorflow
、
keras
两个模型都是使用train_on_batch同时
训练
的。我不明白的是,model_adversarial的net_discriminator部分的权重是如何通过
训练
model_discriminator来更新的。对我来说,它们是两个独立的网络,
训练
一个包含net_discriminator层的模型不应该影响另一个模型。此外,这些层在adversarial模型中是冻结的,所以这不是应该阻止它们被
训练
吗?
浏览 1
提问于2019-06-27
得票数 0
2
回答
利用深度学习软件自动生成艺术展图像
neural-network
、
deep-learning
、
algorithms
、
gan
我的追求是创造出一种类似于怪诞的东西(一种产生人、动物和植物混合体的绘画)。我需要做一些像这幅画一样的事情来创造一个艺术展览。我不需要生成的图像是纵坐标或美丽的,只是可怕的图像自动生成的计算机。有人能帮我吗?能在一个月内完成吗?
浏览 0
提问于2018-04-16
得票数 11
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对抗训练
射击训练再度升级!人机对抗拉开序幕——
精准防御对抗性攻击,清华大学提出对抗正则化训练方法DeepDefense
虚拟情景助力认知障碍训练?加力健康认知康复训练系统!
虚拟情景交互训练的介绍和特点,老人康复训练的选择!
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券