腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(121)
视频
沙龙
1
回答
GRU
损失
降至
0.9
,但
不会
进一步
下降
,
PyTorch
python
、
deep-learning
、
pytorch
、
lstm
、
recurrent-neural-network
我用来进行
GRU
实验的代码。__init__() self.
gru
= nn.
GRU
torch.zeros(self.layers, x.size(0), 512).requires_grad_() x,hn = self.
gru
对于这些简单的输入数据,
GRU
损失
是如此之
浏览 40
提问于2020-10-15
得票数 2
回答已采纳
1
回答
在“高原上减少”上设定最低学习率
python
、
pytorch
我目前正在使用
PyTorch
的ReduceLROnPlateau学习速率调度程序:optimizer = optim.Adam(model.params, lrmodel.optimizer = optimizer我的问题是,
损失
将在几分钟内变得非常低,然后跳得很高,并
浏览 5
提问于2021-05-28
得票数 0
回答已采纳
1
回答
我的
Pytorch
模型给出的结果非常糟糕
tensorflow
、
deep-learning
、
pytorch
我是使用
Pytorch
进行深度学习的新手。我对Tensorflow更有经验,因此我应该说我对深度学习本身并不陌生。 x = self.bc6(x) return xmodel = Net()loss = nn.BCELoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.00001, betas=(<em
浏览 0
提问于2021-02-27
得票数 0
2
回答
验证
损失
和验证精度在神经网络模型中保持不变。
neural-network
、
keras
、
regression
、
accuracy
、
validation
activation='elu'))model.add(Dense( 2, activation='elu'))当我试图训练这个模型时,我得到了这个关于
损失
浏览 0
提问于2020-11-26
得票数 0
2
回答
GRU
语言模式训练不当
python
、
nlp
、
pytorch
、
recurrent-neural-network
、
gated-recurrent-unit
我尝试重新实现一个简单的
GRU
语言模型,只使用一个
GRU
和一个线性层(完整的代码也在上): def __init__(self, vocab_sizeembedded = self.embedding(inputs) # Matrix manipulation m
浏览 0
提问于2019-03-13
得票数 0
2
回答
小批量比批量梯度
下降
性能差吗?
deep-learning
、
neural-network
我可以从批量梯度
下降
(批量大小为37000)获得相当好的结果,
但
当我尝试小批量梯度
下降
时,我得到了非常差的结果(即使使用adam和dropout)。训练
损失
似乎在1.6%左右,并且
不会
随着任何
进一步
的迭代而减少,
但
当我增加批量大小(从而提高精度).And时,它会慢慢减少。最终,为了获得最大精度,我达到了37000的批量大小。
浏览 31
提问于2020-07-11
得票数 1
1
回答
pytorch
损失
不降低,验证精度保持不变。
python
、
machine-learning
、
neural-network
、
pytorch
、
recurrent-neural-network
我正在text-classification任务上使用
Pytorch
训练一个模型(输出维数为5)。我的网络就像下面的代码一样被实现。class
GRU
(nn.Module): super(
GRU
, self).loss_func = nn.CrossEntropyLoss() optimizer = SGD(model.parameters(), lr=learning_rate, weight_decay=
0.9</
浏览 3
提问于2021-11-17
得票数 1
1
回答
神经网络的验证精度
neural-network
、
deep-learning
、
cross-validation
、
training
通常,我停止训练时,验证准确性开始
下降
-一个迹象的过度拟合。📷 从技术上讲,我不知道该模型是否能
进一步
改进,
但
假设它
不会
改进是否合理呢?同样,这仅适用于计算能力有限的大型数据集。有了足够的计算能力,我可以等到验证精度
下降
。
浏览 0
提问于2018-03-24
得票数 1
2
回答
一段时间后第一层的MLP输出为零。
tensorflow
、
machine-learning
、
keras
、
neural-network
、
deep-learning
以下是我到目前为止尝试过的,
但
没有成功的: 任何帮助或领导将不胜感激,我将乐意提供代码或数据,如果需要!我还测试了一个随机数据集,其中输入是随机数,输出是输入的线性函数,
损失
很快收敛到
浏览 1
提问于2019-11-18
得票数 2
回答已采纳
3
回答
精密微调预培训变压器
nlp
、
transfer-learning
、
transformer
为了克服过拟合,我把变压器的每一层的
下降
率从0.1调到0.5。这是行不通的。因此,我通过冻结前10层(总共11层+1层),减少了可训练参数的数量(因为变压器有大量的参数)。即使这样也不起作用。这是
损失
图:我的问题是:你认为我的分析有什么缺陷吗?我能做些什么来减少过度适应吗?如果我的分析是正确的,那么“用小数据集微调预先训练过的变压器”的说法有点误导,数据集也不应该那么小。
浏览 0
提问于2020-08-12
得票数 4
4
回答
验证
损失
不增加
deep-learning
、
image-classification
、
image
我在20个样本上训练它过适应,现在理论上训练
损失
应该减少,验证
损失
应该增加。因为模特不应该学任何东西,但我的火车和瓦尔
损失
都在减少。我怎样才能把它
进一步
分类呢? 📷
浏览 0
提问于2022-08-15
得票数 0
2
回答
二进制分类器只进行一次预测
classification
、
deep-learning
、
tensorflow
我试过/想过的事情:我减少了我的负面例子,正如我上面所说,因为我有这个问题之前,我削减(基本上是预测所有的负面立即)。
浏览 0
提问于2017-06-23
得票数 7
1
回答
用TensorFlow在GPU上计算梯度时系统挂起
tensorflow
、
nvidia
、
ubuntu-16.04
我可以计算我的图形中的所有节点,包括我的
损失
函数,在我的GPU上没有问题。无论使用哪个优化器,当我计算GPU上的渐变时,我的系统都会挂起。tf.Variable(0, name="global_step", trainable=False) sess.run([grads_and_vars], feed_dict) sess.run([cnn.l
浏览 2
提问于2017-04-14
得票数 0
2
回答
神经网络的实现
python
、
machine-learning
、
neural-network
optimizer='sgd', metrics=['accuracy']) 另外,我尝试了许多层,激活函数,
损失
函数
浏览 3
提问于2016-12-01
得票数 1
1
回答
没有分类任务的边框回归
deep-learning
、
regression
、
pytorch
、
computer-vision
、
overfitting
我正在使用
PyTorch
创建一个模型来检测图像中的某些对象。我把我的问题描述成一个在边框上的回归,没有任何分类任务。我有2块Conv2d和MaxPool2d,之后我有3块线性关系-Dropout,最后不平坦地重塑模型的输出,以适应我的
损失
函数计算。我使用的是平均约简的DIoU
损失
函数。我所遇到的情况如下:我的训练
损失
下降
到了一定程度,它也变成了常数。无论我尝试的正规化技术(我尝试了Dropout和重量衰减)还是学习速率选择,我尝试设定一个更大的值,以避免
浏览 0
提问于2022-09-27
得票数 0
1
回答
图像压缩(Grunt)
javascript
、
node.js
、
gruntjs
、
grunt-contrib-imagemin
我想测试一下imagemin-contrib在Grunt.js上的表现。我选择了三个jpg随机图像(大小分别为44 up,92 up,77 up),并设置了文件夹和插件。我想知道这对于“优化图像”是否正常?我还以为会有更大幅度的缩小呢。难道我所选择的图像已经被简单地优化了吗?或者是我写的咕噜命令?module.exports = function(grunt) { grunt.initC
浏览 0
提问于2017-12-01
得票数 1
回答已采纳
1
回答
GAN不能同时收敛于鉴别器和发电机损耗为0。
python
、
tensorflow
、
keras
、
deep-learning
、
generative-adversarial-network
生成256个随机潜在数据向量 我从这些设置中得到了公平的结果。判别器损耗在0.60~0.70之间,发电机损耗在0.70~1.00之间,
但
质量改善缓慢。因此,我添加了批归一化层到所有(转置)卷积,除了在发电机输出,通常建议。加批归一化后,训练
损失
不稳定,但不直接发散。判别器损耗
降至
0.20~0.40,发电机损耗在1.00~3.00之间变化。 我试过动量= 0.8或
0.9
,它们给出了类似的行为。在此情况下,判别器和发电机损
浏览 4
提问于2020-01-19
得票数 3
1
回答
丢失和准确-这些是合理的学习曲线吗?
machine-learning
、
neural-network
、
keras
、
classification
、
loss
误差似乎在不断减少,
但
准确性似乎没有以同样的方式增加。精确学习曲线中的平坦区域意味着什么?为什么即使误差似乎在减小,这些区域的精度却没有提高?adam = optimizers.Adam(lr=0.0005, beta_1=
0.9
浏览 1
提问于2017-12-14
得票数 19
回答已采纳
2
回答
在神经网络上使用model.eval()每次对非常不同的输入产生相同的输出
python
、
machine-learning
、
testing
、
deep-learning
、
pytorch
我有一个简单的网络,用
pytorch
实现, #self.Optimizer = tor.optim.AdamW(self.parameters())#tor.optim.SGD(self.parameters(), lr=1e-2, momentum=
0.9
但是,如果我重新启动模型的参数,我将得到一个新的pred,它
不会
随着不同的输入而改变。除非我再次使用model=networ
浏览 5
提问于2021-07-02
得票数 2
回答已采纳
1
回答
MySQL查询缓存效率
mysql
、
ubuntu
我正在使用MySQLTuner.pl来优化我的网站...虽然我不完全确定如何解决其中的一些问题,我想知道是否有人可以帮助我。key_buffer = 100Mthread_stack = 192Kmax_connections = 750
浏览 2
提问于2012-09-13
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教你几招搞定 LSTMS 的独门绝技
AT&T第一季度广告收入下降12.9%,付费电视业务收入下降
外媒预测:美国消费者在11月和12月的网购金额将超过1900亿美元
从基础概念到实现,小白如何快速入门PyTorch
手把手教你用PyTorch实现图像描述
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券