腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
pytorch
加载
模型
不是
相同
的
softmax
概率
python-3.x
、
pytorch
、
softmax
在使用
pytorch
加载
模型
后,我无法重现
相同
的
结果。我正在训练一个
模型
'net‘,在同一个文件中,在训练之后(kfold),然后
模型
被保存,并在一个特定
的
测试文件中进行测试: class model(nn.Module): x = x.view(-1, int(self.T/2))
浏览 14
提问于2019-02-06
得票数 1
2
回答
pytorch
的
交叉损失与keras
的
"categorical_crossentropy“有区别吗?
keras
、
deep-learning
、
neural-network
、
pytorch
我正在尝试在keras中模仿
pytorch
神经网络。我确信我
的
keras版本
的
神经网络与
pytorch
中
的
非常接近,但在训练过程中,我看到
pytorch
网络
的
损失值比keras网络
的
损失值要低得多。我想知道这是
不是
因为我没有正确复制keras中
的
pytorch
网络,或者两个框架中
的
损失计算是不同
的
。L2正则化kernel_regularizer=regulariz
浏览 555
提问于2020-04-26
得票数 3
回答已采纳
1
回答
适用于CrossEntropyLoss
的
PyTorch
LogSoftmax vs
Softmax
pytorch
、
cross-entropy
我知道
PyTorch
的
LogSoftmax函数基本上只是一种更稳定
的
计算Log(
Softmax
(x))
的
方法。
Softmax
允许您将线性层
的
输出转换为分类
概率
分布。
pytorch
documentation表示,CrossEntropyLoss将nn.LogSoftmax()和nn.NLLLoss()组合在一个类中。 查看NLLLoss,我仍然在使用2个日志吗?我认为负日志是事件
的
信息内容。(与entropy
浏览 26
提问于2020-12-08
得票数 9
回答已采纳
1
回答
Pytorch
-在
softmax
层之后选择最佳
概率
python
、
numpy
、
pytorch
、
softmax
我有一个使用
Pytorch
0.4.0
的
逻辑回归
模型
,其中我
的
输入是高维
的
,并且我
的
输出必须是标量- 0、1或2。我使用线性层和
softmax
层相结合来返回n x 3张量,其中每一列表示输入落入三个类别(0、1或2)之一
的
概率
。但是,我必须返回一个n x 1张量,因此我需要以某种方式为每个输入选择最高
的
概率
,并创建一个张量来指示哪个类具有最高
的
概率
。如何使用
浏览 107
提问于2018-06-10
得票数 5
回答已采纳
1
回答
Pytorch
Softmax
给出nans和负值作为输出
python
、
pytorch
、
softmax
我在我
的
模型
末尾使用
softmax
。 然而,经过一些训练后,
softmax
给出了负
的
probability.In,我也遇到了一些情况下
的
nans
概率
。我在搜索中发现
的
一个解决方案是使用标准化
的
softmax
…然而,我找不到任何关于这个
的
pytorch
实现。有没有人可以帮忙告诉我,是否有一个标准化
的
softmax
可用,或者如何实现它,以便向前和向后
浏览 180
提问于2020-09-09
得票数 3
回答已采纳
1
回答
如何正确使用交叉熵损失对软件最大值进行分类?
python
、
deep-learning
、
pytorch
、
softmax
、
cross-entropy
我想训练一个多类别的分类器,用
Pytorch
。这让我很困惑。 我在
Pytorch</em
浏览 2
提问于2020-12-22
得票数 3
回答已采纳
1
回答
GRU损失降至0.9,但不会进一步下降,
PyTorch
python
、
deep-learning
、
pytorch
、
lstm
、
recurrent-neural-network
我用来进行GRU实验
的
代码。512,100) self.fc2 = nn.Linear(100,5) loss.backward() opt.zero_grad()print(o[0]) 缩小
的
输出对于这些简单
的
输入数据,GRU损失是如此之大。原因何在?这段代码中有什么错误吗?我使用
浏览 40
提问于2020-10-15
得票数 2
回答已采纳
1
回答
错误
概率
- OpenCV图像分类
c++
、
opencv
、
image-processing
我使用了与教程中完全
相同
的
图片(老虎图片)。问题是,他们得到91%
的
匹配,而我只得到14%。} 如果有人能帮我,我会很感激
的
!
浏览 3
提问于2021-12-03
得票数 0
回答已采纳
3
回答
如何使用
pytorch
创建具有多个输出
的
神经网络?
pytorch
我
的
问题对吗?我到处找了看,但什么也找不到。我很确定当我学习keras时这个问题已经解决了,但是我如何在
pytorch
中实现它呢?
浏览 376
提问于2019-03-13
得票数 9
回答已采纳
1
回答
如何从
PyTorch
中
的
概率
计算交叉熵?
deep-learning
、
pytorch
、
loss-function
、
cross-entropy
默认情况下,
PyTorch
的
cross_entropy以logits (来自
模型
的
原始输出)作为输入。我知道CrossEntropyLoss将LogSoftmax ( log (
softmax
(X)和NLLLoss (负日志似然损失)合并在一个类中。因此,我认为我可以使用NLLLoss从
概率
中获得交叉熵损失如下:
概率
: 0.1,0.9,0.9,0.1,0.2,0.8 其中,y_i,j表示真值,即如果示例ip_i,j表示属于j类
浏览 2
提问于2020-02-11
得票数 4
回答已采纳
1
回答
PyTorch
教程中
的
交叉熵计算
machine-learning
、
deep-learning
、
pytorch
、
cross-entropy
我正在阅读关于多类分类问题
的
Pytorch
教程。而我发现,在毕道尔
的
损失计算行为让我很困惑。你能帮我做这个吗?用于分类
的
模型
如下: def __init__(self):
模型
的
输出,它是一个10乘1
的
张量,其中包含不同
的
值。这是一个不归一
浏览 3
提问于2020-06-02
得票数 2
回答已采纳
4
回答
softmax
_cross_entropy_with_logits
的
PyTorch
等价性
tensorflow
、
pytorch
、
cross-entropy
我想知道TensorFlow
的
softmax
_cross_entropy_with_logits是否有等效
的
PyTorch
损失函数
浏览 0
提问于2017-09-14
得票数 14
1
回答
dim=0/1在火炬和nn.
softmax
中
的
应用?
python
、
pytorch
当使用nn.
softmax
()时,我们使用dim=1或0。在这里,dim=0应该根据直觉来表示行,但它似乎意味着沿着列。这是真的吗?>>> x = torch.tensor([[1,2],[3,4]],dtype=torch.float)tensor([[0.1192, 0.1192],>>> F.
softmax
(x,dim=1)
浏览 6
提问于2021-09-17
得票数 0
回答已采纳
2
回答
尝试理解
PyTorch
中
的
cross_entropy损失
python
、
machine-learning
、
pytorch
这是一个非常新手
的
问题,但我正试图理解cross_entropy在Torch中
的
损失,所以我创建了以下代码:它输出以下内容:tensor(0.5514) 我不明白
的
是,假设我
的
输入与预期
的
输出相匹配,为什么损失
不是
0?
浏览 8
提问于2019-07-23
得票数 3
回答已采纳
2
回答
如何从numpy数组中获取top-K值
的
索引
python
、
numpy
、
keras
、
pytorch
假设我有来自
Pytorch
或Keras预测
的
概率
,结果是
softmax
函数probs =
softmax
(np.random.randn我想要做
的
就是在结果上运行一个循环,如下所示: if index in result:我会知道我
的
结果是否在前
浏览 8
提问于2020-11-27
得票数 0
1
回答
我微调了一个预先训练好
的
BERT来进行句子分类,但我不能让它预测新
的
句子
python
、
machine-learning
、
nlp
、
pytorch
、
huggingface-transformers
下面是我微调
的
结果。 Training Loss Valid. Loss Valid. Accur.054 0.02 0.16 0.96 0:02:21 0:00:05 接下来,我尝试使用该
模型
从,但我无法实际获得预测
的
标签{0或1}。我是
不是
漏掉了什么?
浏览 6
提问于2020-03-30
得票数 0
回答已采纳
1
回答
PyTorch
软最大输出总和
不是
1
pytorch
、
softmax
交叉过帐output = F.
softmax
(self.weights(x), dim=1) 但是仔细研究之后,我发现torch.all(torch.sum(output我对
softmax
有什么误用,以至于输出
浏览 51
提问于2019-10-30
得票数 2
回答已采纳
1
回答
帮助培训XGB
tensorflow
、
xgboost
、
cross-validation
我为一个高度监管
的
实体工作,所以我必须混淆我正在做
的
事情;我将提供下面的例子来说明我正在做
的
事情。然而,我
的
测试数据不仅仅是关于狗
的
,而是关于动物
的
。所以数据可以是关于狗,猫,大象,什么
的
。现在,XGB
模型
给出了它
浏览 0
提问于2018-02-09
得票数 1
8
回答
单词logits在TensorFlow中
的
含义是什么?
tensorflow
、
machine-learning
、
neural-network
、
deep-learning
、
cross-entropy
在下面的TensorFlow函数中,我们必须在最后一层提供人工神经元
的
激活。我能理解。但是我不明白为什么它被称为logits?这
不是
一个数学函数吗?loss_function = tf.nn.
softmax
_cross_entropy_with_logits( labels = target_output
浏览 2
提问于2017-01-04
得票数 343
3
回答
如何利用火炬中
的
交叉熵损失进行二值预测?
pytorch
在火炬文档中,交叉熵损失是这样说
的
:这是否意味着对于二进制(0,1)预测,输入必须转换为(N,2)张量,其中第二维等于(1-p)?因此,例如,如果我预测一个类
的
目标1 (true)为0.75,是否需要将两个值(0.75;0.25)叠加在一起作为输入?
浏览 0
提问于2018-08-18
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
pytorch深度学习和自然语言处理入门
Pytorch实现skip-gram模型训练word2vec
人工神经网络・Softmax多分类
8年了,Transformer注意力机制一直有Bug?
谈Softmax激活函数以及Softmax回归和Logistic回归关系
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券