腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
当我
使用
torch.nn.CrossEntropyLoss
时
,
我
必
须在
def
forward
中
添加
softmax
吗
?
python
、
pytorch
、
softmax
https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html
当我
阅读上面的内容
时
,
我
了解到torch.nn.CrossEntropy所以我认为转发函数不一定要包含
softmax
。例如,返回self.fc(x)而不是返回nn.
softmax
(self.fc(x))。然而,
我
很困惑,因为
我
已经看到了几个
使用
这两种
浏览 190
提问于2020-10-25
得票数 2
1
回答
不需要预测的MSE
deep-learning
、
pytorch
、
loss-function
、
mse
这是一个回归模型,
我
试图从x值(输入)预测y值(输出)。每个类都被赋予了不同的平均值,并
使用
l2标准化进行了标准化: x_values = sklearn.preprocessing.normalize(x_values, norm="l2") 这可能看起来像是一个试图
使用
回归解决的分类问题
我
试图理解PyTorch
中
的多类回归,因为PyTorch文档给出了以下示例,表明多类回归是可能的: >>> loss = nn.MSELoss() >>> inp
浏览 16
提问于2020-07-23
得票数 0
回答已采纳
2
回答
在PyTorch
中
手动更新权重
时
,渐变为零
python
、
pytorch
= pytorch_
softmax
(logits) pytorch_cross_entropy =
torch.nn.CrossEntropyLoss
(reduction='elementwise_mean= feed_
forward
(x.float())
浏览 7
提问于2018-11-30
得票数 1
1
回答
RuntimeError:预期标量型浮点数,但发现了双错误的
torch.nn.CrossEntropyLoss
割炬
python
、
pytorch
、
cross-entropy
我
正试着训练一个火把模型。损失函数是:来自培训功能的代码片段:(在原始代码
中
,targets的数据类型已
使用
torch.tensor(targets, dtype=torch.long, device=device)转换为torch.int64。然而,
当我
得到 错误-
浏览 7
提问于2022-02-14
得票数 -1
回答已采纳
1
回答
在训练过程
中
,验证的准确性没有提高。
tensorflow
、
tensorflow2.0
我
有一个问题,验证准确性,同时训练超声图像,以分类良性和恶性图像
使用
转移学习与ResNet50。
我
在网上找到的大部分代码试图应用到我的培训目标
中
。
我
正在
使用
Tensorflow 2.1并在CNN进行培训。
我
的代码是: # -*- coding:
浏览 0
提问于2020-04-30
得票数 0
2
回答
如何利用pytorch nn.Transformer进行序列分类?
machine-learning
、
deep-learning
、
pytorch
、
text-classification
、
transformer-model
我
正在
使用
nn.TransformerEncoder()执行序列分类任务。其管道类似于nn.LSTM()。当
使用
nn.LSTM和最后一个隐藏状态
时
,
我
可以很容易地达到83%的精度。
我
尝试了大量的超参数的nn.TransformerEncoder(),但没有任何提高的准确性。
我
现在不知道该怎么调整这个型号。你能给我一些实用的建议
吗
?谢谢。对于LSTM:
forward
()是:
def
forward</e
浏览 15
提问于2019-09-25
得票数 2
1
回答
为什么对激活值(
Softmax
)的预测会给出错误的结果?
python
、
tensorflow
、
machine-learning
、
neural-network
、
deep-learning
我
使用
Tensorflow从头开始实现了一个基本的神经网络,并在MNIST时尚数据集上对其进行了训练。它经过了正确的训练,并输出了超过10个类别的~88-90%测试精度。现在
我
已经编写了predict()函数,它
使用
经过训练的权重来预测给定图像的类别。(p, feed_dict={X: images}) 这
使用
了
forward
_propagation()函数,该函数返回最后一层(Z)而不是活动(A)的加权和()函数
中
,<em
浏览 10
提问于2019-08-04
得票数 2
回答已采纳
1
回答
为什么sigmoid的多类分类会失败?
deep-learning
、
pytorch
、
loss-function
、
multiclass-classification
、
activation-function
使用
Sigmoid训练的MNIST失败,而
Softmax
工作正常
我
试图调查不同的激活是如何影响最终结果的,所以我用PyTorch实现了一个简单的MNIST网络。
我
使用
NLLLoss (负对数似然),因为它在与
softmax
一起
使用
时实现了交叉熵损失。
当我
将
softmax
作为最后一层的激活
时
,它工作得很好。但
当我
使用
sigmoid
时
,
我
注意到事
浏览 34
提问于2019-04-02
得票数 1
回答已采纳
2
回答
为什么斯科尔奇在每一个时代都要展示南?
python
、
scikit-learn
、
pytorch
、
skorch
我
希望基于Skorch的dataset类创建自己的Dataset类,因为
我
想区分分类列和连续列。这些分类列将通过模型
中
的嵌入层传递。0.1719 5 nan nan 0.1406from skorch import NeuralNetRegressor from skorch.datase
浏览 0
提问于2018-11-20
得票数 3
回答已采纳
1
回答
Pytorch
中
的L1正则化神经网络不产生稀疏解
neural-network
、
pytorch
我
正在用pytorch实现一个带有l1正则化的神经网络。
我
直接将l1范数惩罚加到损失函数
中
。
我
的代码粘贴在下面。
forward
(self, x: torch.Tensor) -> torch.Tensor:
forward
propagation process, required1) output = model(inp
浏览 38
提问于2020-01-28
得票数 0
回答已采纳
3
回答
numpy :计算
softmax
函数的导数
python
、
numpy
、
neural-network
、
backpropagation
、
softmax
我
正在尝试用MNIST在一个简单的3层神经网络
中
理解backpropagation。有几个在线资源对
softmax
及其衍生产品进行了解释,甚至给出了
softmax
本身的代码示例 ""这是
我
想出来的一个简单的代码片
浏览 1
提问于2016-11-14
得票数 16
回答已采纳
3
回答
AttributeError:'str‘对象在pytorch
中
没有'dim’属性
python
、
python-3.x
、
tensorflow
、
machine-learning
、
bert-language-model
在将模型预测发送到模型
中
时
,
我
在PyTorch
中
得到了以下错误输出。有人知道这是怎么回事
吗
?
浏览 0
提问于2020-12-01
得票数 5
1
回答
Pytorch神经网络错误
machine-learning
、
neural-network
、
pytorch
我
正在尝试
使用
Pytorch计算某个机器学习模型的损失和准确性,但在初始化数据集以使其可以运行时遇到了问题。
使用
月球数据集
时
,
我
在运行代码时会遇到一些错误。x, y = Variable (torch.from_numpy(X_train)).float(), Variable(torch.from_numpy(y_train)).float()
def
__init__(self): super(So
浏览 0
提问于2020-11-29
得票数 0
3
回答
softmax
函数对高输入返回nan的实现
python
、
softmax
我
正试图在cnn的末尾实现
softmax
,
我
得到的输出是nan和0。
我
在10-20k左右给
softmax
提供高输入值,
我
给出了一个X=[2345,3456,6543,-6789,-9234]数组
def
softmax
(X): C=np.sum(np.exp(X))
我
得到了true divide and run
浏览 12
提问于2019-02-26
得票数 7
回答已采纳
1
回答
如何在AllenNLP中
使用
正则化?
deep-learning
、
nlp
、
allennlp
我
试图
使用
Allennlp作为
我
的NLP任务,并希望
使用
正则化,以减少过度拟合。然而,从所有的在线教程
中
,所有的正则化程序都被设置为无,而且经过多次尝试,
我
仍然无法找到如何
使用
正则化器。如果
我
使用
官方教程(https://github.com/titipata/allennlp-tutorial)
中
的示例,如果
我
想为LSTM和前馈层
添加
正则化
浏览 0
提问于2020-03-13
得票数 1
1
回答
图神经网络在PyTorch几何
中
的问题
pytorch
、
pytorch-geometric
我
正在尝试理解在PyTorch
中
实现的以下GNN模型的错误之处 class Net(torch.nn.Module): super().
def
forward
(): return F.log_
softmax
(x, dim=1)但是
当我
尝试运行训练循环
时
,
我
得到了以
浏览 37
提问于2021-10-07
得票数 0
1
回答
Pytorch
中
多输出模型的损失
machine-learning
、
deep-learning
、
pytorch
我
在PyTorch中有一个多输出模型,
当我
使用
相同的损失训练它们,然后反向传播
时
,
我
合并了两个输出的损失,但当一个输出损失减少时,其他输出损失增加,以此类推。
我
如何解决这个问题?
def
forward
(self, x): x = dense1(x) x1 = F.log_<em
浏览 21
提问于2019-07-02
得票数 3
2
回答
需要帮助理解tf.contrib.layers.fully_connected训练权重
tensorflow
用简单的术语来说,
我
认为
我
可以用一些精简的语句来传达正在发生的事情: .... ....return parameters # python dict 然后,在第二tf会话
中
,
使用
来自第一tf会话的训练参数进行预测。
当我
运行
浏览 23
提问于2019-08-05
得票数 0
1
回答
如何从检查点文件中加载一个调整好的pytorch模型?
python
、
machine-learning
、
pytorch
、
google-colaboratory
、
huggingface-transformers
我
在Py手电
中
微调了一个伯特模型,并通过torch.save(model.state_dict(), 'model.pt')保存了它的检查点。现在,
当我
想重新加载模型
时
,
我
必须再次解释整个网络,重新加载权重,然后推送到设备上。下面是培训代码,您可以尝试运行在colab本身!培训完成后,您将注意到在文件系统
中
我们有一个检查点文件。但我想拯救
浏览 9
提问于2022-03-21
得票数 1
回答已采纳
2
回答
如何创建一个层来反转
softmax
(TensforFlow,python)?
python
、
tensorflow
、
deep-learning
、
softmax
、
deconvolution
我
正在建立一个反卷积网络。
我
想
添加
一个与
softmax
相反的层。
我
尝试编写一个基本的python函数,该函数返回给定矩阵的
softmax
的逆,并将其放入tensorflow Lambda
中
,然后将其
添加
到我的模型
中
。
我
没有错误,但
当我
做预测时,
我
在出口处只有0。
当我
没有将这一层
添加
到我的网络
中
时
,
我</
浏览 82
提问于2020-11-03
得票数 1
回答已采纳
点击加载更多
相关
资讯
图神经网络入门示例:使用PyTorch Geometric 进行节点分类
手把手教你,从零开始实现一个稀疏混合专家架构语言模型(MoE)
使用PyTorch进行知识蒸馏的代码示例
ChatGPT为什么用transformer算法?它有什么优势?
pytorch深度学习和自然语言处理入门
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券