腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
在
Pytorch
中
理解
简单
神经网络
的
参数
、
我
在
Pytorch
中
定义了一个
简单
的
神经网络
,如下所示: nn.Linear(1, 5), nn.Linear(5, 1)) [parameter.shape for parameter in my_model.parameters()][torch.Size
浏览 10
提问于2020-05-18
得票数 3
回答已采纳
1
回答
使用归一化
的
权重创建一个
简单
的
PyTorch
神经网络
、
我想创建一个
简单
的
PyTorch
神经网络
,它
的
权重之和等于1。为了
理解
我
的
问题,这里给出一个例子: ?
浏览 31
提问于2021-09-07
得票数 0
回答已采纳
1
回答
加权均值和方差
的
更新
、
、
、
、
我试着从论文
神经网络
中
的
权重不确定性
的
反推算法来
理解
贝叶斯,其思想是建立一个
神经网络
,其中每个权重都有它自己
的
概率分布。我明白这一理论,但我不明白如何更新学习部分
的
均值和方差。我
在
Pytorch
中找到了一个代码,它
简单
地做到了:def __init__(self, in_features, out_features允许它
的<
浏览 0
提问于2021-04-14
得票数 1
1
回答
神经网络
命名规则
、
、
神经网络
有什么标准
的
命名约定吗?我对
神经网络
的
编程还很陌生,但我注意到很多教程和书籍之间
的
一致性,我想熟悉命名约定,但找不到任何来源。一个例子是'X‘通常是大写
的
,'y’是数据集
的
小写。
浏览 4
提问于2018-01-27
得票数 1
回答已采纳
2
回答
pytorch
attention seq2seq教程
中
的
错误?
、
我正在用
Pytorch
编写序列
神经网络
的
序列。
在
official
Pytorch
seq2seq tutorial
中
,有一个注意力解码器
的
代码,我不能
理解
/认为可能包含错误。它通过连接输出和此时
的
隐藏状态来计算每个时间步
的
注意力权重,然后乘以一个矩阵,得到一个大小等于输出序列长度
的
向量。注意,这些注意力权重不依赖于编码器序列(
在
代码
中
命名为encoder
浏览 37
提问于2019-05-03
得票数 1
1
回答
前馈网络
的
接受域
、
、
我对人工智能和
神经网络
非常陌生。我已经
在
PyTorch
中
实现了一个前馈
神经网络
,用于对MNIST数据集进行分类。现在,我想要可视化隐藏神经元(子集)
的
感受野。但我在
理解
接受域
的
概念时遇到了一些问题,当我
在
谷歌上搜索时,所有的结果都是关于CNNs
的
。那么,有没有人可以帮助我
在
PyTorch
中
如何做到这一点,以及如何解释结果?
浏览 3
提问于2019-12-02
得票数 0
2
回答
从已知物理
中
模拟不确定性
、
、
、
、
我知道\lambda\left(s\right)
的
真正解决方案是\sin \left( s\right) \cos\left(s\right) df[f'{a}_{s0}'] = sol.y.T 在上面的代码
中
,df_true是一个包含系统实际动态
的</
浏览 0
提问于2023-05-25
得票数 4
2
回答
为什么torch.nn.Sigmoid是类而不是方法?
、
我
在
试着弄清楚火把是如何工作得更好。通常,
在
定义
神经网络
类时,
在
init()构造函数
中
,人们会编写self.sigmoid = nn.Sigmoid(),以便在前进()方法
中
,他们可以多次调用sigmoid函数,每次都必须恢复nn.Sigmoid另外,我很好奇
在
torch.nn
中
“nn”指的是什么(包)?图书馆?)。 谢谢!
浏览 0
提问于2019-04-10
得票数 3
回答已采纳
1
回答
如何在
PyTorch
中
更新
神经网络
的
参数
?
、
假设我想用
PyTorch
(从继承
的
类
的
实例)
中
的
神经网络
的
所有
参数
乘以0.9。我该怎么做?
浏览 1
提问于2018-03-23
得票数 2
回答已采纳
1
回答
PyTorch
中
的
SGD优化器实际上是梯度下降算法吗?
、
、
我正在尝试比较
神经网络
中
SGD算法和GD算法
的
收敛速度。
在
PyTorch
中
,我们经常使用SGD优化器,如下所示。L.backward() optimizer.step() running_loss += L.item() 我在这里对优化器
的
理解
是因此,如果我们将batch_size
参数
设置为所有数据
的
大小,代码实际上会对
神经网络
进行
浏览 3
提问于2022-06-04
得票数 3
回答已采纳
1
回答
当我们打印一个
Pytorch
模型时,每个值
的
解释是什么?
我正在编写从github下载
的
代码。当我打印经过预先训练
的
模型时,我会在控制台输出
中
得到跟踪。有人能用图形
的
形式解释一下,每个步骤如何以图形
的
形式显示吗?如何阅读此模型摘要并以图表
的
形式表示?
浏览 1
提问于2022-10-17
得票数 1
1
回答
如何防止
PyTorch
对已赋值
的
值进行小更改
、
、
、
、
PyTorch
对我指定
的
值做了很小
的
修改,这在我
的
神经网络
中
造成了非常不同
的
结果。例如:b = torch.tensor(a)产出如下:
PyTorch
对我
的
变量a所做
的
小小改变在我
的
神经网络
中
造成了一个完全不同
的
结果我
的
浏览 5
提问于2021-02-20
得票数 0
回答已采纳
1
回答
PyTorch
如何在只有标量损失
的
情况下训练
神经网络
?
、
、
、
假设我们有一个NN,我们想要训练它来预测输入
中
的
3个值。我们有一组训练数据:目标呢?如果
pytorch
只计算一个标量作为损失函数,它如何进行训练?为什么它无法计算与每个输出神经元相关
的
损失?例如,如果x_train
的
答案是(20,32,0.12),我们不想更新与答案(25,37,0.12)相同
的
权重,对吗?但在这种情况下,使用
pytorch
计算
的
损失
浏览 15
提问于2021-02-28
得票数 0
回答已采纳
1
回答
访问卷积
神经网络
参数
、
、
、
我尝试从
pytorch
切换到tensorflow,由于该模型现在似乎
在
tensorflow
中
是固定
的
,因此
在
使用卷积
神经网络
时,我偶然发现了一个问题。我有一个非常
简单
的
模型,只有一个Conv1D层和一个大小为2
的
内核。我想在一个小
的
配置上训练它,比如16个输入大小,然后导出32个输入大小
的
训练结果。 我如何访问这个网络
中
的
3个
参数
?(2个内核,1
浏览 14
提问于2020-05-06
得票数 0
回答已采纳
1
回答
火炬传递
中
的
暹罗
神经网络
、
如何在
PyTorch
中
实现暹罗
神经网络
?
浏览 5
提问于2018-12-16
得票数 5
回答已采纳
1
回答
如何测试一组数字
的
每一个组合,以获得尽可能高
的
结果?(Python,Trading,Pine,TradingView)
、
先决条件说明: 谢谢你
的
帮助!我
浏览 2
提问于2021-11-18
得票数 0
2
回答
**kwargs属性
在
机器学习模型类
中
的
意义
、
我想知道
在
某些机器学习模型类
的
构造函数
中
通常添加
的
属性**kwargs
的
含义。例如,考虑
PyTorch
中
的
神经网络
:**kwargs是否与稍后定义
的
额外
参数
相关联?
浏览 8
提问于2021-09-01
得票数 0
回答已采纳
1
回答
计算
PyTorch
中
简单
神经网络
对
参数
的
Hessian
、
我是
PyTorch
的
新手,正在尝试计算一个非常
简单
的
前馈网络关于其权重
的
Hessian。我正在尝试让torch.autograd.functional.hessian正常工作。我一直
在
挖掘论坛,由于这是一个相对较新
的
功能添加到
PyTorch
中
,我无法找到关于它
的
大量信息。这是我
的
简单
网络架构,取自Kaggle on Mnist上
的
一些示例代码。optim.SGD(
浏览 58
提问于2021-09-03
得票数 1
1
回答
Pytorch
:如何在集群
中
的
多台机器上运行代码
、
、
我正在使用一个集群来训练一个使用
PyTorch
开发
的
递归
神经网络
。
PyTorch
自动线程,它允许并行使用机器
的
所有内核,而不必显式地为其编程。这太棒了!现在,当我尝试使用下面这样
的
脚本同时使用多个节点时:#$ -N comparison_of_architecture #$ -pe mvapich2-rostam 32cnelias/Deep-Jazz/logs/err_comparison_traini
浏览 7
提问于2019-09-05
得票数 0
2
回答
Tensorflow模型
的
超
参数
整定隐藏层大小和隐层数
、
、
、
我需要调整隐藏层
的
数量和它们
的
隐藏大小
的
回归模型。 正如我之前测试过
的
,由于有大量
的
超
参数
,一般
的
超
参数
优化算法(网格搜索和随机搜索)是不够
的
。我可以使用PBT或贝叶斯优化来调整网络结构吗?一般来说,除了网格搜索和随机搜索之外,是否有优化方法来调整隐藏层
的
大小或隐藏层
的
数目?
浏览 13
提问于2022-12-04
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
用简单Python代码理解神经网络中的卷积块
理解神经网络中的Dropout
深入理解Python中的位置参数
HTTP协议中的COOKIE机制简单理解
如何理解卷积神经网络中的1×1卷积?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券