腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(2501)
视频
沙龙
1
回答
为什么
我
的
内核
在用
PyTorch
训练
我
的
神经网络
时会
死掉
然后
重启
?
、
、
我
是python和
PyTorch
的
初学者,
我
必须实现一个用于图像识别的
神经网络
。
我
使用
的
是Macbook Pro (10.14),
我
使用pip安装了
Pytorch
。这是
我</em
浏览 0
提问于2019-03-16
得票数 1
1
回答
每次
重启
后降低最大学习率
、
、
、
、
我
正在
训练
一个
神经网络
来完成一个基于计算机视觉
的
任务。对于优化器,
我
发现在整个
训练
中使用单一
的
学习率并不理想,人们所做
的
就是使用学习率调度器以特定
的
方式衰减学习率。因此,为了做到这一点,
我
尝试了
PyTorch
's CosineAnnealingWarmRestarts().,它
的
作用是以余弦方式退火/降低初始学习率(由我们设置),直到它
重启
。在
浏览 46
提问于2020-06-17
得票数 1
1
回答
访问卷积
神经网络
参数
、
、
、
我
尝试从
pytorch
切换到tensorflow,由于该模型现在似乎在tensorflow中是固定
的
,因此在使用卷积
神经网络
时,
我
偶然发现了一个问题。
我
有一个非常简单
的
模型,只有一个Conv1D层和一个大小为2
的
内核
。
我
想在一个小
的
配置上
训练
它,比如16个输入大小,
然后
导出32个输入大小
的
训练
结果。
我
如何访问
浏览 14
提问于2020-05-06
得票数 0
回答已采纳
1
回答
如果图像
的
颜色格式是BGR而不是RGB,是否会影响NN
训练
精度?
、
、
、
我
正
在用
ImageNet数据集
训练
神经网络
,
我
注意到当我使用OpenCV函数cv2.imread()读取图像时,它们是BGR颜色格式
的
,所以这会影响
训练
精度吗?如果是,那么
我
如何在
pytorch
中将其更改为RGB?
浏览 18
提问于2021-08-27
得票数 1
1
回答
测试数据
的
大小不适合模型(python)
、
我
在测试
我
的
模型时遇到了问题,当我
训练
我
的
模型时,它工作得很好。然而,当我尝试将测试数据放入模型中时,它给出了大小不匹配
的
错误,这是
我
所期望
的
。
我
把
我
的
数据分成了70%
的
训练
和30%
的
测试。
我
明白
为什么
会这样,但我不能解决它。numpy()[:100] , ypred_test.detach(
浏览 20
提问于2020-12-10
得票数 0
1
回答
将pytroch中
的
数据子处理加载到Google中
、
、
、
我
正
在用
pytorch
训练
一个深度
神经网络
,
我
使用DataLoader对数据进行预处理,并对数据集进行多处理。
我
将num_workers属性设置为4这样
的
正数,batch_size为8。
我
在Google Colab环境下
训练
网络,但当
训练
持续几分钟后,停止
训练
,在读取.PNG文件时出错。
我
认为这是内存错误,
我
想知道GPU
的
数与b
浏览 0
提问于2018-04-01
得票数 0
1
回答
填充平均池
的
理想行为是什么?
、
、
、
、
最近,
我
训练
了一个
神经网络
,使用
pytorch
,有一个平均
的
池层,里面有填充物。
我
对它
的
行为以及填充
的
平均池
的
定义感到困惑。例如,如果我们有一个输入张量: [4, 5, 6],当填充为1且
内核
大小为3时,第一个
内核
的
输入应该是: 0, 1, 2火把
的
输出为12/4
浏览 0
提问于2019-04-18
得票数 3
回答已采纳
1
回答
如何在
训练
神经网络
时节省中间权值
、
我
正
在用
pytorch
训练
一个
神经网络
,
我
想在每一次迭代中保存权重。换句话说,
我
想要创建一个列表,其中包含了
神经网络
在
训练
过程中拥有的所有权重。
我
做了以下工作: (.....code that is used to train theweight = model.fc2.weight.detach().
浏览 2
提问于2019-11-08
得票数 1
回答已采纳
1
回答
具有不可
训练
预定义核
的
PyTorch
中
的
卷积
、
、
、
、
我
想在
我
的
神经网络
中引入一个自定义
的
层。数学运算应该是具有不可
训练
核
的
离散2D互相关(或卷积)。
内核
中
的
值取决于三件事:
内核
形状、步幅和填充。
我
打算将输出逐个元素与一个权重矩阵相乘。
PyTorch
已经实现了一个称为'Conv2d‘
的
离散2D互相关类,但是它生成一个随机核,并使用所述核
的
条目进行
训练
。如果可能的话,<em
浏览 0
提问于2020-06-04
得票数 2
1
回答
TabNetRegressor不处理整形后
的
数据
、
我
正在使用tabnet
的
PyTorch
实现,但我不明白
为什么
我
仍然收到这个错误。
我
将数据导入到dataframe中,使用此函数获得X,y,
然后
是
我
的
训练
测试拆分 def get_X_y(df):X_train, X_test, y_train, y_test = tra
浏览 64
提问于2021-08-17
得票数 0
回答已采纳
1
回答
当
训练
一个带有一些冻结模块
的
模型时,是否应该停用dropout?
、
、
我
有一个由模块组合组成
的
深度
神经网络
,如编码器、解码器等。在
训练
之前,
我
从预先
训练
的
模型中加载其参数
的
一部分,仅用于模块
的
子集。例如,
我
可以加载一个预先
训练
好
的
编码器。
然后
,
我
想冻结预
训练
模块
的
参数,这样它们就不会与其他模块一起
训练
。在
Pytorch
中: for param
浏览 7
提问于2020-07-29
得票数 1
1
回答
如何在AWS Sagemaker ml.t3.2xlarge实例中使用GPU?
、
、
、
我
在AWS Sagemaker上有一个笔记本ml.t3.2xlarge实例,
我
想使用
pytorch
训练
一个
神经网络
。nvidia-smi
我
假设所有的notebook实例类型都有GPU,因为它们用于
训练
神经网络
。 可以在这种类型
的
笔记本实例中使用GPU吗?<e
浏览 4
提问于2021-11-24
得票数 1
2
回答
运行
神经网络
需要更长
的
时间
、
、
、
、
我
正在运行一系列
神经网络
(使用Tensorflow后端
的
Keras库),在Jupyter Notebook中
训练
每个
神经网络
所花费
的
时间,
我
有以下结果:234 该程序由一个函数组成,该函数在它们各自
的
数据集上
训练<
浏览 16
提问于2018-03-05
得票数 0
1
回答
利用遗传
神经网络
学习棋盘游戏
、
、
我
从来没有真正做过任何实用
的
机器学习,这只是
我
的
一个爱好。接受所有输入(
我
已经计算了其中
的
1278个)。将输入通过具有任意数量
的
隐藏层
的
神经网络
发送,随机初始化权重,并计算所有可能采取
的
操作
的
值(231输出,在任何给定时间都有一些
浏览 0
提问于2021-09-08
得票数 2
1
回答
当数据大小(1,C,1,1,1)时
Pytorch
BatchNorm3d / InstanceNorm3d无法工作
、
我
正
在用
PyTorch
训练
一个
神经网络
,它在某个时候有一个BatchNorm3d(C)。 当我使用InstanceNorm3d时,也会发生同样
浏览 3
提问于2021-01-12
得票数 1
1
回答
内存可用时出现GPU运行时错误
、
、
、
我
目前正在
训练
一些
神经网络
模型,
我
发现由于某种原因,尽管有可用
的
内存,但由于运行时错误,模型有
时会
在~200次迭代之前失败。10.76 GiB total capacity; 1.79 GiB already allocated; 3.44 MiB free; 9.76 GiB reserved in total by
PyTorch
) 它显示了在应该有9.76 be可用内存
的
情况下,只使用了大约1.8 be
的
RAM。
我</e
浏览 10
提问于2021-07-31
得票数 0
1
回答
Pytorch
:如何在集群中
的
多台机器上运行代码
、
、
我
正在使用一个集群来
训练
一个使用
PyTorch
开发
的
递归
神经网络
。
PyTorch
自动线程,它允许并行使用机器
的
所有
内核
,而不必显式地为其编程。这太棒了!现在,当我尝试使用下面这样
的
脚本同时使用多个节点时:#$ -N comparison_of_architecture#$ -
浏览 7
提问于2019-09-05
得票数 0
1
回答
我
的
tensorflow默认使用
我
的
GPU而不是CPU,这比CPU慢了10倍。
我
如何解决这个问题,并让它使用CPU?
、
我
有一台带有独立GPU和专用GPU
的
游戏笔记本电脑(NVIDIA GeForce RTX 3070)。
我
认为这种缓慢
的
原因是因为tensorflow可能运行在专用GPU上,因为当我禁用专用GPU时,
训练
时间会加快10倍。这些是巨大
的
差异,一个数量级。
我
知道
内核</
浏览 4
提问于2022-07-29
得票数 0
4
回答
什么时候打电话给cudaDeviceSynchronize?
、
、
据我从CUDA文档中了解到,CUDA
内核
是异步
的
,因此我们似乎应该在每次
内核
启动后调用cudaDeviceSynchronize。然而,除了在时间测量之前,
我
尝试了与任何cudaDeviceSynchronize相同
的
代码(
训练
神经网络
)。
我
发现
我
得到了同样
的
结果,但是速度在7-12倍之间(取决于矩阵
的
大小)。例如:
在用
cudaMemcpy将数据从GPU复制回主机之前是否需要
浏览 15
提问于2012-08-09
得票数 84
1
回答
在变尺寸图像中检测固定大小
的
对象
、
、
、
、
神经网络
可以
训练
来识别一个物体,
然后
检测该物体在图像中
的
出现,而不管它们
的
位置和表观大小。在
PyTorch
中这样做
的
一个例子是在
我
正在研究一种有必要进行反向操作
的
上下文:
训练
以检测固定大小
的
模式,
然后
在可变大小
的
浏览 1
提问于2020-11-16
得票数 0
回答已采纳
点击加载更多
相关
资讯
大数据分析使用torchlayers构建PyTorch模型
掌握深度学习,为什么要用 PyTorch、TensorFlow 框架?
三分钟入门深度学习?读完这几个步骤,简直太简单!
7个实用小技巧,提升PyTorch技能,还带示例演示
PyTorch经验指南:技巧与陷阱
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券