腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
pytorch
中
编写
训练
循环
时
遇到问题
python
、
deep-learning
、
neural-network
、
pytorch
、
conv-neural-network
我正尝试
在
pytorch
中
通过卷积神经网络运行我的数据。我得到一个错误,说它需要3D输入,而我给它提供了1D输入。我正在使用Conv1d。loss=criterion(y,train_out[idx]) loss.backward() optimizer.step() 如何
编写
训练
和评估
循环
我
在
互联网上看到的所有例子都使用图片,它们也使用DataLoader。
浏览 27
提问于2020-02-01
得票数 0
回答已采纳
1
回答
如何预处理高强度MRI图像?
python
、
image-preprocessing
、
image-segmentation
我有一个大型的MRI数据集,用于图像分割任务,不能直接放入Colab
中
的内存
中
,您可以使用我放在末尾的链接访问数据。它们是脑部MRI图像:你打算如何在
训练
前对这些图像进行预处理?下面是我尝试过但没有成功的步骤:你认为我还能做些
浏览 0
提问于2021-11-26
得票数 1
回答已采纳
3
回答
Tensorflow 2.0:我如何像使用
PyTorch
那样完全定制一个Tensorflow
训练
循环
?
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
我以前经常使用Tensorflow,但后来转到了
Pytorch
,因为它更容易调试。我
在
PyTorch
中发现的好处是,我必须
编写
自己的
训练
循环
,这样我就可以逐步完成代码并查找错误。
在
Tensorflow
中
,我一直
在
使用model.fit()函数,所以我得到的任何错误消息都像是6页C代码,而错误消息并没有给我任何指示。但是,我正在考虑再次使用Tensorflow ,我想知道用户是否能够通过自定义的
训练
循环</em
浏览 6
提问于2020-10-20
得票数 0
回答已采纳
1
回答
如何在python
中
从预先
训练
好的模型
中
获得权重,并在tensorflow中使用?
python
、
tensorflow
、
pytorch
、
lstm
如何在
PyTorch
中
从预先
训练
好的模型
中
获取权重并在TensorFlow中使用?这是预先
训练
好的模型: lstm = torch.hub.load("BruceWen120/medal", "lstm")
浏览 3
提问于2021-11-28
得票数 0
1
回答
如何在不破坏反向传播的情况下为
pytorch
变量赋值?
pytorch
我有一个
pytorch
变量,用作模型的可
训练
输入。
在
某些情况下,我需要手动重新分配此变量
中
的所有值。
在
我问这个问题的时候,我还没有意识到
PyTorch
没有像Tensorflow或Keras那样的静态图形。
在
PyTorch
中
,
训练
循环
是手动完成的,您需要调用每个
训练
步骤
中
的所有内容。我担心的是
在<
浏览 1
提问于2018-12-18
得票数 9
回答已采纳
1
回答
GAN模型摘要
Pytorch
使用TensorBoard?
pytorch
、
tensorboard
有没有一种方法可以用
Pytorch
在
TensorBoard
中
可视化GAN架构的完整
训练
循环
?我认为使用TF是可行的,但我很难找到使用
Pytorch
的方法。
浏览 5
提问于2021-01-04
得票数 0
1
回答
Google
在
测试数据上消耗得很快,而在
训练
数据上则不然。
neural-network
、
pytorch
、
gpu
、
google-colaboratory
、
ram
我
在
Google Pro+ (TeslaP100-PCIe GPU)下
训练
用
PyTorch
构建的神经网络,但遇到了以下奇怪现象:
在
训练
数据模型
时
,空闲内存( memory )几乎保持不变,因此
在
训练
过程
中
不存在GPU内存问题(甚至
在
多个时期,
在
每个时代开始使用torch.cuda.empty_cache() )。然而,Mem Free很快就会在每次
训练
之后将模型部署到测试数据
浏览 0
提问于2022-05-13
得票数 0
1
回答
我可以从生成器创建一个RDD吗?
python
、
apache-spark
、
pyspark
我正在
编写
一个函数,用于创建用于
训练
模型的批次的
pytorch
张量。
在
执行
训练
循环
之前,我想构造张量并将它们固定在内存
中
。为此,我将需要基于某些参数batch_size创建批处理。我希望这个操作的内存占用空间尽可能小,这样当我将张量固定在内存
中
时
,我就有尽可能多的内存可用。我还想使用spark扩展与为批处理创建张量相关的操作。为此,我想从我的批处理
中
创建一个RDD。
浏览 2
提问于2020-06-21
得票数 0
3
回答
我试图理解神经网络
训练
中
的“时代”。下一个实验是否等效?
python
、
machine-learning
、
keras
、
neural-network
、
epoch
假设我有一个定义好的神经网络的
训练
样本(带有相应的
训练
标签)(神经网络的结构对于回答这个问题并不重要)。让我们把神经网络称为“模型”。我用
训练
样本和
训练
标签来
训练
40个时代的“模型”。经过
训练
,神经网络将对整个神经网络有一组特定的权重和偏差,我们称之为WB_Final_experiment1。实验2 我用
训练
样本和
训练
标签来
训练
20个时代的“模型”。经过
训练
,神经网络将对整个神经网络有一组特定的权重和偏差,我们称之为
浏览 13
提问于2020-03-20
得票数 3
回答已采纳
1
回答
Pytorch
变压器模型
中
的大爆炸损失
machine-learning
、
pytorch
、
transformer
第一层是嵌入层,其将输入从N×S到N×S×E,其中E是嵌入维度(300),或者
在
目标的情况下采用N×T×E。第二层
在
不改变形状的情况下添加位置编码。最频繁出现的标记(词)
在
目标张量中出现约50-60次。 transformer类还包含用于实现掩码矩阵的函数。 然后我们创建模型并运行它(这个过程被包装在一个函数
中
)。torch.cuda.empty_cache() return model.parameters(), loss_value 基本上,我们将数据分成测
浏览 15
提问于2021-09-25
得票数 0
2
回答
使用小型批次
时
所累积的火炬损失
pytorch
、
loss-function
、
mini-batch
我对火把很陌生。我可以问一下添加“loss.item()”和不添加“()”有什么区别吗?代码的以下两部分: trainingloss =0 indices = permutation[i:i+batch_size] optimizer.zero_grad() crite
浏览 4
提问于2021-03-20
得票数 2
回答已采纳
1
回答
理解
PyTorch
培训批次
pytorch
阅读 & ,我正在尝试理解培训时代
在
PyTorch
中
的表现。对于外部
循环
/时代的每次调用,整个
训练
集,在上面的示例
中
,training_loader每批迭代一次。这意味着模型不处理每个
训练
周期的一个实例。根据
训练
周期( for epoch in range(num_epochs): ),整个
训练
集按块/批处理,其中
在
创建training_loader
时
确定批大小。
浏览 0
提问于2019-03-15
得票数 0
回答已采纳
1
回答
pytorch
中
的大数据,帮助调优步骤
python
、
pytorch
、
bigdata
、
dataloader
testtarget)我从一个网络课程
中
复制了这个例子我需要一些建议: 有人建议这些步骤
在
2022年取得成果?
浏览 10
提问于2022-01-01
得票数 2
回答已采纳
1
回答
在
python
中
从多个文件读取和存储输入数据的有效方法是什么?
python
、
database
、
time-series
、
pytorch
我想用python (使用sklearn或
pytorch
库)
训练
一个8000个数据样本的分类器。但是,每个数据都是存储
在
.wav文件
中
的时间序列。我是否必须首先读取
循环
中的所有8000个文件并将它们存储
在
一个大文件
中
,然后
在
每次我想
训练
分类器
时
读取这个大文件?或者有一种更有效的方法来解决这种情况?
浏览 4
提问于2019-11-20
得票数 0
回答已采纳
1
回答
pytorch
model.cuda()运行时错误
pytorch
我正在使用
pytorch
构建文本分类器,并在使用.cuda()方法
时
遇到了麻烦。我知道.cuda()会将所有参数移动到gpu
中
,这样
训练
过程就会更快。但是,
在
.cuda()方法中发生了如下错误: hyperparam_combinations
在
我将epoch参数设置为1以运行一些测试之前,这段代码工作得很好。我又把时代定在1000点,但问题依然存在
浏览 1
提问于2018-01-23
得票数 1
回答已采纳
2
回答
是否可以使用C++
训练
在
tensorflow和
pytorch
中
开发的ONNX模型?
c++
、
tensorflow
、
pytorch
、
onnx
、
onnxruntime
我想知道是否有可能使用tensorflow和
pytorch
模型转换为onnx模型来使用C++ Api
训练
它们,就像在中使用tensorflow模型一样。我只是找到了一些使用onnx进行推理的例子。其想法是能够
在
python中使用tensorflow和
pytorch
创建原型,转换为onnx模型,并在C++
中
拥有统一的API来进行推理和
训练
。获取一些信息(链接)会有很大帮助。
浏览 4
提问于2021-11-05
得票数 1
1
回答
不知何故,我
在
cifar10上的准确率很低?
gpu
、
pytorch
我得到了几乎10%的准确率,但我最初的
训练
准确率是70%。
浏览 2
提问于2019-11-27
得票数 1
1
回答
在
训练
神经网络的过程
中
应该改变嵌入层吗?
python
、
pytorch
我是深度学习和
Pytorch
领域的新手。所以我的问题是,
在
训练
网络的过程
中
,嵌入应该改变吗?如果我想要将预先
训练
的嵌入(例如,经过
训练
的word2vec嵌入)加载到
PyTorch
嵌入层
中
,是否应该在
训练
过程
中
也更改预先
训练
的嵌入?
浏览 12
提问于2019-08-01
得票数 3
1
回答
如何从一个从时代到时代的高IO数据集中读取
python
、
pytorch
在
训练
的第一个阶段,我只采样了几个值,因此局部数据的时代很小,我对它进行了
训练
。
在
第二阶段,我重新检查由我的采样子进程(现在更多)生成的数据文件,并为下一个时代对扩展的本地数据文件集进行培训。通过这种方式,我建立了一个本地的样本缓存,并可以
在
填充本地存储空间
时
驱逐旧的样本。本地样本缓存在模型需要最大方差
时
(面向
训练
的后半部分)增长。
在
Python/Tensorflow
中
,我不对Python
训练</e
浏览 6
提问于2020-02-07
得票数 9
回答已采纳
2
回答
在
PyTorch
中加载Torch7
训练
模型(.t7)
python
、
lua
、
pytorch
、
torch
、
pre-trained-model
大多数情况下,我依赖于预先
训练
好的模型。
在
Lua
中
,我使用torch.load函数来加载一个保存为torch .t7文件的模型。我对切换到
PyTorch
( )很好奇,所以我阅读了相关文档。我找不到任何关于加载预
训练
模型的机制的信息。我能找到的唯一相关信息是这个页面: 但是页面
中
描述的函数torch.load似乎加载了一个用pickle保存的文件。如果有人有更多关于
在
PyTorch
中加载.t7模型的信息,请在这里分享。
浏览 4
提问于2017-01-26
得票数 8
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
闻其声而知雅意,基于Pytorch(mps/cpu/cuda)的人工智能AI本地语音识别库Whisper(Python3.10)
一行代码安装,TPU也能运行PyTorch,修改少量代码即可快速移植
绕开算力限制,如何用单GPU微调 LLM?这是一份“梯度累积”算法教程
对比PyTorch和TensorFlow的自动差异和动态子类化模型
深度学习框架的优缺点介绍
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券