腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
pytorch
动态图
属性
来
并行
训练
具有
不同
超
参数
的
模型
?
pytorch
有没有一种标准
的
方法
来
通过利用
动态图
属性
来
训练
pytorch
的
多个
模型
?
浏览 19
提问于2019-03-14
得票数 0
2
回答
您可以
使用
Caffe在同一数据上
训练
多个网络吗?
python
、
neural-network
、
gpu
、
deep-learning
、
caffe
我正在编写一个校准管道来学习神经网络
的
超
参数
,以检测DNA序列
的
属性
*。因此,这需要在
具有
不同
超
参数
的
同一数据集上
训练
大量
模型
。 我正在尝试将其优化为在GPU上运行。与图像数据集相比,DNA序列数据集相当小(通常是4‘通道’中
的
10个或100个碱基对
来
表示4个DNA碱基A、C、G和T,而3个RGB通道中
的
像素为10,000个),
浏览 1
提问于2016-02-16
得票数 4
1
回答
有没有办法用火车python包创建一个图表来比较
超
参数
和
模型
的
准确性?
python
、
deep-learning
、
pytorch
、
trains
、
clearml
我想运行多个实验,然后报告每个实验
的
模型
准确性。 我正在
使用
pytorch
(v1.1.0)
训练
一个玩具MNIST示例,但目标是,一旦我可以比较玩具问题
的
性能,就可以将其与实际
的
代码库集成。据我所知,通过“两行代码”,我所有的
超
参数
都已经被记录下来了(在我
的
例子中是命令行argparse )。我需要做什么才能报告最终
的
标量,然后能够对所有
不同
的
训练</em
浏览 18
提问于2019-06-25
得票数 1
1
回答
什么时候需要自定义函数(而不仅仅是模块)?
torch
、
pytorch
__init__() return x / t_.max(x).expand_as(x) 就我所理解
的
文档而言,我相信这也可以作为一个定制
的
Function
来
实现。在上面的第一个清单(模块Testme)中,它应该有一个相关
的
函数吗?如果不是,那么在没有backward方法
的
情况下,可以通过子类模块
来
实现这一点,那么为什么Function总是需要backward方法呢?也许Function只是针对那些不是由现有torch函数组
浏览 1
提问于2017-06-08
得票数 13
回答已采纳
1
回答
如果您必须配置MultiWorkerMirroredStrategy,那么在自动标度和失败期间,tensorflow cluster_resolver是
如何
工作
的
?
tensorflow
、
databricks
、
distributed-training
在运行培训之前,我似乎必须配置cluster_resolver,以启用对多个工作人员
的
分布式培训。 我正在
使用
数据库作为参考
浏览 2
提问于2022-11-14
得票数 0
2
回答
在不创建端点
的
情况下
使用
AWS Sagemaker实现
模型
性能
pytorch
、
amazon-sagemaker
我一直在
使用
Amazon Sagemaker Notebook为NLP任务构建
pytorch
模型
。我知道您可以
使用
Sagemaker进行
训练
、部署、
超
参数
调优和
模型
监控。但是,看起来您必须创建一个推理端点,以便监视
模型
的
推理性能。我已经设置了一个EC2实例
来
在我们
的
模型
上执行推断任务,这个
模型
目前在一个开发箱中,而不是
使用
端点来
浏览 5
提问于2020-09-19
得票数 1
回答已采纳
1
回答
神经网络交叉验证:
如何
处理历元数?
python
、
neural-network
、
pytorch
、
cross-validation
我
使用
交叉验证,因为我有x个测量数据库,我想评估我是否能够用x数据库
的
子集
来
训练
一个神经网络,并将神经网络应用到看不见
的
数据库中。因此,我还介绍了一个测试数据库,它不用于
超
参数
识别阶段。对于
如何
处理交叉验证中
的
历元数,我感到困惑,例如,我有许多历元= 100。有两种选择: 划时代数是一个需要调整
的
超
参数
。在每个时代,跨越所有交叉验证迭代
的
平均误差被确定。在
浏览 1
提问于2020-04-29
得票数 1
回答已采纳
1
回答
如何
使用
验证数据优化
超
参数
validation
、
machine-learning
、
artificial-intelligence
我正在
训练
一个神经网络机器学习
模型
,对
如何
调整
超
参数
感到有点困惑。我认为培训过程如下: 有人告诉我,验证数据也被用来调优
超
<e
浏览 2
提问于2016-08-02
得票数 2
回答已采纳
2
回答
为什么同时
使用
验证集和测试集?
machine-learning
、
neural-network
、
cross-validation
考虑一个神经网络:测试集上
的
错误不是和验证集有点相同吗?对于网络来说,它是一个看不见
的
数据,就像验证集一样,它们
的
数量也是相同
的
吗?相反,我们不能通过将测试集合并到它
来
增加
训练
集
浏览 0
提问于2017-04-13
得票数 36
回答已采纳
1
回答
在scikit-learn中
如何
进行交叉验证?
python
、
scikit-learn
、
cross-validation
我一直在研究交叉验证,就我而言,关于k-折验证
的
事情是,您将在数据集
的
不同
切片中评估
模型
,然后平均误差。 例如,我会得到我
的
数据集,并分成3个部分。首先,我将运行一个
模型
,该
模型
将
使用
第2部分和第3部分进行
训练
,并在第1部分进行测试。然后,我将
使用
第1部分和第3部分进行
训练
,并在第2部分进行测试。最后,我将
使用
第1部分和第2部分进行
训练
,并在第3部分进行测试。 例
浏览 28
提问于2021-08-24
得票数 2
1
回答
减少
训练
损失,稳定
的
验证损失-
模型
是否过拟合?
machine-learning
、
conv-neural-network
我
的
模型
是不是太合适了?如果验证损失大幅增加,而
训练
损失减少,我肯定它会过度拟合。然而,验证损失几乎是稳定
的
,所以我不确定。你能帮帮忙吗?
浏览 1
提问于2019-09-01
得票数 0
1
回答
模型
训练
:
具有
不同
超
参数
的
已保存
模型
的
命名方案
machine-learning
、
amazon-s3
、
neural-network
、
model
、
pytorch
对于分类任务,我一直在试验
不同
的
神经网络架构和
训练
方法:改变隐藏层
的
数量,激活函数,批量大小,历元,损失函数等。 有时,我会比较
不同
模型
的
性能。
训练
/验证后,每个
模型
都保存在S3中,其名称表示其
参数
+
超
参数
(例如'100_1000_0.5_100_..._1.model')。这个命名方案很混乱,我想找到一种更好
的
方法
来</em
浏览 8
提问于2020-08-11
得票数 0
1
回答
加载图像
的
最快方法是什么?
pytorch
我有大约200,000张高分辨率图像,每次加载如此高质量
的
图像都很耗时。预加载所有图像可能会占用太多内存。将每个图像保存为.npz文件格式并加载.npz而不是.jpg
如何
?它会提高速度吗?
浏览 0
提问于2017-12-05
得票数 6
1
回答
理解机器学习
的
交叉验证
python
、
validation
、
data-science
、
cross-validation
下列有关交叉验证
的
内容是否正确?: 将
训练
数据分成
不同
的
组,除一个
训练
数据集外,所有
训练
数据集都用于
训练
模型
。一旦对
模型
进行了
训练
,就会
使用
“遗漏”
训练
数据
来
执行
超
参数
调优。一旦选择了最优
的
超
参数
,将测试数据应用到
模型
中,给出一个结果,然后将其与经历了类似过
浏览 1
提问于2020-09-21
得票数 0
回答已采纳
1
回答
嵌套交叉验证:外部循环是
如何
工作
的
?
cross-validation
、
k-fold
Context:我发现下面的博客中
的
插图(如下所示)是对正在发生
的
事情
的
最简单
的
解释:。问题:如果每个内循环cv进程产生
不同
的
超
参数
,那么外部循环
如何
工作?对于外循环
的
第一次迭代,我们
使用
折叠1作为保持测试集,并在内部循环中通过Folds 2&3进行(Kfold )
超
参数
调整。让我们说,这产生了一组最优
的
超
<
浏览 6
提问于2022-02-18
得票数 1
1
回答
保存然后重用CNN
模型
-保留初始化
python
、
fast-ai
我希望通过重复
使用
具有
相同
超
参数
的
CNN,特别是初始化,
来
重复一系列图像分类实验。那么,如果我在实例化一个
模型
之后保存它,并在
训练
它之前保存它,这是否也保存了初始化,以便我稍后重新加载它并
使用
不同
的
数据集和标签进行
训练
,它是否
使用
与我
使用
第一个数据集/分类标签
训练
的
第一个
模型
相同<e
浏览 15
提问于2019-05-21
得票数 0
1
回答
如何
使用
torch.optim.lr_scheduler.OneCycleLR()?
python-3.x
、
deep-learning
、
pytorch
、
torchvision
我想在
训练
时
使用
torch.optim.lr_scheduler.OneCycleLR()。有人能向我解释一下
如何
使用
它吗?我从文档中得到
的
是,应该在每个train_batch之后调用它。我
的
困惑如下:可以将此调度程序与Adam优化器一起
使用
。那么动量是
如何
计算
的
呢? ,比方说,我现在
训练
我
的
模型
浏览 1
提问于2020-07-15
得票数 0
回答已采纳
1
回答
如何
在交叉验证中选择
参数
?
machine-learning
、
training
、
cross-validation
、
hyperparameter-tuning
、
parameter-estimation
假设我正在
使用
K折叠交叉验证K折叠交叉验证
训练
一个线性回归
模型
。我每次用
不同
的
训练
和测试数据集
训练
K次。因此,每次我
训练
时,都会得到
不同
的
参数
(线性回归情况下
的
特征系数)。因此,在交叉验证结束时,我将得到K个
参数
。
如何
得出我
的
模型
的
最终
参数
? 如果我也
使用
它
浏览 0
提问于2022-05-19
得票数 3
1
回答
我可以为
不同
的
滑动时间窗口应用
不同
的
超
参数
吗?
cross-validation
、
hyperparameter-tuning
、
hyperparameter
、
parameter
问题我可以看到
使用
共享
参数
的
意义,但我看不到
使用
共享
超
参数
的
意义。在以下问题中介绍了
使用
共享
参数
的
优点:经常性NNs:
参数
共享有什么意义?详细信息 由于我
浏览 0
提问于2021-02-11
得票数 1
1
回答
n_jobs=-1还是n_jobs=1?
cross-validation
、
hyperparameter-tuning
、
gridsearchcv
、
model-evaluations
对于某些
模型
和简历中
使用
的
n_jobs
参数
,我感到困惑。我知道它用于
并行
计算,其中包括n_jobs
参数
中指定
的
处理器数。因此,如果我将值设置为-1,它将包括所有内核及其线程,以加快计算速度。但这篇文章:-
使用
所有核心
来</em
浏览 0
提问于2021-07-23
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Facebook推出数据并行训练算法FSDP:采用更少的GPU,更高效地训练更大数量级的模型
微软开源史上最大NLG模型,可训练1000亿参数的模型
训练GPT-3,为什么原有的深度学习框架吃不消?
训练一个130亿参数的模型要用几个GPU?微软:一个就够
微软发布DeepSpeed开源库,支持1000亿个参数模型的训练
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券