腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
ML
训练
过程
不在
GPU
上
、
、
、
我刚从AWS转到Google Cloud Platform,因为它的
GPU
价格更低。然而,当我尝试
训练
我的模型时,
训练
过程
仍然在CPU上进行。
浏览 18
提问于2017-12-23
得票数 2
1
回答
在知识蒸馏中,学生模型和教师模型如何并行运行?
、
、
、
、
我正在使用知识蒸馏实现快速的DNN模型
训练
,如下图所示,以并行运行教师和学生模型。并行运行两个模型的正确方法是什么?我使用的是MXNet,但这是所有
ML
框架的通用问题。 编
浏览 5
提问于2020-09-11
得票数 0
0
回答
具有多个工人的
ML
engine
上
的Keras模型
训练
我已经构建了一个语义分割Keras (tensorflow后端)模型,并试图在google cloud
ml
引擎
上
对其进行
训练
。我有大约200,000 (256x256)个图像可以在小批量(10)
上
训练
大约100个时期。当我只使用complex_model_m_
gpu
类型的主设备时,1个纪元几乎要花25个小时。我不确定Keras模型如何适应多
GPU
训练
设备(例如,complex_model_m_
gpu
)。没有关于这方面的文档,只有关于
浏览 11
提问于2018-07-18
得票数 2
1
回答
如何将
ML
项目从
GPU
项目转换为CPU项目?
我正在学习
ML
,我想重新
训练
一个用于车道检测的AI模型。我找到了这个,想试一试。但我一直面临一个问题: 我没有
GPU
,所以我希望我能用我的CPU
训练
这个模型。但遗憾的是,该代码的某些部分是用CUDA编写的。有没有办法,我可以把这个
GPU
代码转换成CPU代码?我应该只为CPU
训练
找到另一个人工智能模型吗?
浏览 8
提问于2022-09-08
得票数 0
回答已采纳
1
回答
在AWS Sagemaker中启用
gpu
支持
、
、
、
、
我正在尝试在Sagemaker笔记本电脑
上
启用
GPU
。尽管我使用的是一个
ml
.p2.xlarge实例,但当我在我的笔记本中尝试时:tf.test.is_
gpu
_available(cuda_only=False如果没有
GPU
,我的
训练
过程
将相当缓慢。如何在我的Sagemaker笔记本电脑中激活和使用
GPU
?
浏览 1
提问于2021-04-01
得票数 3
3
回答
Google
上
GPU
的Tensorflow
、
、
、
现在我想用
GPU
做一些预测。我看到了这个,但是它讲述了使用
GPU
进行
训练
的
过程
,而不是预测。在预测会话中,
GPU
没有任何信息。gcloud
ml
-engine predict --model ${MODEL_NAME} --json-instances request.json 这个命令可
浏览 1
提问于2017-05-10
得票数 4
回答已采纳
3
回答
如何配置Google Cloud Datalab以使用TensorFlow的
GPU
?
、
我可以导入tensorflow并在Cloud Datalab中运行模型,但我如何配置它以使用
GPU
?这里的文档只讨论机器,我不确定如何通过Datalab:进行配置datalab create --machine-type standard_
gpu
ml
Creating the instance
ml
-https:
浏览 2
提问于2017-03-10
得票数 5
1
回答
Python:并行化
GPU
和CPU工作
、
、
、
、
为我的
ML
模型处理批处理花费了太多的时间,所以我正在考虑并行化它们。计划如下:一个单一的数据结构将存储一组数据点。每一步
训练
算法都采用随机子集对模型进行
训练
(用TensorFlow在
GPU</e
浏览 4
提问于2016-07-05
得票数 2
回答已采纳
1
回答
使用实例减慢ResNet50
训练
时间
、
、
、
、
我正在尝试使用带有tensorflow后端的keras来
训练
ResNet50模型。我使用的是一个sagemaker实例
ml
.p3.2xlarge,但是我的培训时间非常长。我使用的是conda_tensorflow_p36内核,我已经验证我安装了tensorflow-
gpu
。
训练
时间截图。 虽然使用的是0%,但sagemaker实际
浏览 1
提问于2022-04-13
得票数 0
回答已采纳
1
回答
kubernetes支持用内置
GPU
机器建立集群吗?
、
、
、
我们现在正在购买
GPU
机器,并打算使用它们来运行
ML
培训。由producer、queue和N*workers组成的计划系统架构是: 最好的
浏览 1
提问于2021-08-25
得票数 1
回答已采纳
1
回答
在google cloud
ML
上
运行
GPU
时出现错误符号日志
、
、
我正在尝试使用
GPU
模式的google cloud
ml
。但是,它在
训练
中效果很好。 我不确定在
GPU
模式下学习是否很好。此外,我还尝试了
训练
complex_model_m_
gpu
模式。我也有像BASIC_
GPU
这样的错误日志。但是,当我打印config.log_device_placement时,我看不到
gpu
:/1,
gpu
:
浏览 2
提问于2017-09-27
得票数 0
1
回答
训练
时单
GPU
和多
GPU
设置的损失是否相同(Tensorflow)?
、
、
我正在
训练
一个语义切分模型。我使用的批处理大小为10个图像
上
的一个单一的
GPU
培训。我同时使用相同的超参数在多
GPU
(3
GPU
)设置上进行
训练
.对于多
GPU
,我使用的批处理大小为30张图像,即每
GPU
10张图像.从理论
上
讲,在
训练
过程
中,每个阶段的每一步损失值是否应该是单个
GPU
和多
GPU
训练
过程
中相同的值范围? 就我而言
浏览 2
提问于2019-01-31
得票数 0
回答已采纳
1
回答
将google计算引擎用于tensorflow项目
、
、
但与AWS不同的是,我无法在web
上
找到有关如何配置google计算引擎的太多信息。有没有人能给我推荐或者指出对我有帮助的资源?我已经查看了google cloud文档,虽然它们很清楚,但它们确实没有给出任何关于使用哪种
GPU
的建议,或者在我试图创建VM实例时,我看不到任何
GPU
实例。我想在AWS g2.2xlarge实例行
上
使用一些东西。
浏览 1
提问于2016-12-01
得票数 1
1
回答
使用自定义估计器api的tensorflow代码在google cloud-
ml
引擎中还是在本地机器中有效地使用
gpu
?
、
、
、
、
我正在用google cloud
ml
-engine
训练
一个神经网络。我使用tf.layers、tf.losses、tf.dataset等tensorflow高级apis构建网络。网络是如此巨大,它应该使用大量的
gpu
,但在
ml
-engine的作业详细信息页面中显示,它没有使用主cpu以及
gpu
。尽管主cpu和
gpu
中的一些内存正在被使用。我使用"complex_model_s“作为主cpu,使用"standard-
gpu
”作为辅助处理器,并使用类型
浏览 3
提问于2018-07-05
得票数 0
1
回答
基于CUDA核的
ML
算法
训练
时间计算
如何根据
GPU
CUDA核的数量来估计
ML
算法的
训练
时间?我要买一个桌面,我想知道什么
GPU
是最好的钱,我即将花费。
浏览 0
提问于2022-01-17
得票数 0
回答已采纳
1
回答
为什么在Google Cloud
ML
上
训练
的TensorFlow模型比在本地
训练
的模型更准确?
、
、
、
我
训练
了一个对象检测API模型(使用动物园的COCO / Inception v2的Mask RCNN ),具有相同的配置,TensorFlow和模型版本,以及相同数量的步骤的相同(自定义)数据集。在本地机器(1080TI
上
的tensorflow-
gpu
)
上
,我使用了object_object/Train.py,而在云
上
,我使用了调用object_detection.train模块的google
ml
-engine作业。云运行使用了5个工作进程,而本地运行只有1个<em
浏览 28
提问于2018-08-23
得票数 0
回答已采纳
1
回答
在AWS sagemaker notebook实例中使用pytorch cuda
、
、
在colab中,每当我们需要图形处理器时,我们只需单击change runtime type并将硬件加速器更改为
GPU
cuda可用,torch.cuda.is_available()就是True 如何做到这一点是我是AWS的新手,正在尝试在aws sagemaker中使用pytorch
训练
模型,Pytorch代码首先在colab环境中进行测试。 我的sagemaker笔记本电脑是
ml
.t2.medium
浏览 31
提问于2021-04-02
得票数 0
回答已采纳
1
回答
在云中
训练
google云
ml
引擎--对方法的澄清
、
、
、
不过,我似乎能够做到这一点,即使在使用REST时,它也总是引用一个培训器模块,该模块实际
上
是在已安装了sklearn的标准python3运行时
上
培训的离线python3,而不是任何谷歌服务:'pythonVersion': '3.5'}request =
ml
.projects
浏览 2
提问于2019-03-11
得票数 1
回答已采纳
1
回答
如何在将TensorFlow模型部署到GCP时允许软设备的放置?
、
、
我试图将TensorFlow模型部署到GCP的云机器学习引擎中进行预测,但我得到了以下错误:我的模型是在几个
GPU
浏览 0
提问于2018-08-21
得票数 0
1
回答
C#
ML
.Net图像分类:
GPU
加速是否有助于提高预测的性能,我如何判断是否如此?
、
、
、
、
我目前正在.NET Framework4.8中开发一个桌面工具,它接收带有潜在裂纹的图像列表,并使用经过
ML
.Net (C#)
训练
的模型来执行裂纹检测。我试图通过将TensorFlow包依赖关系从SciSharp.TensorFlow.Redist切换到SciSharp.TensorFlow.Redist-Windows-
GPU
来加快这个
过程
,如这个中所描述的那样我还试着比较一下5760张图像的小数据集的
训练
时间,但没有看到多大的差别(两者都花了大约7分钟21秒)。在这一点
上
,我似乎设置
浏览 2
提问于2020-08-28
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在Cloud ML Engine的TPU上从头训练ResNet
GPU选购指南:训练ML模型,我必须买RTX3080吗?
在Mac上训练机器学习模型,苹果WWDC发布全新Create ML、Core ML 2
在Mac上训练机器学习模型,苹果WWDC发布全新Create ML
TensorFlow-DirectML开放提供:在Windows 10/WSL上训练ML模型
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券