腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何修复AI
平台
GPU
分布式培训作业中找不到的教练员包
tensorflow
、
google-cloud-ml
我试着在人工智能
平台
上
训练
一个Tensorflow估计器。该模型对本地的
训练
非常好,尽管速度非常慢,但是当我尝试运行分布式
GPU
时,在AI
平台
上的
GPU
培训遇到了以下错误:按照Google
平台
的推荐,我的代码与trainer模块一起打包。任何帮助都将不胜感激!
浏览 1
提问于2019-06-07
得票数 0
回答已采纳
1
回答
训练
VGG-16需要多少个时节?
parameters
、
tensorflow
、
neural-network
、
deep-learning
、
image-recognition
我正在使用包含3k图像的数据集从零开始
训练
VGG-16模型。我使用Tensorflow
平台
和8个
gpu
,没有任何
gpu
。培训率- 0.01,动量- 0.9,我已经
训练
了三天了。但
训练
精度保持不变,20年代后约为15%~20%。有人能给我一些提示来提高准确度吗?
浏览 1
提问于2017-05-01
得票数 5
回答已采纳
1
回答
Google
平台
笔记本实例不会在木星上使用
GPU
tensorflow
、
google-cloud-platform
、
jupyter-notebook
、
google-cloud-ml
、
gcp-ai-platform-notebook
我正在使用预先建立的人工智能
平台
木星笔记本实例,以
训练
一个单一的特斯拉K80卡模型。问题是我不相信这个模型实际上是在
GPU
上
训练
。nvidia-smi在培训期间返回以下内容: ...And的
训练
非常缓慢。这要求我每次进入控制台,找到正在运行的
GPU
进程PID,并在重新运行笔记本之前使用杀死-9。但是,今天,我根本不能让
GPU
运行?它从不显示正在运行的进程。我尝试了两个不
浏览 2
提问于2019-07-22
得票数 1
2
回答
MultiWorkerMirroredStrategy()不在Google
平台
上工作
tensorflow
、
google-cloud-platform
、
google-cloud-ml
、
tensorflow-estimator
、
gcp-ai-platform-training
当使用MultiWorkerMirroredStrategy()在Google
平台
上
训练
自定义估计器时,我得到了以下错误。MirroredStrategy()和PamameterServerStrategy()都很好地在AI
平台
上使用各自的config.yaml文件。我目前是,而不是,为任何操作提供设备范围。MultiWorkerMirroredStrategy()进行培训的config.yaml文件是: scaleTier: CUSTOM masterType: standard_
gpu</e
浏览 6
提问于2019-10-06
得票数 3
回答已采纳
1
回答
谷歌云
平台
AI笔记本-如何确保
GPU
被使用?
python
、
google-cloud-platform
、
scikit-learn
、
gpu
、
random-forest
我正在使用木星在GCP (通过人工智能
平台
建立简单的方式)从scikit-garden
训练
一个MondrianForestRegressor。我的数据集大约是450000×300,使用机器进行
训练
,即使使用并行性n_jobs=-1 (32 CPU,208 32内存)也比我想要的要慢得多。我附加了一个
GPU
(2倍NVIDIA特斯拉T4),重新启动实例,然后再试一次。
训练
速度似乎不受这一变化的影响。 在木星中
训练
模型时,我需要做些什么来确保
GPU
确实被使用了吗?<em
浏览 8
提问于2019-11-17
得票数 0
回答已采纳
3
回答
Google Cloud AI
平台
上的Tensorflow 2
google-cloud-ml
什么时候Tensorflow 2将在Google Cloud AI
平台
上得到支持? 根据列表,1.15是最新支持的版本:
浏览 2
提问于2020-01-13
得票数 4
1
回答
在google云
平台
上增加配额
google-cloud-platform
最近,我正在与谷歌云
平台
合作,为了
训练
机器学习模型,不幸的是,我试图增加配额,以获得
GPU
的好处,但我的请求被拒绝了,因为我需要获得更多的计费历史,因此我的问题是,我可以做任何步骤来加速这一过程。另一方面,如果我使用其他
平台
,比如amazon或azure,使用
GPU
的过程会更容易。提前谢谢。
浏览 2
提问于2020-06-01
得票数 0
1
回答
可变大小超过了一个
GPU
的内存
tensorflow
、
gpu
我在tensorflow
平台
上
训练
我的模型,但我遇到了一些问题,我有一个形状为6000000,128的变量,它的大小超过20G,我的机器有6个
GPU
,每个
GPU
有11G内存。我可以把一个变量放在两个
GPU
上吗?如果是,如何操作。
浏览 0
提问于2019-04-04
得票数 0
1
回答
如何使
GPU
在Google
平台
的BASIC_
GPU
规模层上对我的tensorflow程序可见?
python
、
tensorflow
、
gpu
、
google-cloud-ml
我的代码在Google的人工智能
平台
上运行时遇到了问题,当我有一个BASIC_
GPU
扩展层时,我无法找到和使用
GPU
。我没有本地
GPU
,所以我无法测试是否能够在本地识别
GPU
。python-version 3.5 \--module-name source.train \--scale-tier BASIC_
GPU
\在我的
训练
代码中,我打印: tf.lo
浏览 3
提问于2019-11-25
得票数 0
回答已采纳
1
回答
如何在GradientBoostingClassifier上启用
GPU
?
python
、
scikit-learn
、
gpu
、
natural-gradient-boosting
有办法在GradientBoostingClassifier上启用
GPU
吗?
浏览 0
提问于2020-06-18
得票数 2
2
回答
如何在Google Cloud AI
平台
的Jupyter笔记本上使用
GPU
google-cloud-platform
、
gpu
我在Google Cloud AI
平台
上使用的是支持
GPU
的Jupyter笔记本电脑。有谁知道我怎么让它用
GPU
代替吗?在此之前,我一直在使用Google Colab notebook,您可以在笔记本顶部的菜单中简单地更改运行时以使用
GPU
。但在Jupyter笔记本中看起来并没有这样的选项。感谢任何关于如何让它使用
GPU
的建议! 谢谢。
浏览 1
提问于2021-01-28
得票数 0
1
回答
如何
训练
比
GPU
内存更大的TF模型?
python
、
tensorflow
、
object-detection
、
object-detection-api
我想使用TF2,最好是EfficientDet D7网络来
训练
一个大型目标检测模型。对于我的16 GB内存的Tesla P100卡,我遇到了一个“内存不足”异常,即显卡上没有足够的内存可以分配。如果我有多个
GPU
,那么TF模型将被拆分,以便填满两个卡的内存,这是正确的吗?因此,在我的情况下,使用第二张16 GB的Tesla卡,我在
训练
期间总共将拥有32 GB?如果是这样的话,我可以使用多个
GPU
的云提供商也是如此吗? 此外,如果我错了,在
训练
期间为多个
GPU
拆分一个模型将不起作用,那么还
浏览 18
提问于2021-03-03
得票数 0
回答已采纳
1
回答
我甚至需要
GPU
来部署深度学习模型吗?
deployment
、
deep-learning
、
model
、
gpu
、
artificial-intelligence
我知道我确实需要一个
GPU
来
训练
一个模型,但即使在模型
训练
之后,我还需要一个
GPU
来部署同样
训练
过的模型吗?例如,我有一个带有自动驾驶功能的汽车模型,可以预测并做出决定……我是否也需要
GPU
来进行预测.. 特别是在强化学习的情况下
浏览 22
提问于2021-02-27
得票数 1
回答已采纳
1
回答
用于AMD体系结构的
GPU
计算
平台
performance
、
machine-learning
、
deep-learning
、
gpu
众所周知,试图
训练
一个深层次的神经网络或者基本上任何类型的人工智能模型都需要大量的计算能力。根据项目的不同,在CPU上执行此操作可能需要几天的时间。我有一个特殊的AMD
GPU
的型号名称是"RX5700“。对于NVIDIA
GPU
,有CUDA可以很容易地用于
GPU
计算,然而,我找不到一个替代AMD架构。我知道有ROCm,但这只适用于非常特殊的
GPU
系列和Ubuntu操作系统。 有什么
平台
可以在Windows上用RX系列
GPU
进行
GPU
计算吗?
浏览 4
提问于2022-01-21
得票数 0
回答已采纳
1
回答
Tensorflow队列是否会加速单个CPU机器上的数据加载?
python
、
tensorflow
、
queue
、
gpu
、
cpu
我目前有一些现有的代码,它们在
GPU
上工作得很好。我尝试在单
GPU
的Ubuntu机器和多
GPU
的集群服务器上运行它。这两个实验都非常快。然而,当我尝试在我自己的笔记本电脑上用一个CPU (没有
GPU
)运行它时,它变得非常低……速度慢100倍以上。 我知道当我没有
GPU
进行
训练
时,速度会慢得多。但我真的希望了解“队列”是否会受到这种硬件
平台
差异的影响。 通常,我们使用CPU通过“队列”将数据加载到
GPU
,但是使用单个CPU并使用Tensorflow队列是
浏览 18
提问于2019-01-17
得票数 0
回答已采纳
1
回答
为什么Blender不使用GeForce RTX2080
GPU
,只使用IntelUHDGraphics630?
gpu
、
nvidia
、
blender
我正在为两件事设置我的电脑: 驱动程序: NVIDIA驱动程序版本461.72处理器: Intel(R
浏览 1
提问于2021-03-05
得票数 0
2
回答
有没有办法将tensorflow-
gpu
与英特尔(R) hd显卡520一起使用?
deep-learning
、
keras
、
tensorflow-gpu
我正在做我的硕士项目,它使用keras和tensorflow后端.I有英特尔(R)高清显卡520,所以我不能使用tensorflow-
gpu
。cpu版本工作正常.Is有没有办法使用英特尔®高清显卡520的tensorflow-
gpu
?
浏览 17
提问于2017-11-21
得票数 15
1
回答
基于云
GPU
的高效机器学习开发
machine-learning
、
python
、
data-analysis
、
gpu
、
cloud-computing
我们还可以说,我想使用该数据集运行的一些计算需要一个功能强大的
GPU
,以便在合理的时间内完成(我猜功能是相对的,我指的是一台拥有1 RTX 3090或可能3080 ti的计算机)。话虽如此,虽然有几个函数在计算上非常紧张(比如
训练
一个或多个具有超参数变化的模型),但我编写的大部分代码并不是这样。此外,我也正在计算我想要如何设计我的分析,解决错误,等等。这可以用来在云
GPU
中的给定数据集上运行一个CUML
训练
算法,然后我可以在我的主机上分析结果,而无需支付云提供商的费用。这不是我能找到的使用
GPU
的东西。备
浏览 0
提问于2021-12-24
得票数 0
1
回答
Colab pro和
GPU
可用性
gpu
、
google-colaboratory
我需要
GPU
为我的项目。到目前为止,我的使用是有限的,使用Colab是免费的。现在我想我可能一天需要3个小时。现在它说
GPU
不可用,因为它们已经被占用了。我的问题是,升级到Colab pro对
GPU
可用性有什么影响?我应该期望拥有
GPU
的时间是多少,这些时间是我随意选择的吗?我提到了Here和There,但没有给出关于
GPU
可用性的详细信息。
浏览 22
提问于2021-08-07
得票数 0
6
回答
在Keras中拟合模型时,批量大小和纪元数应该有多大?
python
、
machine-learning
、
keras
、
data-science
我正在对970个样本进行
训练
,并对243个样本进行验证。 在Keras中拟合模型以优化val_acc时,批处理大小和纪元数应该有多大?有没有什么基于数据输入大小的经验法则?
浏览 1
提问于2016-01-28
得票数 83
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券