腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3904)
视频
沙龙
1
回答
云
硬盘能不能独立于
云
服务器
?
云服务器
、
、
神经网络
、
GPU 云服务器
学生需要
GPU
来
训练
神经网络。我可不可以租一块
云
硬盘,在
云
硬盘里存好系统、环境、
训练
用到的图片等数据,然后按需租
GPU
云
服务器
?比如先租一年的
云
硬盘,然后这几天需要了就租块
GPU
跑,跑完就不租了;过一周需要的时候再租
GPU
跑。这样能省下装环境、传
训练
数据的麻烦吗
浏览 303
提问于2022-10-04
1
回答
腾讯
云
GPU
服务器
不能联外网吗?
GPU 云服务器
浏览 1333
提问于2019-05-24
1
回答
在google
云
平台
上增加配额
google-cloud-platform
最近,我正在与谷歌
云
平台
合作,为了
训练
机器学习模型,不幸的是,我试图增加配额,以获得
GPU
的好处,但我的请求被拒绝了,因为我需要获得更多的计费历史,因此我的问题是,我可以做任何步骤来加速这一过程。另一方面,如果我使用其他
平台
,比如amazon或azure,使用
GPU
的过程会更容易。提前谢谢。
浏览 2
提问于2020-06-01
得票数 0
1
回答
如何
训练
比
GPU
内存更大的TF模型?
python
、
tensorflow
、
object-detection
、
object-detection-api
我想使用TF2,最好是EfficientDet D7网络来
训练
一个大型目标检测模型。对于我的16 GB内存的Tesla P100卡,我遇到了一个“内存不足”异常,即显卡上没有足够的内存可以分配。如果我有多个
GPU
,那么TF模型将被拆分,以便填满两个卡的内存,这是正确的吗?因此,在我的情况下,使用第二张16 GB的Tesla卡,我在
训练
期间总共将拥有32 GB?如果是这样的话,我可以使用多个
GPU
的
云
提供商也是如此吗? 此外,如果我错了,在
训练
期间为多个
GPU
拆分一个模型
浏览 18
提问于2021-03-03
得票数 0
回答已采纳
1
回答
Kubeflow与其他备选方案
kubeflow
我试图找出什么时候创建自己的Kubeflow MLOps
平台
是合理的: 如果你是Tensorflow专卖店,你还需要Kubeflow吗?为什么不只是TFX?编曲可以用气流来完成。为什么要使用Kubeflow,如果您使用的都是scikit-学习,因为它不支持
GPU
,分布式
训练
方式?如果您确信要使用Kubeflow,
云
提供商(Azure和GCP)将提供ML管道概念(谷歌在幕后使用Kubeflow )作为托管服务。当部署自己的Kubeflow环境是有意义的时候?即使您需要部署on,也可以选择使用
云
资源(
浏览 4
提问于2020-03-21
得票数 10
回答已采纳
1
回答
通过腾讯
云
私有化部署deepseek大模型,java调用方式?
java
、
腾讯云
、
模型
、
大模型部署
、
DeepSeek
通过腾讯
云
部署deepseek大模型,然后通过java调用,有没有比较优秀的解决方案。 然后部署完成以后,调用是收费的吗,我是否可以把我本地
训练
完成以后的模型部署到腾讯
云
上,有没有具体的解决方案。
浏览 589
提问于2025-03-20
1
回答
为什么在Google Cloud ML上
训练
的TensorFlow模型比在本地
训练
的模型更准确?
tensorflow
、
machine-learning
、
object-detection
、
google-cloud-ml
我
训练
了一个对象检测API模型(使用动物园的COCO / Inception v2的Mask RCNN ),具有相同的配置,TensorFlow和模型版本,以及相同数量的步骤的相同(自定义)数据集。在本地机器(1080TI上的tensorflow-
gpu
)上,我使用了object_object/Train.py,而在
云
上,我使用了调用object_detection.train模块的google
云
运行使用了5个工作进程,而本地运行只有1个
GPU
。它们都被设置为批处理大小为1。 为什么本
浏览 28
提问于2018-08-23
得票数 0
回答已采纳
1
回答
如何使用1个以上的
GPU
训练
PyTorch迁移学习教程
python
、
python-3.x
、
jupyter-notebook
、
jupyter
、
pytorch
我目前正在关注中的PyTorch迁移学习教程我正在使用谷歌
云
平台
笔记本实例,并使用4个NVIDIA Tesla k80 x 4
GPU
。正是在这里,当我在超过1个
GPU
上
训练
网络时,遇到了
服务器
连接错误(无效响应: 504)错误num_ftrs =
浏览 1
提问于2019-08-08
得票数 1
1
回答
如何修复AI
平台
GPU
分布式培训作业中找不到的教练员包
tensorflow
、
google-cloud-ml
我试着在人工智能
平台
上
训练
一个Tensorflow估计器。该模型对本地的
训练
非常好,尽管速度非常慢,但是当我尝试运行分布式
GPU
时,在AI
平台
上的
GPU
培训遇到了以下错误:按照Google
平台
的推荐,我的代码与trainer模块一起打包。任何帮助都将不胜感激!
浏览 1
提问于2019-06-07
得票数 0
回答已采纳
1
回答
如何在使用Keras时直接从(GCS)访问图像?
tensorflow
、
keras
、
google-cloud-platform
、
google-cloud-storage
然而,我现在想利用Google
平台
的
GPU
来
训练
这个模型。我已经在GCP上安装了
GPU
,并且正在做一个木星笔记本。我已经把我的图片移到了。我的问题是: 如何使用 类的Keras‘flow_from_directory方法直接从
云
存储访问这些映像(特别是目录--培训、验证、测试)?
浏览 0
提问于2018-04-19
得票数 2
1
回答
在GCP中访问
GPU
google-cloud-platform
、
gpu
我有免费的信用帐户上的谷歌
云
平台
。我想进入一个
GPU
来
训练
我的深造项目。我甚至提交了不同的配额申请,但每次都被拒绝。我需要向GCP支付一些钱才能访问
GPU
吗?我怎么能这么做?
浏览 2
提问于2020-02-12
得票数 7
2
回答
无法再找到附加到google
云
实例的
GPU
python
、
tensorflow
、
google-compute-engine
在过去的几个月里,我一直在使用谷歌
云
平台
,没有任何问题。然而,我遇到了一个相当令人困惑的问题。我有一个
gpu
附件,我们用于我们的深度学习模型。由于某些原因,此
GPU
不再显示在实例上。} physical_device_desc: "device: XLA_CPU device"] 我得到的输出表明没有可用的
GPU
当我尝试
训练
一个模型时,很明显,由于
训练
速度急剧下降,它没有使用<e
浏览 31
提问于2019-11-30
得票数 0
回答已采纳
1
回答
训练
VGG-16需要多少个时节?
parameters
、
tensorflow
、
neural-network
、
deep-learning
、
image-recognition
我正在使用包含3k图像的数据集从零开始
训练
VGG-16模型。我使用Tensorflow
平台
和8个
gpu
,没有任何
gpu
。培训率- 0.01,动量- 0.9,我已经
训练
了三天了。但
训练
精度保持不变,20年代后约为15%~20%。有人能给我一些提示来提高准确度吗?
浏览 1
提问于2017-05-01
得票数 5
回答已采纳
0
回答
【
GPU
】腾讯
云
GPU
资源池相关发展问题-自定义windows10镜像能否做一个?
云服务器
、
GPU 云服务器
、
腾讯云
、
gpu
、
windows10
【
GPU
】腾讯
云
GPU
资源池相关发展问题-自定义windows10镜像能否做一个? 2.能否支持下腾讯
云
GPU
云
服务器
+Todesk远程桌面软件??3.腾讯
云
-
GPU
云
服务器
能否兼容下
GPU
驱动-支持自动安装windows驱动,适配各类
GPU
驱动呢?
浏览 104
提问于2025-08-22
1
回答
当使用TF2 (oibject检测API)时,多个
GPU
会允许更大的模型和批处理大小吗?
python
、
tensorflow
、
gpu
、
object-detection-api
然而,当我试图
训练
一个大型模型(例如,一个更大的有效网络模型)和/或当我想使用一个较大的批处理大小(例如> 32)时,我就耗尽了
GPU
内存。 现在我想租一些
云
GPU
或者用第二个
GPU
升级我的本地硬件。其想法是在多个
GPU
上
训练
TF2模型。不过,在我花这笔钱之前,我想知道这是否能解决我的问题。因此,当一个人在多个
GPU
上
训练
一个TF2模型(通过对象检测API)时,这是否也会“合并”它们的内存,以便我可以
训练</e
浏览 3
提问于2021-03-08
得票数 0
回答已采纳
2
回答
支持TensorFlow的公共
云
GPU
machine-learning
、
tensorflow
、
gpu
我有最新的Mac,使用我所有的核心,但我仍然需要几个小时来
训练
一个单一的网络。我需要对许多不同的调优参数进行网格搜索,所以这并不理想。 这是一个个人项目,所以我想通过使用
云
来省钱。我已经广泛地使用了AWS,我喜欢使用他们的现货市场的想法,但是我听说亚马逊的
GPU
实例与TensorFlow不兼容(AWS的
GPU
有CUDA3.0,TensorFlow需要3.5);2)亚马逊的
GPU
有点慢微软的Azure或谷歌的Google引擎在使用TensorFlow时有很容易使用的
GPU
吗?在相关的神经网
浏览 0
提问于2016-07-11
得票数 4
1
回答
Tensorflow队列是否会加速单个CPU机器上的数据加载?
python
、
tensorflow
、
queue
、
gpu
、
cpu
我目前有一些现有的代码,它们在
GPU
上工作得很好。我尝试在单
GPU
的Ubuntu机器和多
GPU
的集群
服务器
上运行它。这两个实验都非常快。然而,当我尝试在我自己的笔记本电脑上用一个CPU (没有
GPU
)运行它时,它变得非常低……速度慢100倍以上。 我知道当我没有
GPU
进行
训练
时,速度会慢得多。但我真的希望了解“队列”是否会受到这种硬件
平台
差异的影响。 通常,我们使用CPU通过“队列”将数据加载到
GPU
,但是使用单个CPU并使用Tens
浏览 18
提问于2019-01-17
得票数 0
回答已采纳
1
回答
如果我用CUDA
训练
神经网络,我需要用CUDA运行输出的算法吗?
machine-learning
、
tensorflow
、
theano
、
theano-cuda
假设我使用CUDA来
训练
一个对象跟踪程序。然后,我可以将该程序放在另一台没有强大
gpu
的计算机上,然后运行对象跟踪程序吗?或者需要
gpu
支持才能运行和
训练
输出的算法?
浏览 19
提问于2017-01-19
得票数 0
回答已采纳
3
回答
向Google提交Keras培训工作
tensorflow
、
keras
、
gcloud
、
gcp-ai-platform-training
我试着遵循本教程:现在,我已经从GitHub下载了这个包,并创建了一个带有人工智能
平台
和存储桶的
云
环境。我正在将文件(使用建议的文件夹结构)上载到
云
存储桶(基本上是存储的根),然后在
云
终端中尝试以下命令: --module-namemykerasstorage --region=europe-north1
浏览 10
提问于2020-01-21
得票数 0
回答已采纳
3
回答
腾讯
GPU
云
服务器
为什么不能安装安卓模拟器?如何解决?
云服务器
、
android
、
GPU 云服务器
如题,我买了一个腾讯的
GPU
服务器
,想安装个安卓模拟器,但是安装的时候提示显卡驱动版本过低,无法安装,这个问题该怎么解决呢?非常感谢!!
浏览 3804
提问于2019-09-21
点击加载更多
相关
资讯
最快最全深度学习训练/GPU服务器硬件配置推荐2019
研华推出用于AI训练端的SKY-642 GPU服务器
我把项目从云GPU搬走了因为排队比训练还久
滴滴云不甘寂寞,国内首发一款GPU云服务器
在趋动云GPU云平台部署ChatGLM-6B
热门
标签
更多标签
云服务器
ICP备案
即时通信 IM
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券