腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
4
回答
在Google Colab上设置MLflow
、
、
我经常使用Google Colab来训练TF/PyTorch模型,因为Colab为我提供了GPU/TPU运行时。此外,我喜欢使用MLflow来存储和比较经过训练的模型,跟踪进度,共享等。在Google Colab中使用MLflow有哪些可用的解决方案?
浏览 12
提问于2020-05-05
得票数 3
1
回答
如何在功能更强大的服务器上运行我的Google笔记本
、
、
Google Colab提供的免费资源对于我的用例来说是不够的。 有没有办法用更多的内存旋转更强大的GPU/TPU,并在Google中使用它作为我的Colab笔记本呢?它不一定是谷歌云,但只要我可以轻松运行木星笔记本。我正在使用Keras/Tensorflow。
浏览 0
提问于2019-06-19
得票数 0
回答已采纳
2
回答
如何在Colab TPU上释放磁盘空间?
、
、
、
我正在Google Colab上训练一些深度学习模型,运行时类型设置为TPU。RAM和磁盘状态显示我已经在Colab上使用了大部分磁盘存储。有没有办法重置它?或者删除一些东西来释放更多的磁盘空间?我知道我可以改用GPU,这会给我更多的磁盘空间,然而,我的型号需要永远改变,所以我真的想留在TPU上。提前感谢!
浏览 142
提问于2019-11-28
得票数 6
2
回答
在Google Colab中,有没有一种编程方法可以检查我连接的是gpu或tpu环境?
、
、
、
在Google Colab中,有没有一种编程方法可以检查我连接的是gpu或tpu环境? 例如,我可以使用下面的代码检查它是否在tpu运行时下。但是什么是'gpu‘运行时呢? 导入操作系统 os.environ中的tpu_good_to_go = "COLAB_TPU_ADDR“
浏览 60
提问于2021-07-12
得票数 0
2
回答
如何在Google Cloud AI平台的Jupyter笔记本上使用GPU
、
我在Google Cloud AI平台上使用的是支持GPU的Jupyter笔记本电脑。 然而,尽管启用了GPU,但它只在我训练我的机器学习模型时使用CPU。 有谁知道我怎么让它用GPU代替吗?在此之前,我一直在使用Google Colab notebook,您可以在笔记本顶部的菜单中简单地更改运行时以使用GPU。但在Jupyter笔记本中看起来并没有这样的选项。 感谢任何关于如何让它使用GPU的建议! 谢谢。
浏览 1
提问于2021-01-28
得票数 0
4
回答
超过使用限制后,如何在Google Colab上再次使用GPU?
、
、
我使用Google Colab in Free版本来运行我的Tensorflow代码。12小时后,它会给出错误消息:“由于Colab中的使用限制,您当前无法连接到GPU。”我申请了“出厂重置运行时”再次使用GPU,但它不工作。此外,我终止了所有会话并重新启动,但此过程也没有给出任何解决方案。有没有办法在Google Colab免费版上再次使用GPU?谢谢。
浏览 5
提问于2020-04-10
得票数 15
1
回答
如何在谷歌Colab上使用h2o4gpu?
、
、
、
、
我需要使用scikit学习来训练一个模型(随机森林),我想使用GPU选项在Google Colab上运行它。我知道我不能直接使用sklearn来达到这个目的,所以我在Google Colab上安装了h2o4gpu作为替代,将模型的所有参数都设置为与GPU一起使用。一切似乎都很好,但Google Colab告诉我实际上我并没有使用GPU (它要求我切换到标准环境,因为我没有使用GPU)。不幸的是,我不能在标准环境中训练模型,因为它需要太多的资源,并且我得到一个内存错误。 所以,我的问题是,为什么它不起作用?如何正确设置h2o4gpu,以便可以使用Google Colab GPU选项?
浏览 3
提问于2020-04-10
得票数 0
1
回答
无法充分利用Colab中的GPU配置
、
、
我正在尝试运行一个基于深度学习的人脸识别模型。但是当我在Google上运行它时,它只使用了42 GB中的1.12 GB的GPU。我已经启用并检查了colab的所有配置,并在代码中使用Pytorch包装器。 请帮助我如何使用科拉布的全部资源。
浏览 2
提问于2022-05-24
得票数 0
5
回答
torch.cuda.is_available()在colab中返回false
、
、
我正在尝试在google colab中使用GPU。下面是我的colab中安装的pytorch和cuda版本的详细信息。 Torch 1.3.1 CUDA 10.1.243 nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2018 NVIDIA Corporation Built on Sat_Aug_25_21:08:01_CDT_2018 Cuda compilation tools, release 10.0, V10.0.130 我对在pytorch模型上使用GPU进行迁移学习非常陌生。我的torch.cuda.is_
浏览 561
提问于2019-12-03
得票数 4
回答已采纳
3
回答
在Google Colab中训练多个模型
、
我正在构建一个模型集合,需要在126个不同的模型上进行超参数选择,从线性模型到keras模型,每个模型都需要运行4-18个小时。 我计划在google colab上这样做,因为我没有足够的计算资源。我是否应该开设126个google账户,并使用126个colab CPU/GPU并行训练所有模型。或者,我应该在同一个账户上打开126个colab笔记本,然后在那里运行模型。126台笔记本电脑将共享相同的资源,还是每个笔记本电脑都可以访问不同的CPU。
浏览 3
提问于2020-04-14
得票数 1
1
回答
如何在TPU上使用自定义数据集来训练Pytorch模型?
、
、
、
由于我是一名学生,所以我只能省下最初的300美元,所以我需要尽量减少试错阶段。 我有一个基于Pytorch的模型,它目前运行在本地GPU上,在我的本地存储中有大约100 or的帧数据集,我正在寻找一个指南,展示如何设置一台机器来在我的Google (?)(或任何其他推荐的云存储)数据集中使用TPU来训练和测试我的模型。 我发现的指南与我的描述不匹配,大多数指南要么运行在GPU上,要么在TPU上运行,其中包含在dataset库中,我不想浪费时间和预算试图从这些片段中拼凑一个谜题。
浏览 8
提问于2022-02-21
得票数 1
回答已采纳
1
回答
RDP进入EC2无法使用GPU
、
、
、
我的队友遇到了3D渲染非常慢的问题。在旧的笔记本电脑上运行相同的3D桌面程序比运行EC2实例更快。他尝试过提高EC2类型来使用GPU类型。 他假设在机器中使用RDP时,EC2无法连接到GPU。他认为GPU类型适合于机器上完全在本地运行的机器学习任务,而不是运行需要提供给RDP客户端的3D桌面程序。他已经看到Azure VM正确地使用GPU呈现,但AWS还有其他服务可以远程运行3D桌面程序,这是我们无法使用的。 抱歉,如果我说的不太合理,因为我是在转述他的经历。 有人遇到过这样的事吗? 谢谢你抽出时间:)
浏览 8
提问于2019-09-23
得票数 0
回答已采纳
1
回答
基于云GPU的高效机器学习开发
、
、
、
、
假设我有一本Juypter,我正在使用它来分析、可视化、测试等等在任意数据集上具有不同超参数的各种机器学习模型,或者我正在开发机器学习库和工具包,都是用Python编写的。我们还可以说,我想使用该数据集运行的一些计算需要一个功能强大的GPU,以便在合理的时间内完成(我猜功能是相对的,我指的是一台拥有1 RTX 3090或可能3080 ti的计算机)。 话虽如此,虽然有几个函数在计算上非常紧张(比如训练一个或多个具有超参数变化的模型),但我编写的大部分代码并不是这样。此外,我也正在计算我想要如何设计我的分析,解决错误,等等。 由于以上所述,我实际需要的(相对)昂贵的、功能强大的GPU所需的时间并
浏览 0
提问于2021-12-24
得票数 0
2
回答
Google Colab CUDA内存不足
、
、
我正在运行一个colab笔记本“迪斯科扩散”,它是一个文字图像ML阿尔戈。我正在尝试呈现,但是我得到了一个运行时错误: 从记忆中消失了。尝试分配960.00 MiB (GPU0;15.78 GiB总容量;14.11 GiB已经分配;158.75 MiB空闲;14.14 GiB被PyTorch总共保留)如果已分配内存,请尝试设置max_split_size_mb以避免碎片化。请参阅内存管理和PYTORCH_CUDA_ALLOC_CONF文档 现在,如果我渲染的尺寸小,它的工作非常好。我试图升级我的GCE,但我仍然得到同样的错误。 这里是代码: https://colab.research.goo
浏览 7
提问于2022-06-06
得票数 1
1
回答
pytorch与autograd.numpy
、
、
pytorch和numpy之间的最大区别是什么,特别是autograd.numpy包?(因为它们都可以自动为您计算梯度。)我知道pytorch可以将张量移动到GPU,但这是选择pytorch而不是numpy的唯一原因吗?虽然pytorch以深度学习而闻名,但显然它可以用于几乎任何机器学习算法,它的nn.Module结构非常灵活,我们不必局限于神经网络。(虽然我从来没有见过用numpy编写的神经网络模型),所以我想知道pytorch和numpy之间最大的区别是什么。
浏览 1
提问于2020-06-16
得票数 2
1
回答
Google Colab有时会在相同的代码下变得更慢。可能的原因是什么?
、
、
、
我正在用Google Colab的GPU通过pytorch训练一个CNN模型。我的问题是,即使运行相同的代码,它有时也会变慢大约三倍(在我的例子中是30s -> 90s )。 我尝试重新启动运行时(它清除所有局部变量,但保留文件),它不起作用 我已经看过GPU post了,但是我已经检查了我的this状态,它在11.5 it下工作得很好。 虽然有时在断开连接一段时间后它会恢复正常,但我仍然想找出可能的原因。
浏览 43
提问于2020-04-04
得票数 1
4
回答
哪里可以便宜地托管小型GPU机器学习API?
、
、
、
我正在尝试制作一些新的web,这些API将从GPU处理中大大受益于已完成/经过培训的机器学习模型。我想让这成为一个公开可用的端点。但是,,我不知道在哪里可以托管一个机器学习爱好项目API?,如果有更好的方法(即只使用GPU,同时处理一个API请求,这是不常见的),我也对此持开放态度。 AWS定价 我能看到的最便宜的是每小时0.50美元,大约每月350美元 谷歌云定价 最便宜的是每月180美元 大型人工智能定价 我发现最便宜的是每小时0.077美元,每月56美元 我找到了这个quora帖子,它告诉我是一个8美元/月的解决方案,但我不确定这是否真的是服务器托管。
浏览 9
提问于2020-11-06
得票数 0
2
回答
连接到本地GPU/运行时的google笔记本会断开吗?
、
、
我使用本地GPU运行google笔记本,因此使用连接到本地运行时的colab功能。 我想知道,当以这种方式运行colab时,在训练模型时,在空闲了几个小时之后,它是否仍然存在着断开运行时的问题。 谢谢你,佩德罗
浏览 7
提问于2022-07-28
得票数 2
4
回答
使用Colab GPU在本地运行ML程序
、
我有一台联想电脑,但没有安装GPU。所以当我运行一个用python编写的机器学习程序时,它会在我的本地CPU上运行。我知道Colab免费为我们提供了一个GPU。要使用它,我需要从我的ML程序中获取所有python文件的内容,并将其放在这个Colab笔记本中。在这一点上不太方便。是否有可能以任何方式运行我的ML程序从我的计算机直接使用Colab GPU,而不直接使用Colab笔记本。 编辑 请注意,我不想从木星笔记本工作。我想在Visual代码中工作,直接在Colab GPU上运行代码,而不是在我的CPU上运行
浏览 5
提问于2021-05-21
得票数 0
2
回答
如何利用多个来训练单个模型
、
、
我在us-central1-f区域被分配了多个Google。这些机器类型都是v2-8。 我如何利用我所有的TPU来训练一个单一的模型? us-central1-f区域,所以使用豆荚似乎并不是解决方案。即使豆荚是可用的,我有v2-8单位的数量不匹配任何一个荚TPU切片大小(16,64,128,256),所以我不能使用它们在一个单独的吊舱。
浏览 0
提问于2019-06-16
得票数 8
回答已采纳
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch官方教程书限时免费!500页内容带你上手最流行框架
Pytorch神器
OpenAI 全面使用 Pytorch,TensorFlow与PyTorch 相爱相杀
初识pytorch(一)
Pytorch神器(6)
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券