这是一个更复杂的问题,但是否有这样做的功能?我只是找不到关于这个主题的任何文档。例如,我的用法如下:
from google.colab import utils # I made this up
colab_pro = utils.colab_is_pro()
if colab_pro:
# train model with higher settings
else:
# train model with lower settings
目前,我确实有办法做到这一点,但这是相当麻烦的:
gpu_name = !nvidia-smi --query-gpu=gpu_name --form
今天我把我的账号升级到了Colab pro。尽管它将ram打印为:
Your runtime has 27.3 gigabytes of available RAM
You are using a high-RAM runtime!
当我开始训练我的模型时,它给出了下面的错误。
RuntimeError: CUDA out of memory. Tried to allocate 88.00 MiB (GPU 0; 15.90 GiB total capacity; 14.75 GiB already allocated; 75.75 MiB free; 14.95 GiB
错误截图:
你好,我正在尝试运行,这是一个分类狗和猫图片的CNN。
我正在使用谷歌Colab的GPU,但出于某种原因,我得到了RuntimeError: No CUDA GPUs are available。这很奇怪,因为我在Colab设置中都特别启用了GPU,然后用torch.cuda.is_available()测试它是否可用,后者返回true。
最奇怪的是,这个错误直到我运行代码大约1.5分钟后才会出现。你会认为如果它不能检测到GPU,它会更早通知我。
我在使用完全相同的笔记本运行其他Pytorch应用程序时,使用Colab GPU没有任何问题。我只能想象这是这个特定代码的问题
我使用Google Colab in Free版本来运行我的Tensorflow代码。12小时后,它会给出错误消息:“由于Colab中的使用限制,您当前无法连接到GPU。”我申请了“出厂重置运行时”再次使用GPU,但它不工作。此外,我终止了所有会话并重新启动,但此过程也没有给出任何解决方案。有没有办法在Google Colab免费版上再次使用GPU?谢谢。
我试图在自定义数据集上训练VGGNET模型,我已经在colab上试验了这个模型,但是现在我需要在本地机器上运行相同的代码。
我尝试用Tensorflow GPU 1.15和CUDA 10.0运行代码(我正在使用的colab有Tensorflow GPU 1.15和CUDA 10.0),但是代码给出了这个错误
...
(0) Unknown: Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so try looking to see if a warning l
一个较新版本的TF (v2.0)正在向XLA设备迁移,但是这会导致TF失去这类设备。即使在环境选项卡中打开GPU,基本示例Colab (可以在这里找到)似乎也无法工作。问题仍然存在,模型要么在CPU上运行,要么在通过使用with tf.device('/device:XLA_GPU:0'):显式指定时运行。
with tf.device('/device:GPU:0'): # <=== Device not found
...
with tf.device('/device:XLA_GPU:0'): # <=== This pa