Google colab连接到本地运行时
使用以下步骤配置本地GPU设置:
编辑->笔记本电脑设置->硬件加速器(GPU)
运行时GPU更改运行时类型->硬件加速器( -> )
已连接(本地)
然后使用以下代码检查在本地运行时上运行的colab是否正在使用本地GPU
import torch
torch.cuda.is_available()上述语句返回False
注:本地计算机系统使用NVDIA GeForce 940M图形处理器
发布于 2021-11-09 21:21:51
根据Pytorch tutorial for Vulkan backend的说法
默认情况下,Pytorch中不包含Vulkan后端。
为了在Vulkan后端使用PyTorch,你需要通过额外的设置从源代码构建它。也许你最好在本地做,而不是Colab。
Pytorch已经支持CUDA和其他GPU加速器,所以除非你打算使用它来推断你的项目,否则最好是按原样使用。
如果您打算使用Vulkan后端,这个github项目有一个DockerFile和构建Pytorch所需的所有脚本以及Pytorch-Android .aar文件。
https://stackoverflow.com/questions/69740064
复制相似问题