其中一个要求,我应该安装cuDF与GPU特斯拉T4。而google每次给我、GPU、特斯拉、K80、和我都不能安装cuDF。我试过这段代码来检查我每次都有哪种类型的GPU:handle = pynvml.nvmlDeviceGetHandleByIndex(Please make sure you've configured Colab to request a GPU instance type.If you get a K80 GPU
我做了比较-相同的数据文件(分类问题,10K评论的情感分析),完全相同的笔记本代码(copy+paste),相同的最新版本的ktrain安装在两者上,两者都必须在Python3.8上,但GPU在colab至少让我感到惊讶的是:谷歌实验室的工作速度比快了10倍: 17分钟对170分钟,而且它是可复制的。特斯拉实验室( Tesla T4,colab)确实比K80 (天蓝色)快,但并不像已知的基准那么快。顺便说一句,谷歌免费为你提供实验室里的T4,而你必须在Azure支付较慢的K80。Google协同实验室执行
train model with higher settings # train model with lower settingsgpu_namenvidia-smi --query-gpu=gpu_name --format=csvcolab_pro = False if 'T4' in gpu_nam