腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(7378)
视频
沙龙
1
回答
如何
确保
所有
PyTorch
代码
充分利用
Google
Colab
上
的
图形
处理器
python
、
gpu
、
pytorch
、
google-colaboratory
我是
PyTorch
的
新手,并且一直在做一些关于CIFAR10
的
教程,特别是
Google
Colab
,因为我个人还没有一个
图形
处理器
来对它进行实验。我已经成功地训练了我
的
神经网络,但我不确定我
的
代码
是否使用了
Colab
的
图形
处理器
,因为使用
Colab
的
训练时间并不比我2014年
的
MacBook专
浏览 1
提问于2018-09-01
得票数 4
回答已采纳
1
回答
如何
在windows wsl 2
上
安装
pytorch
0.3
python
、
windows
、
pytorch
、
windows-subsystem-for-linux
如何
在windows wsl 2 (Ubuntu-20.04)
上
安装支持gpu
的
pytorch
0.3?我在这个链接https://
pytorch
.org/get-started/previous-versions/中尝试了旧版本
的
pytorch
的
轮子,但没有得到可行
的
解决方案。我使用
的
是conda和python 3.6。
浏览 30
提问于2021-09-26
得票数 1
5
回答
torch.cuda.is_available()在
colab
中返回false
python
、
pytorch
、
google-colaboratory
我正在尝试在
google
colab
中使用GPU。下面是我
的
colab
中安装
的
pytorch
和cuda版本
的
详细信息。CorporationCuda compilation tools, release 10.0, V10.0.130 我对在
pytorch
模型
上
使用GPU进行迁移学习非常陌生。我
的
torch.cuda.is_availabl
浏览 561
提问于2019-12-03
得票数 4
回答已采纳
1
回答
在AWS sagemaker notebook实例中使用
pytorch
cuda
amazon-ec2
、
pytorch
、
amazon-sagemaker
在
colab
中,每当我们需要
图形
处理器
时,我们只需单击change runtime type并将硬件加速器更改为GPU cuda可用,torch.cuda.is_available()就是True
如何
做到这一点是我是AWS
的
新手,正在尝试在aws sagemaker中使用
pytorch
训练模型,
Pytorch
代码
首先在
colab
环境中进行测试。 我
的
sagemaker笔记本电脑是ml.t2.medium
浏览 31
提问于2021-04-02
得票数 0
回答已采纳
2
回答
如何
创建预装tensorflow或
pytorch
的
GPU虚拟机?
google-dl-platform
我使用
的
是
Google
Cloud。有没有一种简单
的
方法来创建带有GPU
的
虚拟机,并预装TensorFlow或
pytorch
?
浏览 13
提问于2018-07-04
得票数 0
2
回答
如何
在
PyTorch
中使用TPU?
python
、
pytorch
、
tpu
我正在尝试使用
pytorch
_xla使用TPU,但它在_XLAC中显示导入错误。 import torch_xla
浏览 19
提问于2020-05-17
得票数 6
1
回答
Tensorflow在家用PC
的
GPU
上
运行,但不在
Google
colab
上
运行
python
、
tensorflow
、
google-colaboratory
我正在尝试在
google
colab
上
训练神经网络: 我在
Google
Colab
上
运行这段
代码
(硬件加速器设置为GPU),并且训练速度比在我
的
家用PC
上
运行慢40倍,而我
的
家用PC
的
GTX 1050要弱得多所以我猜在
colab
上
它不是在GPU
上
运行
的
。
google
colab
上</e
浏览 1
提问于2018-12-05
得票数 0
1
回答
在本地打开变压器保存
的
模型
python
、
nlp
、
huggingface-transformers
我有一个使用BertModel.from_pretrained('test_model')保存
的
转换器模型然后,我想用BertModel.from_pretrained('test_model/')打开它,但我
的
本地PC
上
没有
图形
处理器
。GPU and installed a driver from http://www.n
浏览 2
提问于2020-11-21
得票数 1
1
回答
如何
在
Google
Colab
中使用TreeTagger?
google-colaboratory
、
treetagger
我想使用TreeTagger模块来标记原始语料库
上
的
词性信息。由于通过
Google
Colab
使用
图形
处理器
似乎更快,我安装了TreeTagger模块,但
Colab
代码
找不到TreeTagger目录。
浏览 11
提问于2021-01-29
得票数 1
2
回答
pytorch
geometric在
google
colab
上
“检测到
PyTorch
和torch_sparse是用不同
的
CUDA版本编译
的
”
pytorch
、
google-colaboratory
、
torch
我刚接触
pytorch
geometric,尝试将其安装到我
的
计算机上,但失败了,所以我尝试在
Google
Colab
上
运行
代码
。根据前面的问题(这对我没有帮助,我也不确定是不是同一个问题):
PyTorch
Geometric CUDA installation issues on
Google
Colab
我做到了: !pip install torch-cluster==latest+cu101 -f https:/&
浏览 167
提问于2020-04-19
得票数 4
3
回答
如何
在DGL中修复'ImportError: /home/ ... /lib/libtorch.so.1: undefined symbol: nvrtcGetProgramLogSize‘?
pytorch
我在dgl (DeepMind
的
深度
图形
库)中导入
pytorch
时出错,具体地说: 符号: /home/user/anaconda3/envs/my_env/lib/python3.7/site-packages我也在谷歌
上
搜索,我找到了这个https://github.com/
pytorch
/
pytorch
/issues/14973。这是基本<em
浏览 179
提问于2019-04-13
得票数 5
1
回答
将训练数据从matlab转移到tensorflow
python
、
matlab
、
tensorflow
、
google-colaboratory
、
semantic-segmentation
我已经使用MATLAB
的
图像标签应用程序创建了500张图像
的
PixelLabelData。因此,我得到了每个图像
的
原始图像和类标签。此信息存储在.mat格式
的
gTruth文件中。我想使用这个数据集来训练tensorflow (
Google
Colab
)中
的
Unet。我无法在MATLAb
上
完成训练任务,因为系统限制(内存不足,没有
图形
处理器
).However,我读到我们可以从MATLAB导入训练数据用于
Cola
浏览 0
提问于2019-12-23
得票数 0
1
回答
迭代器不适用于
图形
处理器
上
的
DataLoader
python
、
pytorch
、
google-colaboratory
我在谷歌
Colab
上
使用
PyTorch
,我在使用
图形
处理器
时遇到这个错误, TypeError Traceback (most recentdataiter= iter(trainloader) TypeError: '_SingleProcessDataLoaderIter' object is not callable 但是wen使用正常
的
CPU我
的
代码
: %ma
浏览 31
提问于2020-08-19
得票数 0
回答已采纳
1
回答
在出现以下CUDA错误“Cuda assert fails: device-side assert triggered”后,
如何
重置
Colab
?
python
、
pytorch
、
google-colaboratory
、
tensor
我在
Google
Colab
上
使用
Pytorch
运行我
的
Jupyter Notebook。在我收到“Cuda断言失败:设备端断言触发”之后,我无法运行使用我
的
pytorch
模块
的
任何其他
代码
。有没有人知道
如何
重置我
的
代码
,让我以前工作
的
Pytorch
函数仍然可以运行? 我已经尝试实现了CUDA_LAUNCH_BLOCKING=1,但是我
的
浏览 2
提问于2019-02-08
得票数 3
回答已采纳
1
回答
无法
充分利用
Colab
中
的
GPU配置
deep-learning
、
google-colaboratory
、
face-recognition
但是当我在
Google
上
运行它时,它只使用了42 GB中
的
1.12 GB
的
GPU。我已经启用并检查了
colab
的
所有
配置,并在
代码
中使用
Pytorch
包装器。 请帮助我
如何
使用科拉布
的
全部资源。
浏览 2
提问于2022-05-24
得票数 0
1
回答
Google
Colab
GPU加速适用于2.x,但不适用于1.x
tensorflow
、
google-colaboratory
在https://
colab
.research.
google
.com/notebooks/gpu.ipynb中,我假设这是谷歌
的
图形
处理器
加速
的
官方演示,如果我遵循这些步骤,使用Tensorflow2.x
的
图形
处理器
加速(大约比CPU快60倍)工作。但是,如果我想使用1.15版本,就像在https://
colab
.research.
google</e
浏览 16
提问于2019-12-25
得票数 1
回答已采纳
1
回答
google
colab
使用本地运行时,不检测本地gpu
python
、
machine-learning
、
deep-learning
、
pytorch
、
google-colaboratory
Google
colab
连接到本地运行时 使用以下步骤配置本地GPU设置: 编辑->笔记本电脑设置->硬件加速器(GPU) 运行时GPU更改运行时类型->硬件加速器( -> ) 已连接(本地) 然后使用以下
代码
检查在本地运行时
上
运行
的
colab
是否正在使用本地GPU import torch torch.cuda.is_available() 上述语句返回False 注:本地计算机系统使用NVDIA GeForce 940M
图形
处理器</
浏览 147
提问于2021-10-27
得票数 1
3
回答
如何
充分利用
多
处理器
?
java
、
multithreading
、
web-crawler
、
multiprocessing
我正在使用Java在一个有32个虚拟
处理器
的
服务器
上
做网络爬行。我怎样才能
充分利用
这些
处理器
?我看到了一些关于多线程编程
的
建议,但我想知道
如何
确保
所有
处理器
都能得到利用,因为我们也可以在单
处理器
机器上进行多线程编程。
浏览 1
提问于2012-08-19
得票数 2
回答已采纳
1
回答
在
Google
Colab
中使用多个GPU
的
Tensorflow中
的
分布式训练
tensorflow
、
gpu
、
distributed-computing
、
google-colaboratory
我正在使用
Google
Colab
和Python3来实现一个带有定制
的
、分布式
的
训练循环
的
神经网络,如本指南中所述: 在“创建分发变量和
图形
策略”部分
的
指南中,有一些
代码
的
图片,这些
代码
基本
上
设置了一个“MirroredStrategy”,然后打印生成
的
模型副本
的
数量,请参见下面的内容。据我所知,输出表明MirroredStrategy只创建了模型
的</e
浏览 8
提问于2019-09-19
得票数 5
2
回答
google
colab
中目录
的
访问
python
、
google-colaboratory
晚上好,我正在使用谷歌
colab
,因为它支持
图形
处理器
和TPU,没有它,我不能在我
的
电脑
上
运行很多深度学习
代码
,我已经安装了谷歌
colab
,只是问题如下:假设我
的
工作目录是这个from
google
.
colab
import drive drive.mount('/content/dr
浏览 3
提问于2020-01-13
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券