学习
实践
活动
专区
工具
TVP
写文章
  • 广告
    关闭

    热门业务场景教学

    个人网站、项目部署、开发环境、游戏服务器、图床、渲染训练等免费搭建教程,多款云服务器20元起。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Pytorch的to(device)用法

    如下所示:device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")model.to(device)这两行代码放在读取数据之前 mytensor = my_tensor.to(device)这行代码的意思是将所有最开始读取数据时的tensor变量copy一份到device所指定的GPU上去,之后的运算都在GPU上进行。 这句话需要写的次数等于需要保存GPU上的tensor变量的个数;一般情况下这些tensor变量都是最开始读数据时的tensor变量,后面衍生的变量自然也都在GPU上如果是多个GPU在代码中的使用方法为:device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")model = Model()if torch.cuda.device_count () > 1: model = nn.DataParallel(model,device_ids=[0,1,2]) model.to(device) Tensor总结(1)Tensor 和 Numpy

    13.5K10

    扫码关注腾讯云开发者

    领取腾讯云代金券