首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >tensorflow 常用小技巧

tensorflow 常用小技巧

作者头像
平凡的学生族
发布2019-05-25 09:31:49
3820
发布2019-05-25 09:31:49
举报
文章被收录于专栏:后端技术后端技术

限制TensorFlow使用的GPU资源。

固定比例

# Assume that you have 12GB of GPU memory and want to allocate ~4GB:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)

sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))

按需求增长

config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)

查看GPU使用情况

详细查看

nvidia-smi

简要列出各个GPU

nvidia-smi -L 

使用指定CPU

https://blog.csdn.net/m0_37041325/article/details/77488981 我的虚拟机用的是zsh,所以不是操作~/.bashrc

  1. vim ~/.zshrc
  2. 在.zshrc.最下方添加

export CUDA_VISIBLE_DEVICES='XX'(这个xx是GPU的序号,比如我这边服务器上有8个GTX1080序号是0~7,可以填入任意多个序号,序号间用逗号隔开)

  1. source ~/.zshrc

代码内添加方法:

import os

os.environ['CUDA_VISIBLE_DEVICES'] = "0"
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.04.21 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 限制TensorFlow使用的GPU资源。
  • 查看GPU使用情况
  • 使用指定CPU
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档