首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >我能在colab中清除gpu vram吗?

我能在colab中清除gpu vram吗?
EN

Stack Overflow用户
提问于 2022-03-06 15:42:13
回答 2查看 2.1K关注 0票数 4

我试图使用aitextgen来完成数据集上的774兆gpt 2。不幸的是,不管我做什么,培训都失败了,因为只有80 mb的vram可用。如何在不重新启动运行时的情况下清除vram,并防止vram被填满?

EN

回答 2

Stack Overflow用户

发布于 2022-03-07 14:28:28

另一种解决方案可以是使用这些代码段。

1.

代码语言:javascript
运行
复制
!pip install numba

  1. Then:

代码语言:javascript
运行
复制
from numba import cuda
# all of your code and execution
cuda.select_device(0)
cuda.close()

您的问题在Tensorflow官方github中讨论过。https://github.com/tensorflow/tensorflow/issues/36465

更新:@炼金术报告说,就开启而言,这是无法恢复的。你可以试试下面的代码。

代码语言:javascript
运行
复制
device = cuda.get_current_device() 
device.reset()
票数 4
EN

Stack Overflow用户

发布于 2022-03-06 16:24:56

  1. 在笔记本块中运行命令!nvidia-smi
  2. 查找GPU的进程id,这对于清理vram来说是不必要的。然后运行命令!kill process_id

它应该对你有帮助。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/71371756

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档