腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1643)
视频
沙龙
1
回答
如何将
经过
GPU
训练
的
模型
加
载到
CPU
(
系统
)
内存
中
?
、
、
我在
GPU
上
训练
了一个
模型
,现在我正试图在
CPU
上对其进行评估(
GPU
正用于不同
的
训练
运行)。但是,当我尝试使用以下命令加载它时: with tf.device('/
cpu
:0'): model = tf.keras.models.load_model('models/resnet50_该
模型
似乎正在加
载到
GPU
中
,该<em
浏览 33
提问于2019-10-17
得票数 2
回答已采纳
3
回答
带有tensorflow-
gpu
的
Keras完全冻结了PC。
、
、
、
、
我有非常简单
的
建筑lstm。model.compile(loss = 'categorical_crossentropy', optimizer = RMSprop(lr=0.01), metrics=['accuracy'])我有最新
的
Linux,1070ti,8GB,32 8GB ram
浏览 0
提问于2018-07-13
得票数 5
回答已采纳
1
回答
Tensorflow程序用来存储数据
的
内存
是什么?
、
、
、
我想接下来
的
情况。 我理解tensorflow-
gpu
在
gpu
上使用RAM,如果可能的话,可以将参数作为默认存储。但是对于输入数据在传递给tf.placeholder之前,它是存储在哪个
内存
中
的
,是用于
浏览 0
提问于2019-05-03
得票数 0
回答已采纳
1
回答
如何将
经过
gpu
训练
的
模型
加
载到
cpu
中
?
、
、
、
、
我将在带有
CPU
的
多个
GPU
上使用已经
训练
好
的
模型
。如何完成这项任务?我尝试了Anaconda 3和pytorch
的
cpu
,但我没有
gpu
model = models.get_pose_net(config, is_train=False) gpus = [int(i)\torch\nn\modules\module.py in _apply(self,fn) 185定义_apply(self,fn):186表示self.chil
浏览 99
提问于2019-04-04
得票数 7
回答已采纳
1
回答
内存
错误。
GPU
上
的
进程使用
CPU
/
系统
内存
、
、
在将tensorflow图像更新到过去
训练
的
22.01-tf2-py3,
模型
之后,现在给我一个
内存
错误。Tensorflow似乎使用
的
是
系统
内存
,而不是
GPU
,程序初始化后停止。在进行了一些研究之后,我发现问题在于在运行
GPU
时为该进程分配
的
CPU
/
系统
内存
。另外,
GPU
上
的
tf进程比数据集
的</em
浏览 5
提问于2022-02-28
得票数 -1
1
回答
为什么
GPU
不使用
系统
内存
?
、
、
、
、
我已经注意到,更多
的
时候,当在消费类
GPU
(如GTX1050ti)上培训庞大
的
深度学习
模型
时,网络往往不起作用。所以我
的
问题是--有没有办法用从
系统
内存
中提取
的
内存
浏览 0
提问于2020-04-02
得票数 0
回答已采纳
1
回答
用
GPU
安装火花-nlp
、
、
、
我是电火花和火花-nlp
的
新手,我想在WSL-2 Windows 10上使用带有
GPU
支持
的
码头容器
中
的
火花-nlp。在安装spark nlp之后,可以使用预先
训练
过
的
模型
和管道,但是
CPU
和
GPU
的
速度没有差别。Nvidia显示
模型
被加
载到
GPU
内存
中
.请您告诉我我必须安装
的
库
的</
浏览 6
提问于2022-10-14
得票数 0
1
回答
深度学习虚拟机:如何释放
内存
?
、
、
、
、
我是GCP和Deep Learning VM
的
新手。我得到它是为了
训练
一些深度学习
模型
。当在google cloud jupyter笔记本上
训练
时,它崩溃了,因为它无法将输入张量从
GPU
复制到
CPU
:具体如下: InternalError: Failed copying input tensorfrom /job:localhost/replica:0/task:0/device:
GPU
:0 to /job:localh
浏览 166
提问于2021-07-19
得票数 1
1
回答
如果我正在运行tensorflow
中
的
VRAM,是否可以使用
CPU
RAM?
、
、
我想
训练
一个在tensorflow上运行
的
模特。我有一个
GPU
,但它只有6gb
的
VRAM。所以我想知道是否可以使用一些
CPU
的
RAM来卸载
GPU
?
浏览 0
提问于2021-01-20
得票数 3
17
回答
如何避免PyTorch
中
的
“数据自动化
系统
内存
不足”
、
、
、
、
我认为对于
内存
较低
的
PyTorch用户来说,这是一个非常常见
的
消息:我试图通过将每个层加
载到
GPU
并将其加载回图像来处理图像: m.cuda()
浏览 16
提问于2019-12-01
得票数 106
回答已采纳
2
回答
TensorFlow Keras CuDNNGRU到GRU转换
、
、
、
、
我在TensorFlow 1.14
中
构建了一个
经过
训练
的
模型
,该
模型
使用(现在已被废弃
的
) 层(在
中
的
TensorFlow 2.0
中
可用),并且我正在尝试将旧层
的
权重移植到一个使用构建
的
新TensorFlow2.0
模型
中
,以获得一个等效
的
模型
。这样做
的
一个动机是能够在
CPU
上
浏览 4
提问于2019-11-11
得票数 2
回答已采纳
1
回答
如何在一个程序
中
运行2种不同
的
tf.keras
模型
--一种是在
CPU
上,另一种是在
GPU
上
、
、
、
我正在
训练
一个深层次
的
神经网络
模型
--让我们称之为
模型
A- -在我
的
主要
训练
脚本train.py上使用train.py。此train.py导入utils.py,其中定义了提供培训过程
的
数据生成器。utils.py还导入other_utils.py,其中创建并初始化了一个
经过
预先
训练
的
深层神经网络
模型
-MODEL B-,因为数据生成器使用它来处理培训数据。模式B
的
初始化已经使用了大部
浏览 3
提问于2022-01-10
得票数 0
回答已采纳
1
回答
有没有在tensorflow
中
“交换”
GPU
内存
的
方法?
、
我正在
训练
一个大型号,超过
GPU
内存
(超过11 GB)。我想知道tensorflow
中
是否有将
GPU
内存
转换为主
内存
的
方法。有些效率
的
损失是可以接受
的
。完全在
CPU
上对
模型
进行
训练
,解决了
内存
问题,但速度太慢。
浏览 0
提问于2018-03-23
得票数 3
1
回答
Tensorflow:用图形
训练
模型
,这些图形不适合单个
GPU
的
记忆
、
、
、
在构建图形时会引发MemoryError,在任何东西都将被转移到
GPU
之前。MemoryError是由于试图分配比机器可用
的
内存
更多
的
内存
造成
的
。我所拥有的:多个
GPU
我想做
的
是:在一个
GPU
中
通过几次
训练
,或者更好
的
是,同时使用所有的
浏览 0
提问于2018-07-13
得票数 2
回答已采纳
1
回答
TensorflowJS:同时
训练
多个
模型
(以提高性能)
在我
的
项目中,我正在
训练
许多小图形。鉴于这项工作是如何在
GPU
上完成
的
,并且
GPU
的
运行速度只有5%,同时
训练
许多图形以提高性能是否有意义?我只是有点担心,因为我知道JS并不是一种真正
的
线程语言。
浏览 0
提问于2018-06-28
得票数 0
2
回答
在
GPU
上预先
训练
过
的
Keras
模型
是否可以仅用于
CPU
上
的
预测?
、
、
、
、
我
的
问题是,如果我在一个像RTX泰坦这样
的
高端
GPU
上
训练
一个
模型
,我能否导出这个
模型
,将它加
载到
另一个低端机器上
的
一个新程序
中
,然后只使用
CPU
进行预测。这有可能吗?理论上,我认为这就是机器学习
的
方式。该
模型
是在高端
GPU
上
训练
的
,一旦导出,它就可以加
载到
任何机器上,不管它是否有
GPU
,并且
浏览 1
提问于2020-09-04
得票数 1
回答已采纳
3
回答
关于Cuda 4.0和统一
内存
模型
的
问题
、
、
、
、
Nvidia似乎在吹捧Cuda 4.0允许程序员在
CPU
和
GPU
之间使用统一
的
内存
模型
。这不会取代在
GPU
和
CPU
中
手动管理
内存
以获得最佳性能
的
需求,但它是否允许更容易
的
实现,这些实现可以
经过
测试、验证,然后进行优化(手动管理
GPU
和
CPU
内存
)?我想听到一些评论或意见:)
浏览 2
提问于2011-03-01
得票数 2
回答已采纳
3
回答
我们可以在.fit()方法中使用
的
最大和最小批处理大小是多少?
、
我想看看批处理大小对泛化
的
影响,我想用所有可能
的
批处理大小来运行我
的
.fit()方法。但我想知道选择批量大小
的
限制因素是什么?它依赖于什么,一台机器??数据集? 任何帮助都是非常感谢
的
浏览 0
提问于2021-03-04
得票数 0
1
回答
BERT基座未加要求
的
gpu
ram
、
、
我正在处理一个NLP任务,使用BERT,我对
GPU
内存
有一点疑问。我已经建立了一个
模型
(使用DistilBERT),因为我在RTX3090 (24 of
的
图形处理器
的
内存
,但~20.5gb可用)上出现
内存
不足
的
问题。为了使它发挥作用,我将我
的
数据限制为
训练
集中
的
1.1兆个句子(截短128个单词
的
句子),以及大约300 K
的
验证,但使用
的
是较大<e
浏览 0
提问于2022-05-11
得票数 1
回答已采纳
2
回答
为什么通用
GPU
的
内存
如此有限?
、
我们经常发现,神经网络
的
训练
过程可能受到
GPU
内存
大小
的
高度限制,比如在目标检测
模型
中
,
训练
批次
的
大小可能被限制在1或2以内,这使得那些在这样
的
任务
中
工作很长时间的人不得不面对这样有限
的
内存
/批处理大小
的
场景而提出了一些技巧那么,为什么
GPU
内存
仅限于普通P 100/V 100上
的<
浏览 0
提问于2018-12-14
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
训练一个130亿参数的模型要用几个GPU?微软:一个就够
IBM展示10倍速GPU机器学习,处理30GB训练数据只要1分钟
跑ChatGPT体量模型,从此只需一块GPU:加速百倍的方法来了
Facebook推出数据并行训练算法FSDP:采用更少的GPU,更高效地训练更大数量级的模型
IBM全新机器学习库SnapML:训练提速46倍,40亿样本仅需91.5秒
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券