腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(8065)
视频
沙龙
1
回答
如何量化Theano脚本中有多少数据被复制到
GPU
中?
、
、
、
、
作为
一般
规则,如果数据可以保留在
GPU
内存
中,通常最好避免重复地将数据从RAM复制到
GPU
内存
。因此,一些代码将数据集作为共享变量()存储在
GPU
内存
中。在Theano中,有没有办法量化执行脚本时有多少数据被复制到
GPU
中?我的目标是估计由于将数据从RAM复制到
GPU
内存
,不将数据集声明为共享变量会在
多大
程度上减慢程序速度。
浏览 0
提问于2015-12-23
得票数 1
1
回答
Tensorflow中有没有等同于torchsummary的东西?
、
、
、
我使用
GPU
在一个大小为55 on的数据集上运行一些非常大的深度学习模型。如果我使用一个大于1的批处理大小,我会得到一个资源耗尽错误。即使批处理大小为1,我也会得到分割错误。
GPU
内存
为10 of,
服务器
具有32 of的RAM。 有没有办法让我知道
GPU
中的数据量(批处理大小为1)会有
多大
?我正在使用tf.Keras来拟合模型。
浏览 32
提问于2021-08-10
得票数 0
1
回答
如何使用Tensorflow进行分布式预测/推理
、
我想使用TF 2.0在我的
GPU
集群上运行分布式预测。我用MirroredStrategy训练了一个用凯拉斯制作的CNN,并保存了下来。我可以加载模型并对其使用.predict(),但我想知道这是否会自动使用可用的
GPU
进行分布式预测。如果不是,我如何运行分布式预测来加速推理并使用所有可用的
GPU
内存
?目前,当运行许
多大
型预测时,我超过了其中一个
GPU
(12 it )的
内存
(需要17 it),推理失败,因为它耗尽了
内存
: Allocator (
浏览 43
提问于2020-06-13
得票数 3
1
回答
VSCode远程开发C++需要
多大
内存
?
、
、
、
、
之前用2G
内存
的云
服务器
个人使用,用VSCode远程写C++,看一些开源项目什么的,但是C++插件占的
内存
比较大,稍微开多一点文件连接就断开了,如果要编译的话有时候完全连不上。
一般
看的项目文件数量都在1000个以内,选云
服务器
的话至少需要
多大
内存
合适呢?
浏览 463
提问于2022-07-30
2
回答
我应该使用哪个WebCL原型?
、
、
我擅长在
GPU
上使用OpenCL/CUDA。
一般
的体验有
多大
不同,我应该使用哪种实现?还是。
浏览 1
提问于2012-07-31
得票数 2
回答已采纳
1
回答
如何知道传递到
GPU
的数据是否会导致CUDA
内存
不足
、
、
、
我正在使用
GPU
运行一些非常大的深度学习模型,当我选择批处理大小为8的时候,它可以放入
内存
中,但如果我使用批处理大小为16,它将导致CUDA
内存
不足错误,我必须杀死进程。我的问题是,在真正将数据传递到
GPU
之前,有没有一种方法可以让我知道
GPU
中的数据量有
多大
?例如,下面的代码是关于我如何创建pytorch数据加载器并将每批数据加载器传递到
GPU
,在我调用batch.to(device)之前,我能知道它有
多大
吗?
浏览 31
提问于2020-08-17
得票数 2
1
回答
玩游戏时可以使用
gpu
卡吗?
、
、
、
在玩3D游戏时,
gpu
卡能用于
gpu
吗?如果是的话,表演成本会有
多大
?以及如何测量它们?在后台使用和不带游戏的情况下运行我的应用程序似乎不是一个值得信赖的解决方案。AFAIK,
gpu
卡忙着渲染场景和其他东西,但我不知道它到底是如何工作的。在用户退出游戏之前,游戏应用程序是否锁定了用于gpgpu的设备?作为另一种解决方案:是否可能只使用单独的
gpu
卡(也许我需要防止它被游戏应用程序使用)?
浏览 3
提问于2015-01-22
得票数 1
1
回答
一个
GPU
能同时运行多少个神经网络?
、
我想确定这样的IP相机的数量,我可以在我的
GPU
上进行并行处理。
浏览 0
提问于2020-04-22
得票数 0
2
回答
GPU
上的动态
内存
分配
在内核中动态分配
GPU
的全局
内存
是可能的吗? 我不知道我的答案会有
多大
,因此我需要一种方法来为答案的每个部分分配
内存
。CUDA 4.0允许我们使用RAM...这是个好主意还是会降低速度??
浏览 5
提问于2011-03-10
得票数 5
回答已采纳
1
回答
argon2的密码哈希安全性与bcrypt/PBKDF2 2?
、
、
、
、
我想知道新的argon2散列 --密码哈希竞争的赢家--能为使用大型
GPU
系统的攻击者提供
多大
的安全裕度-- bcrypt或PBKDF2。实际上,如果我在
服务器
上运行了1秒的密钥派生函数,那么运行argon2一秒可以获得多少安全裕度(例如使用2GB
内存
,否则是默认设置)。 我正在寻找更多的理论答案/猜测的基础上,这些方案之间的密码差异。
浏览 0
提问于2015-11-23
得票数 53
1
回答
VAOs的
内存
占用
谁能告诉我,与VBO相比,cpu/
gpu
内存
中的VAO有
多大
?我的计划是在程序启动时分配大量的VAO作为池,然后根据需要将它们分配给某些渲染调用。 问候
浏览 3
提问于2019-03-27
得票数 0
2
回答
GPU
上的加密,安全与否?
我只是想知道在
GPU
上执行加密是否比在CPU上执行更安全,因为从
内存
和/或各种其他硬件攻击中读取加密密钥的难度更大。这样的攻击能扩展到
GPU
风格的硬件架构吗?做好了吗? 这在
一般
用途的密钥管理中也很有用,在这种情况下,加密密钥必须在一段时间内保密。而不是将它放在
内存
中,它可以进入
GPU
内存
(额外的是:它不能被分页到磁盘或缓存),而且如果您在
GPU
中执行加密,甚至不需要来回移动它。但我肯定还有
GPU
内存
转储程
浏览 0
提问于2012-04-11
得票数 5
回答已采纳
1
回答
模型在训练时如何处理单个批次的样本数量(顺序或并行)?
、
、
、
如果模型按顺序处理样本,那么为什么在增加批处理大小(图像集)时会出现
内存
耗尽错误? 我使用预先训练好的模型来解决street2shop问题。任何答案或参考都是可以理解的。
浏览 0
提问于2019-08-13
得票数 1
1
回答
在不关闭硬件加速的情况下优化CSS3动画会让它在图形处理器上运行得更快吗?
、
、
、
、
只要动画不是
GPU
加速的(原因很明显,即硬件加速会将动画从页面的单进程结构中移除),这种方法就能很好地工作。但这也给我带来了一个百万美元的问题--如果我优化了一些东西,在没有
GPU
加速的情况下运行得更好,这是否意味着相同的优化动画在打开
GPU
加速的情况下会运行得更好(或者更快,或者使用更少的
内存
)?然而,使用
GPU
-on的好处对于肉眼来说并不明显,因为这两个动画的运行速度几乎一样快(因为再次-我无法跟踪
GPU
-on的性能变化)。那么,同样的规则也适用于
GPU
-on和-o
浏览 1
提问于2012-07-27
得票数 1
1
回答
有任何保证火炬不会弄乱一个已经分配的CUDA阵列吗?
、
、
、
假设我们通过PyTorch以外的其他方式在
GPU
上分配了一些数组,例如通过使用numba.cuda.device_array创建
GPU
数组。当PyTorch为一些张量分配稍后的
GPU
内存
时,会不会意外地覆盖我们的第一个CUDA数组所使用的
内存
空间?
一般
来说,由于PyTorch和Numba使用相同的CUDA运行时,因此我假设了相同的
内存
管理机制,它们是否自动知道其他CUDA程序使用的
内存
区域,还是每个程序都将整个
GPU
内存</
浏览 1
提问于2020-03-09
得票数 1
回答已采纳
1
回答
内存
中缓存数据的性能命中
、
使用ASP.NET中的运行时
内存
缓存,存储数据的潜在缺陷是什么?
一般
情况下,有多少数据“太多”,规模有
多大
?
浏览 0
提问于2015-04-15
得票数 0
回答已采纳
2
回答
使用Tensorflow的CPU/
GPU
内存
使用量
、
、
我想运行一个在
服务器
上也使用Tensorflow的Python脚本。当我在没有会话配置的情况下运行它时,进程会分配所有
GPU
内存
,从而阻止任何其他进程访问
GPU
。
服务器
规范如下: 在Tensorfl
浏览 9
提问于2017-05-16
得票数 1
1
回答
什么是
GPU
实例,它与标准实例有什么不同?
、
、
我已经读到了很多关于团结5.4中的新特性的辩论:
GPU
实例。我理解在
一般
情况下的重要性,无论是在节省
内存
和吸引电话方面。然而,即使在阅读了一些之后,我仍然无法理解
GPU
实例和非
GPU
实例之间究竟有什么不同,更重要的是,所谓的
GPU
在性能方面的优势来自哪里。 谢谢你的知识和任何参考资料。
浏览 0
提问于2016-05-29
得票数 1
回答已采纳
3
回答
Apache mod_wsgi django调用keras模型时,如何释放占用的
GPU
内存
?
、
、
、
我的
服务器
配置如下: 谢谢!
浏览 17
提问于2017-05-12
得票数 15
回答已采纳
1
回答
在
服务器
上安装应用程序,并从客户端运行它。
、
、
当涉及到与
服务器
相关的问题时,绝对没有经验,但是在工作中出现了一个问题。使用可用的
GPU
执行计算 使用CPU(s)执行计算。客户端各有一个
GPU
和一个CPU (32个逻辑核)。如果我们把工作推到
GPU
上,它可以工作,但不是
浏览 0
提问于2018-03-08
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
GPU事务性内存技术研究
服务器内存和普通内存有什么区别?普通电脑能用服务器内存吗?
一文读懂AI时代GPU的内存新宠-HBM
更换服务器内存
商城服务器需要多大的带宽?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券