腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
使用Tensorflow的CPU/
GPU
内存
使用量
python-2.7
、
tensorflow
、
multi-gpu
我想运行一个在
服务器
上也使用Tensorflow的Python脚本。当我在没有会话配置的情况下运行它时,进程会分配所有
GPU
内存
,从而阻止任何其他进程访问
GPU
。
服务器
规范如下: 在Tensorfl
浏览 9
提问于2017-05-16
得票数 1
3
回答
Apache mod_wsgi django调用keras模型时,如何释放占用的
GPU
内存
?
django
、
apache
、
memory
、
keras
我的
服务器
配置如下: 谢谢!
浏览 17
提问于2017-05-12
得票数 15
回答已采纳
1
回答
使用Nvidia
GPU
节点在Kubernetes上运行一个例子
tensorflow
、
kubernetes
、
nvidia-docker
我正在尝试用Nvidia
GPU
节点/奴隶来设置Kubernetes。我遵循了的指南,并且能够让节点加入集群。我尝试了下面的kubeadm示例pod:kind: Pod name:
gpu
-pod containers: extendedResources: resources: nvid
浏览 3
提问于2018-08-07
得票数 1
回答已采纳
1
回答
Gunicorn工作者,用于
GPU
任务的线程,以增加并发/并行性。
concurrency
、
parallel-processing
、
pytorch
、
gpu
、
gunicorn
我正在使用烧瓶与Gunicorn实现一个人工智能
服务器
。
服务器
接收HTTP请求并调用该算法(用py手电筒构建)。计算在nvidia
GPU
上运行。本机有8 vCPUs,20 GB
内存
,1
GPU
,12 GB
内存
。具体问题是 如何增加
浏览 5
提问于2021-02-09
得票数 0
1
回答
Tensorflow分配所有
GPU
,尽管另有说法
python-2.7
、
tensorflow-gpu
SInce
服务器
是与其他同事共享的,我想限制我的脚本最多只能使用
服务器
内存
的1/3。为了实现这一点,我做了以下工作: with tf.Graph().as_default():
gpu
_options = tf.GPUOptions(allow_growth=True, per_process_
gpu
_memory_fraction=
gpu
_options) with tf.Session(conf=session_conf) as sess:
浏览 0
提问于2017-05-26
得票数 0
2
回答
针对昂贵资源的kubernetes调度
docker
、
kubernetes
、
gpu
、
resource-scheduling
现在我们想用
GPU
节点来扩展它(因此这将是Kubernetes集群中唯一拥有
GPU
的节点)。 我们希望避免Kubernetes在这些节点上调度pod,除非它们需要
GPU
。并不是所有的管道都可以使用
GPU
。绝大多数仍然只占用大量CPU资源。 配备
GPU
的
服务器
可能非常昂贵(例如,Nvidia DGX每台
服务器
可能高达150美元/k)。资源,如CPU和
内存
,因此它们将不得不等待非
GPU
作业/容器完成)。是否有办法在Ku
浏览 24
提问于2018-12-20
得票数 1
回答已采纳
2
回答
VBO使用的"OpenGL
内存
“在哪里?
opengl
、
graphics
、
opengl-es
、
gpu
我正在学习如何使用VBO,正如书中所说, 那么,
GPU
在这方面到底能处理些什么呢?假设"OpenGL
内存
“可以存储数百万多边形的顶点数据,这是可以接受的吗?移动设备中的
GPU
呢?虽然开发人员习惯于在CPU上设置
内存
限制的参考框架,但学习OpenGL在一定程度上是很有挑战性的,因为我对CPU不太了解,也不太了解他们对硬件的期望。
浏览 3
提问于2013-02-28
得票数 6
回答已采纳
2
回答
分布式tensorflow的PS
服务器
是否自动使用所有
GPU
?
tensorflow
、
distributed
FLAGS.job_name, server.join()|
GPU
PID Type Process name Usage | |==================================C
浏览 3
提问于2017-04-13
得票数 0
1
回答
双
GPU
中的
内存
使用(多
GPU
)
opencl
、
gpgpu
、
hpc
我正在使用两个配置相同的
GPU
作为我的高性能
GPU
计算使用OpenCL。其中一个卡是为显示目的连接的,两个程序compiz和x
服务器
总是使用大约200-300 MB的
内存
。我的问题是,当使用这些
GPU
进行计算时,我只能使用
GPU
中的部分
内存
,用于显示目的,而第二个
GPU
则可以使用整个全局
内存
。在我的例子中,我使用两个Nvidia Quadro 410,它有192个cuda核,512 MB作为
内存
,但503 MB可用。
浏览 7
提问于2016-06-02
得票数 0
2
回答
CUDA与web开发
cuda
显然,
GPU
的每个核心都可以处理一个请求,而不是一个主处理器(系统的CPU)处理所有请求。从表面上看,这似乎是可能的,也许使用
GPU
+ Redis数据库中的模板在
GPU
GDDR5中?
浏览 4
提问于2010-10-21
得票数 1
回答已采纳
1
回答
没有
GPU
的
服务器
适合远程桌面吗?
remote-desktop
、
rdp
、
desktop
、
remote-desktop-gateway
我想买一个
服务器
4核心英特尔XeonE3-1220 v5 (16 GB
内存
),但没有
GPU
。 我们需要
GPU
在
服务器
端,以正常显示桌面屏幕通过remore桌面,还是我们需要
GPU
在客户端?还是两边的?
浏览 0
提问于2017-07-31
得票数 1
回答已采纳
2
回答
如何减少CUDA上下文大小(多进程服务)
cuda
、
gpu
、
gpgpu
、
cuda-context
、
multi-process-service
减少了
GPU
上下文存储现在,回到这个例子。没有议员:议员们:不幸的是,每个进程仍然占用几乎相同的
内存
量(~300 of )。有办法降低每个进程的
内存
消耗吗?
浏览 6
提问于2019-12-19
得票数 0
回答已采纳
1
回答
如何防止Tensorflow在使用紧急执行时分配整个
GPU
内存
?
tensorflow
我有几乎相同的问题已经回答了,但略有不同:config = tf.ConfigProto()os.environ[&
浏览 0
提问于2018-11-03
得票数 1
1
回答
如何解释NVIDIA
GPU
中的“NVIDIA-smi`”这个数字?
cuda
、
nvidia
我刚刚在一个安装了两个simpleMultiGPU
GPU
的
服务器
上运行了K20m。然后运行nvidia-smi命令来显示
GPU
的状态。结果如下:问题如下: 有什么建议吗?
浏览 3
提问于2014-09-07
得票数 3
回答已采纳
1
回答
为什么多个
GPU
被使用,即使我从终端选择一个?
python
、
pytorch
、
gpu
我有一个
服务器
访问,它有多个
GPU
,可以同时被许多用户访问。我只从终端中选择了一个
gpu
_id,并且有这样的代码。device = "cuda:"+str(FLAGS.
gpu
_id) if torch.cuda.is_available() else "cpu" 其中FLAGS是一个解析器,解析终端中的参数。尽管我只选择了一个id,但我看到我使用的是两个不同的
GPU
。这会导致问题,当其他
GPU
内存
几乎满时,而我的进程通过抛出&qu
浏览 5
提问于2022-09-08
得票数 0
2
回答
OpenGL (ES)如何存储纹理/顶点
opengl-es
它是将任何数据复制到它自己的
内存
中,还是只存储指向数据的指针。如果没有做应对(什么是合乎逻辑的),那么为什么要使用VBO。
浏览 0
提问于2012-05-10
得票数 1
回答已采纳
8
回答
如何使用CUDA刷新
GPU
内存
(物理重置不可用)
cuda
、
gpgpu
、
remote-access
在
内存
被刷新之前,我的CUDA程序在执行期间崩溃了。结果,设备
内存
仍然被占用。我正在使用
GPU
远程访问Fedora
服务器
,因此物理重置相当复杂。因此,问题是-在这种情况下,有没有办法刷新设备
内存
?
浏览 10
提问于2013-03-04
得票数 68
回答已采纳
1
回答
渲染2d动画精灵openGl ES的最佳方法
iphone
、
android
、
opengl-es
、
2d
、
sprite
我正在安卓系统上写一款2d游戏,我的目标手机是最低限度支持OpenGl es1.1的手机。我想坚持Opengl 1.1,所以我避免着色器,我想知道其他人是如何实现动画精灵的。有一个具有一个纹理坐标集的单一顶点缓冲对象,然后使用大量预先加载的纹理,这些纹理将在运行时按正确的顺序交换。只有一个纹理精灵页,并在运行时修改纹理坐标,以显示sprite表的correct分段。谢谢
浏览 2
提问于2011-03-17
得票数 3
回答已采纳
1
回答
OpenGL +优化用于布料模拟的绘制粒子对象
c++
、
opengl
根据我微不足道的经验,绘制这些粒子的方法似乎是将整个粒子对象数组发送到
GPU
,然后使用Glvertexattribpointer()给它一个步幅。然而,在这样做的时候,似乎有相当多的不必要的信息被传递到
GPU
。我曾经考虑过创建一个新的数组,并在每次draw调用的迭代中只填充位置数据,但这种方法似乎占用了大量的
内存
和CPU资源。与创建仅顶点数组相比,向
GPU
发送不需要的数据所导致的惩罚如何?诚然,我的粒子类不是很大,但我认为布料需要大量的粒子,因此冗余数据可以快速累积。有没有我不知道的这两种方法的替代方法?
浏览 0
提问于2016-02-09
得票数 0
1
回答
DSVM
GPU
内存
不足
apache
、
keras
、
gpu
、
azure-dsvm
服务器
运行Flask、Apache和Keras。问题是,即使使用我的模型进行预测的批处理大小很小,
GPU
也会耗尽
内存
。在没有运行的情况下,12 is的
GPU
使用了超过10 is的
内存
。也许这是因为Apache的一个问题。
浏览 4
提问于2018-01-31
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
GPU事务性内存技术研究
服务器内存和普通内存有什么区别?普通电脑能用服务器内存吗?
更换服务器内存
NVIDIA:深度学习GPU服务器搭建指南
GPU服务器有什么用?从民生到国防,GPU服务器正在大显身手!
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券