腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7286)
视频
沙龙
8
回答
腾讯云
服务器
可以玩游戏吗?
比如lol,穿越火线,火线精英等
浏览 12363
提问于2018-04-22
1
回答
在图形处理器上运行的CatBoost性能比在CPU上运行的性能差得多。
、
我们正在CPU和
GPU
上测试CatBoost。虽然它在
GPU
上的运行速度比在CPU上快得多,但我们得到的结果要差得多,而且我们使用的是相同的数据。 我说的是50%左右的糟糕。 这怎麽可能?我们使用以下代码在CPU上运行它,并且只有在
GPU
上运行时才将task_type更改为
GPU
: catBoostModel = CatBoostClassifier( task_type="CPU
浏览 63
提问于2021-04-30
得票数 2
1
回答
库达内存带宽计算
、
、
、
、
我有几个有关cuda编程和
GPU
体系结构的问题要问:我不知道怎么
算
,谁能帮我,谢谢
浏览 1
提问于2018-03-20
得票数 1
回答已采纳
3
回答
用CUDA + MPI实现矩阵乘法
、
、
我正在做一个关于
gpu
在集群环境中使用mpi通信的研究。一个
GPU
的矩阵乘法,好的。 现在只需要CPU MatrixMulti,好的。
浏览 2
提问于2011-05-12
得票数 1
回答已采纳
1
回答
TensorFlow:并行运行几个版本调用TF的Python
、
、
这是一个非常经验性和尝试性的过程,所以我想在后台运行脚本,同时调整代码中的一些
超
参数并并行运行第二个版本。如果我现在尝试这样做,我会收到一个错误,因为
GPU
正在被使用。我使用的
服务器
通过SSH与英特尔Xeon和一个单一的NVIDIA GeForce GTX 780
GPU
。这有可能吗?多么?
浏览 0
提问于2018-05-23
得票数 0
回答已采纳
1
回答
从Process解释
GPU
信息
、
、
、
、
什么是专用
GPU
内存? 什么是组合
GPU
内存?
浏览 3
提问于2013-07-22
得票数 12
回答已采纳
1
回答
如何验证A100
GPU
将在现有
服务器
上工作?
、
我被要求验证我们可以在我们现有的
服务器
上安装两个新的NVIDIA A100
GPU
(PCIe版本)。两者都是
超
微型多
GPU
盒,目前的房子8,1080 Tis和Quadro RTX 6000.
浏览 18
提问于2022-05-29
得票数 -1
1
回答
如何在不重启运行时的情况下清除
GPU
内存(Tensorflow)
、
我想为一个神经风格的转移算法运行
超
参数调优,这会导致一个for循环,在这个循环中,我的模型每次迭代都会输出一个具有不同
超
参数的图像。我已经尝试了这段代码,它是我在网上找到的
浏览 142
提问于2019-07-05
得票数 13
1
回答
Tensorflow
GPU
内存错误尝试-除了没有捕获错误
、
、
、
、
我正试图在一个拥有大量可训练变量的大型网络上运行一个
超
参数优化(使用spearmint)。我担心当我尝试一个隐藏单元数量过大的网络时,Tensorflow会抛出一个
GPU
内存错误。我想知道是否有一种方法可以捕获Tensorflow抛出的
GPU
内存错误,并跳过导致内存错误的一批
超
参数。tf.global_variables_initializer().run() print e 当我在上面尝试测试内存错误异常时,代码会中断,只会打印
GPU</em
浏览 3
提问于2017-01-30
得票数 5
回答已采纳
1
回答
Windows 10 Professional上的Hyper-V是否与运行在Windows 2016上的Hyper-V具有相同的功能?
、
还是Windows
服务器
上的Hyper-V有其他特性/更宽的上限?
浏览 0
提问于2018-03-19
得票数 0
回答已采纳
1
回答
86973087744的分配超过系统内存的10%
、
、
我使用SRGAN的
超
分辨率if图像从64x64到1024x1024图像。网络非常深(它有16个残留块)。如果我使用从64x64到256x256的
超
分辨率代码,一切都很好。我还安装了Tensorflow
GPU
版本。为什么代码使用CPU内存而不是
GPU
内存?
浏览 23
提问于2019-10-03
得票数 0
1
回答
超
算
中的CPM和APM?
什么是黑石
服务器
和APM?他们的全名是什么?它们是如何运作的?塔克斯。塔米
浏览 8
提问于2013-12-29
得票数 0
1
回答
训练时单
GPU
和多
GPU
设置的损失是否相同(Tensorflow)?
、
、
我使用的批处理大小为10个图像上的一个单一的
GPU
培训。我同时使用相同的
超
参数在多
GPU
(3
GPU
)设置上进行训练.对于多
GPU
,我使用的批处理大小为30张图像,即每
GPU
10张图像.从理论上讲,在训练过程中,每个阶段的每一步损失值是否应该是单个
GPU
和多
GPU
训练过程中相同的值范围? 就我而言,这不是我目前在训练中所看到的情况。多
GPU
的损失是我从单
GPU
获得的损失的5倍。
浏览 2
提问于2019-01-31
得票数 0
回答已采纳
3
回答
是否有办法将参数传递给多个optuna作业?
、
、
、
我试图使用optuna搜索
超
参数空间。我想避免这一点,因为整个
超
参数搜索在之后的几轮中继续进行。我不想总是手动启动每个
GPU
的进程,检查什么时候全部完成,然后
浏览 7
提问于2020-05-12
得票数 3
回答已采纳
1
回答
在tensorflow中进行
超
参数搜索时,是否应设置随机种子编号?
、
、
考虑到像神经网络这样的算法是随机的,你应该在运行
超
参数搜索之前设置一个随机种子吗?如果在搜索最佳
超
参数时不设置随机种子,如何确保在训练模型时可以获得与具有最佳
超
参数的场景相同的结果?有人说,当在
GPU
上运行时,我们无论如何都得不到可重现的结果,但是在CPU上运行训练呢?
浏览 0
提问于2020-11-17
得票数 0
1
回答
用keras编写神经网络的
超
参数优化
、
、
、
、
在图形处理器上有没有优化KERASNN
超
参数的python3库? 我尝试过在KerasClassifier包装器中使用sklearn,但它使用了cpu。
浏览 2
提问于2018-04-28
得票数 1
1
回答
nvidia-设置超频;您如何知道要使用的偏移量?
对于
超
钟/下时钟nvidia卡,我看到如下:nvidia-settings -a [
gpu
:1]/GPUMemoryTransferRateOffset[3]=1000nvidia-settings -a [
浏览 0
提问于2021-05-09
得票数 0
1
回答
我需要什么样的
GPU
大小来微调伯特的基本外壳?
、
、
、
、
我想微调伯特多语种,但我不知道
GPU
要求培训伯特多语言。我的本地机器上有GTX 1050ti 4GB。我想知道
GPU
需要什么样的尺寸,需要什么样的
GPU
来训练伯特。我可以访问
服务器
资源。有人能告诉我我应该在
服务器
上要求什么尺寸的
GPU
吗?
浏览 0
提问于2020-08-26
得票数 6
2
回答
使用tensorflow在并行gpus上运行
超
参数优化
、
、
我有一个训练函数,可以在这里端到端地训练tf模型(仅用于说明): os.environ["CUDA_VISIBLE_DEVICES"] =
gpu
sess = tf.Session()from threading import Thread exp_trials = list(hy
浏览 2
提问于2017-10-12
得票数 3
1
回答
Slurm
超
订用
GPU
、
有没有办法在Slurm上超额订阅
GPU
,即运行共享一个
GPU
的多个作业/作业步骤?我们只找到了超额订阅CPU和内存的方法,但没有找到
GPU
的方法。我们希望在同一个
GPU
上并行运行多个作业步骤,并可选择指定每个步骤使用的
GPU
内存。
浏览 18
提问于2019-03-15
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
超聚变将推出全液冷GPU服务器,支持NVIDIA A100液冷GPU
IBM为AI芯片加突触 算力超GPU100倍
英伟达Tesla V100s GPU低调亮相2019超算大会
优刻得:公司的GPU服务器可为AI客户提供算力支持
Facebook母公司Meta采用1.6万个英伟达GPU建造世界最快AI超算
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券