腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
我
是否
可以
使用
所有
CPU
和
内核
来
处理
图像
?
我
是用python编程的新手。import face_recognitionimport numpy as npimport glob known_face_encodings.append(images_encoding) known_face_
浏览 16
提问于2019-10-22
得票数 1
2
回答
异步
CPU
读取
和
GPU+
CPU
计算
、
、
我
的程序首先从HDD中读取2幅
图像
(带有c++ file.read函数),然后在GPU
和
CPU
上执行计算(一堆CUDA
内核
与简单的
CPU
计算混在一起)。
我
有大约2000对
图像
要
处理
。阅读
和
计算时间几乎相等。读取
和
处理
的并行化
是否
有相对简单的实现?
我
知道,
使用
CUDA流,
我
可以
异步地评估主机(
浏览 3
提问于2015-02-13
得票数 3
回答已采纳
1
回答
三维纹理上的OpenGL高斯核
、
、
我
想在openGL中对3D纹理进行模糊
处理
。因为它是可分离的,所以我应该
可以
在3次传球中做到。
我
的问题是,什么是
处理
这一问题的最佳方法?
我
现在有三维纹理,并
使用
imageStore填充它。
我
应该为模糊区域创建另外两个纹理副本,还是有方法在
使用
单个纹理时做到这一点?
我
已经
使用
glCompute
来
计算3D纹理的mip映射,但在本例中,
我
在0级从纹理读取,然后在下一层
浏览 3
提问于2014-08-07
得票数 1
1
回答
CUDA小
内核
2d卷积-如何实现?
、
、
、
、
我
已经用CUDA
内核
做了几天的实验,在500x500
图像
(但我也
可以
改变尺寸)
和
非常小的2D
内核
( laplacian 2D
内核
,所以它是3x3
内核
)之间执行快速的2d卷积。太小,无法充分利用
所有
的cuda线程)。
我
创建了一个典型的
CPU
实现(两个循环,就像您想象的那样简单),然后
我
开始创建CUDA
内核
。经过几次令人失望的尝试
来
执行更快的卷积,
浏览 3
提问于2012-04-13
得票数 14
回答已采纳
1
回答
为什么GPU库不支持自动函数组合?
它允许您指定函数序列、组合函数,并通过缓存友好的平铺
处理
将组合的函数应用于数组。这比简单地遍历每个函数的整个数组提供了更好的性能。 这项技术似乎也会让运行在GPU上的代码受益。
我
是不是遗漏了什么?或者,GPU库不能从自动函数组合中受益有什么原因吗?
浏览 0
提问于2013-01-10
得票数 0
回答已采纳
4
回答
英特尔MSR每螺纹频率缩放
、
、
、
我
正在扩展Linux
内核
,以控制某些线程的频率:当它们被调度到
内核
(任意
内核
!)上时,通过将适当的p状态写入寄存器IA32_PERF_CTL
来
改变
内核
的频率,就像英特尔手册中所建议的那样。但是,当调度具有不同“自定义”频率的不同线程时,似乎
所有
线程的吞吐量都会增加,就好像
所有
核心都以最大的设置频率运行一样。
我
在不同的负载
和
配置条件下做了很多试验
和
测量,但是结果是一样的。在对CPUFreq进行了一些
浏览 3
提问于2012-06-19
得票数 7
回答已采纳
2
回答
Linux进程调度器--它们本身
是否
消耗
CPU
?
、
、
、
我
发现了很多资源,这些资源给出了
内核
对的标准解释,以及信号(SIGXXX)的
处理
方式: 如果一个信号(SIGXXX)正在等待该进程,
内核
将尝试在该进程中调用适当的
处理
程序。而且,在具有多个
内核
、线程
和
大量可用
CPU
资源的现代系统中,调度程序
是否
<
浏览 4
提问于2017-02-10
得票数 0
回答已采纳
1
回答
预编译numba cuda
内核
(非jit)
、
、
、
、
你好,
我
正在
使用
numba编写一些带有@cuda.jit装饰器的
内核
。
我
有8个
CPU
线程,每个线程在2个GPU设备中的一个上调用一个
内核
。(具体为
cpu
_idx % len(cuda.gpus))
我
相信每个
CPU
线程都在编译
内核
,相对于
内核
处理
整个
图像
所需的时间,这会占用很多时间。理想情况下,它应该只编译一次,以供
所有
CPU
线
浏览 19
提问于2020-04-09
得票数 0
1
回答
确定库达设备
是否
在
使用
中?
、
是否
有一种直接测试库达设备
是否
正在被任何
内核
使用
的方法?
我
有一个后台线程,在完全占据分形程序的情况下启动“原始”库达
内核
。线程建立了大的
图像
数组,然后
我
想让用户顺利地进行平移、旋转
和
缩放。
我
的GUI线程希望
使用
GPU,如果它目前没有用于大型
图像
转换,因为它运行在100 fps。如果GPU正在
使用
,
我
可以
回到
使用</em
浏览 6
提问于2020-09-11
得票数 0
2
回答
Linux(Ubuntu)负载平均高于总真利用率?
、
、
最近,
我
更新了VLC的脚本(VLM),以提高质量,这意味着
我
也在增加
CPU
利用率。因此,
我
开始调优脚本,以避免超过最大利用率。
我
使用
顶级
来
监控
CPU
的
使用
情况。
我
发现负载平均值高于100%(
我
总共有8个
内核
,所以8.00是100%),但是仍然有20-35%空闲,例如: top - 21:41:19 up 2 days, 17:15, 1 user, load
CPU</e
浏览 2
提问于2014-05-09
得票数 1
回答已采纳
1
回答
为什么
我
不能控制I/O亲和力?
我
试图用
处理
器
和
I/O的关联
来
验证
我
的应用程序
可以
在更少的核心上运行,所以我手动设置
处理
器
和
I/O,以平衡
使用
,这样就不会在这两个操作中
使用
任何一个核心。然而,一旦
我
到达第三个NUMA节点(即
CPU
64),
我
只能设置
处理
器亲和力的
使用
,I/O亲和力就会变灰。文档有点让人困惑引用的是
CPU<
浏览 0
提问于2021-09-23
得票数 1
1
回答
如何使
图像
处理
使用
所有
的
CPU
内核
、
、
、
、
我
需要一个功能,如何能够建立一个基于多个合并的
图像
。5-8秒
来
执行
我
所有
的
图像
并创建结果。如果
我
让它同时运行在多个
内核
上,这将提高
我
的速度。例如..
我
有4个核心,如果
我
可以
将我的原始元素列表划分为4个列表,其中将只有四分之一的部分或原始列表,这些
可以
在一个核心上运行它们中的每一个,毕竟
我
可以
在一个核心上合并只有4个
图像<
浏览 5
提问于2016-05-08
得票数 1
1
回答
我们能否在NodeJs中
使用
多个
cpu
核与工作线程一起实现并行
处理
?
、
、
、
我
知道“集群”
和
"child_process“
可以
使用
一个
CPU
的多个核心,这样我们就
可以
实现真正的并行
处理
。假设
我
的计算机有4个核心
CPU
,并且正在执行nodejs脚本。脚本创建三个工作线程。 三个工作线程
是否
会利用
CPU
中剩下的3个
内核</e
浏览 2
提问于2021-02-05
得票数 3
回答已采纳
1
回答
默认情况下,Tensorflow如何
使用
CPU
内核
?
、
、
我们有一台机器,它有一个
CPU
和
N核。
我
想在
CPU
上训练一个神经网络,并希望尽可能多地利用
CPU
。
我
知道
我
可以
设置inter_op_parallelism_threads
和
intra_op_parallelism_threads变量
来
控制Tensorflow中的并行性。但是
我
想知道默认情况下,Tensorflow是如何
处理
跨
CPU
内核
的并行性的?
浏览 5
提问于2019-11-05
得票数 0
2
回答
基于CUDA的GPU
图像
处理
多线程技术
、
问题陈述:
我
必须连续
处理
800万像素的相机拍摄的
图像
。它必须有多种
图像
处理
算法,如颜色插值、颜色变换等,这些运算在
CPU
上要花费很长的时间。所以,
我
决定在GPU上
使用
CUDA
内核
进行这些操作。
我
已经为颜色转换编写了一个工作的CUDA
内核
。但我仍然需要在表现上有更多的提升。 将source image从
CPU
复制到GPU,反之亦然。GPU上source i
浏览 3
提问于2015-07-02
得票数 0
回答已采纳
3
回答
如何在Android / Galaxy SIII上获取每个核心的
cpu
使用
率
、
、
我
有一个三星Galaxy SIII的Android 4.1.2“根”。
我
需要测量
我
用C/C++编写的一些多线程应用程序的
CPU
使用
率,但是
我
需要每个
内核
的这个信息。
我
知道(由于维基百科,...)银河有一个带有4个ARM Cortex A9的SoC,但是当我做一个cat /proc/cpuinfo时,它没有显示任何关于可用
内核
数量的信息(像在任何Linux中一样),
我
在某处读到过,
浏览 0
提问于2013-06-19
得票数 2
回答已采纳
2
回答
将C代码转换为OpenCL
我
正在试着把一个用C写的小程序翻译成openCL。
我
应该将一些输入数据传输到GPU,然后
使用
连续的
内核
调用在设备上执行
所有
计算。然而,
我
面临着不适合并行化的部分代码的困难,因为
我
必须避免由于
使用
的数据量而在
CPU
和
GPU之间来回传输数据。 有没有办法在没有并行
处理
的情况下执行一些
内核
,这样
我
就
可以
用它们
来
替换这些代码部分?这<e
浏览 3
提问于2012-12-13
得票数 1
2
回答
GCD串行队列
是否
使用
所有
CPU
核心?
、
、
、
我
想渲染30个不同的
图像
。每个任务都必须将不同的
图像
层合并为一个最终
图像
- 30个最终
图像
。 目前,
我
使用
的是GCD串行队列。现在
我
想知道这种方法
是否
会自动
使用
所有
可用
内核
的
CPU
能力?或者,当我
使用
GCD并发队列时,
是否
可以
改善
所有
这些任务的渲染时间?谢谢你的澄清..
浏览 2
提问于2012-08-20
得票数 0
回答已采纳
4
回答
多线程是在不同的进程上运行还是在同一进程上运行?
、
、
在
我
的.net多线程程序中,
我
想知道
所有
这些线程运行在同一进程上还是运行在不同的进程上?如果它在同一进程上,那么
我
假设一个进程在一个核心上运行,那么多线程如何利用
我
的四核
cpu
中的
所有
四个核心呢?但是如果是在不同的进程上,因为
我
知道不同的进程
和
相同的进程有不同的数据共享机制,那么为什么
我
不需要在
我
的多线程程序中编写不同的代码来
处理
这个问题呢?有没有人能解释一下
我
浏览 0
提问于2012-03-21
得票数 2
2
回答
异常
是否
显式捕获
和
处理
导致切换到
内核
模式?
、
、
、
从一本OS书中,
我
了解到异常(例如算术溢出、未定义的指令、无效的内存访问)将导致
cpu
从用户模式切换到
内核
模式,从而使操作系统能够
处理
异常。在高级编程语言中,我们
可以
捕获
和
处理
程序中的默认(如上面提到的那些)或自定义异常,例如在C++中,通过
使用
try
和
catch,以及在Java
和
Python中
使用
类似的构造。
我
注意到,在这种情况下,用户程序中会给出异常
处理
程序。
浏览 1
提问于2015-02-07
得票数 5
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
恒讯科技分析:GPU是什么和CPU的区别?
GPU:不仅能让你过瘾“吃鸡”,还是HPC与AI的新宠!
点个外卖,我把「软中断」搞懂了
使用Python实现多线程和多处理方法
外媒:iPhone11或许是苹果目前最好的机器学习平台
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券