腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7058)
视频
沙龙
1
回答
不影响
numpy
均值
性能
的
MKL
线程
数
python
、
numpy
、
intel-mkl
我正在尝试优化调用
numpy
.mean()时使用
的
MKL
库
线程
的
数量(我使用
的
是针对
MKL
库构建
的
numpy
)。
线程
的
数量可以在运行时使用
mkl
-service库中
的
mkl
.set_num_threads(n)动态控制。虽然这确实正确地设置了
线程
的
数量,实际上这在htop
的
CPU使用率中得到
浏览 23
提问于2019-03-23
得票数 0
4
回答
在
numpy
中使用
mkl
_set_num_threads
python
、
numpy
、
intel-mkl
我试图用这样
的
mkl
_set_num_threads设置
numpy
计算
的
线程
数
import ctypes
mkl
_rt.
mkl
_set_num_threads(4)Program received signal SIGSEGV, Segmentation fault. 0
浏览 11
提问于2015-02-02
得票数 16
回答已采纳
3
回答
Numpy
EIG大约比MacOSX10.6上
的
MATLAB EIG慢4倍。我做错了什么?
macos
、
numpy
、
blas
、
accelerate-framework
我试着在MATLAB和
NumPy
上分析EIG函数,比较我
的
Macbook (2 GHz,运行OSX10.6
的
四核i7 )
的
性能
。与MATLAB相比,
NumPy
的
EIG显得相当慢。下面是我在
NumPy
上分析
的
代码:x =
numpy
.random.random((2000,2000));''
浏览 7
提问于2012-03-31
得票数 3
回答已采纳
3
回答
为什么
Numpy
和Ryzen Threadripper
的
速度比Xeon慢得多?
python
、
performance
、
numpy
、
intel
、
amd-processor
我知道
Numpy
可以使用不同
的
后端,如OpenBLAS或
MKL
。我也读到,
MKL
是为英特尔进行了很大
的
优化,所以通常人们建议在AMD上使用OpenBLAS,对吗?无论如何,比旧
的
英特尔Xeon快35%,这是我们得到
的
全部,还是我们能从中得到更多? 运行时间以秒为单位。这一检验
的
结论如下: 使用Ope
浏览 5
提问于2020-07-07
得票数 55
1
回答
设置
NumPy
使用
的
线程
数
的
更好方法
python
、
multithreading
、
numpy
背景你在分享资源在这些情况下,合理
的
做法是将
MKL
/OpenBLAS使用
的
线程
数
限制为1,并手动并行化您
的
程序。导入和定义导入子进程导入重新导入sys impor
浏览 0
提问于2018-11-01
得票数 5
1
回答
基于
mkl
的
numpy
多
线程
的
动态控制
python
、
multithreading
、
numpy
、
intel-mkl
我正在使用Anaconda
的
科学Python发行版,其中
numpy
是用
mkl
库编译
的
。我遇到过Python
的
'
mkl
‘包(作为蟒蛇
的
一部分分发),其中存在函数"set_num_threads(n)“。我试过了,但它导致了奇怪
的
行为--对于线性代数运算
浏览 2
提问于2018-05-22
得票数 1
5
回答
如何阻止
numpy
进行多
线程
处理?
python
、
multithreading
、
numpy
我必须定期在与部门中
的
其他人共享
的
计算服务器上运行作业,当我启动10个作业时,我真的希望它只占用10个内核,而不是更多;我不在乎每次运行一个内核所需
的
时间是否更长:我只是不希望它侵占其他人
的
领地,这将需要我重新连接作业等等我只想要10个坚固
的
内核,仅此而已。 我在Redhat上使用
的
是Ensided7.3-1,它基于Python 2.7.3和
numpy
1.6.1,但问题更一般。
浏览 6
提问于2013-06-12
得票数 60
回答已采纳
2
回答
Dask
线程
如何与OpenBLAS/
MKL
/…交互?
python
、
numpy
、
dask
根据
的
说法,一名戴牌工人 如果您
的
计算本质上主要是数值计算(例如
NumPy
和Pandas计算),并且完全释放GIL,那么最好使用多个
线程
和一个进程运行dask进程。这降低了通信成本,并且通常简化了部署。
NumPy
的
内部元素使用
MKL
或OpenBLAS,当代码正常执行时,
线程
数
等于env变量OPENBLAS_NUM_THREADS或
MKL
_NUM_T
浏览 0
提问于2018-10-19
得票数 4
回答已采纳
2
回答
在
numpy
/openblas上在运行时设置最大
线程
数
python
、
numpy
、
blas
、
openblas
我想知道是否可以在(Python)运行时更改
numpy
后面的OpenBLAS使用
的
最大
线程
数
?import
mkl
mkl
.set_num_threads(n)
浏览 11
提问于2015-04-10
得票数 15
回答已采纳
1
回答
使用
MKL
的
并行SpMV随着
线程
数
的
增加而减慢。
c++
、
multithreading
、
intel-mkl
我打电话给英特尔
MKL
以获取csr格式
的
SpMV。为了加速,我通过
mkl
_set_num_threads.使用多个
线程
但是,当
线程
增加时,
性能
就会减慢。知道怎么回事吗?尽管文档中说
mkl
_set_num_threads指定
的
线程
号仅限制使用
的
最大
线程
数
,并且可能使用
的
线程
较少,但我希望在使用更多
线程
时,
性能
至少
浏览 1
提问于2017-12-28
得票数 1
1
回答
mkl
_set_num_threads()没有相应地工作
intel-mkl
我想为每个节点(相同集群)
的
每个进程创建不同
的
MKL
线程
数
。以这种方式在输入文件中提供每个进程
的
线程
数
。主机
线程
数
主机name_2 t=7我
的
代码是这样
的
: char* subopts =(threads); } f
浏览 1
提问于2013-02-06
得票数 1
回答已采纳
1
回答
Anaconda
MKL
无法设置
线程
数
python
、
numpy
、
anaconda
、
intel-mkl
我使用anaconda中
的
numpy
对一个大型矩阵乘法(float32类型
的
8192x8192 )进行基准测试,如下所示:(在jupyter中)a = np.empty((8192, 8192), 'f')
numpy
是针对
MKL
构建
的
。当做乘法(连续)时,我发现python
的
CPU使用率总是50%。我想知道为什么它不是100% (因为矩阵乘法应该是自动
的<
浏览 0
提问于2018-11-02
得票数 2
1
回答
在python中设置
线程
数
python
、
numpy
、
scipy
、
python-multithreading
、
intel-mkl
我有一个python脚本,它由
numpy
和scipy函数组成。我试着检查我
的
代码
的
缩放。我
的
系统中安装
的
numpy
的
配置显示了以下信息。= ['Library\\include'] baseline = SSE,SSE2,SSE3POPCNT,SSE42,AVX,F16
浏览 20
提问于2022-08-17
得票数 -1
回答已采纳
1
回答
为什么我
的
Float64 tf.matmul在TensorFlow2中
的
CPU
性能
比
NumPy
matmul慢得多,甚至在图形模式下也是如此?
numpy
、
performance
、
tensorflow
、
matrix-multiplication
、
intel-mkl
我正在比较TensorFlow 2和
NumPy
中矩阵矩阵产品
的
单
线程
性能
。分别对单精度(float32)和双精度(float64)进行了比较。我发现,
NumPy
性能
几乎等同于用于单精度和双精度(DGEMM和SGEMM)
的
Intel
MKL
C++实现(用作矩阵乘法
的
基准)。在Tensorflow 2.7和2.8上进行了
性能
比较。检查了Python3.9.7和3.7.4。我比较了单
线程
的</e
浏览 9
提问于2022-01-16
得票数 1
回答已采纳
1
回答
numpy
MKL
对标准-要求是什么?
python
、
numpy
、
intel-mkl
我通常从获得最新
的
科学Python包。我注意到有两个版本
的
numpy
是可用
的
-标准版本和
MKL
版本。我
的
问题: 我们是否需要拥有英特尔
的
专有库来运行
MKL
版本?我之所以这样问,是因为从上面的链接
numpy
安装
MKL
版本似乎很好--而且我没有看到任何<
浏览 2
提问于2015-03-04
得票数 1
回答已采纳
1
回答
禁用/配置默认情况下
的
多
线程
处理
multithreading
、
numpy
、
anaconda
、
blas
、
conda
numpy
的
某些版本/构建具有特定操作
的
多
线程
执行。StackOverflow上有许多关于如何启用此功能
的
问题。从理论上讲,这是伟大
的
。但是,我想禁用它。原因是我在使用多进程并行化
的
脚本上下文中运行一些
numpy
代码。默认
的
numpy
多
线程
看起来不太“智能”,每个进程都会尝试使用我
的
机器上
的
所有内核,如果我有多个进程运行,这些内核就会很快重载。: N
浏览 1
提问于2015-12-17
得票数 4
回答已采纳
1
回答
为什么
numpy
矩阵在100x100时会使计算时间增加一个数量级?
python
、
numpy
、
linear-algebra
、
numerical-computing
在计算A @ a时,A是一个随机N矩阵,a是一个具有N个随机单元
的
向量,利用
numpy
,计算时间在N=100上跳跃一个数量级。有什么特别的原因吗?相比之下,cpu上使用torch
的
相同操作有一个更渐进
的
增加。 用于生成地块
的
numpy
部分
的
代码:from tqdm.notebook import tqdm importsys.vers
浏览 19
提问于2022-12-02
得票数 9
回答已采纳
1
回答
scikit学习不需要
的
并行处理
scikit-learn
、
nested
、
multiprocessing
当我使用scikit-learn (v0.22)二次判别分析时,我遇到了嵌套多处理
的
问题。必要
的
是系统配置:24
线程
至强机运行fedora 30。当n_features为19或更高时,由于未知原因,它(而不是我)启动所有可用
线程
,整个计算甚至比单个
线程
获得更多时间。tmp = [process(X,y,n_features,i=1) for _ in range(1000)] 根据我以前使用其他Linux库(准确地说是R gstat )
的
经验,同样
的
情况(不受控制<em
浏览 2
提问于2019-12-18
得票数 0
1
回答
串行版本比
MKL
_DYNAMIC=TRUE并行版本慢
fortran
、
linear-algebra
、
lapack
、
blas
我在FORTRAN中实现了共轭梯度,用(Fortran) Intel
MKL
子程序替换了中
的
线性代数子程序。(仅DGEMV、DAXPY和DNRM )。
MKL
_SET_DYNAMIC = FALSE,
MKL
_SET_NUM_THREADS=2;~100秒。 分析已经产生了对M16_LAY_GAS16
的
深奥
的
引用,经
浏览 9
提问于2012-04-15
得票数 0
回答已采纳
1
回答
单、双精度阵列在多核机上矩阵乘法
的
性能
退化
python
、
c
、
numpy
、
openmp
、
intel-mkl
更新 不幸
的
是,由于我
的
疏忽,我有一个旧版本
的
MKL
(11.1)链接到
numpy
。更新版本
的
MKL
(11.3.1)在C中和从python调用时提供了相同
的
性能
。让事情变得模糊
的
是,即使将编译好
的
共享库显式地链接到新
的
MKL
,并通过LD_*变量指向它们,然后在python中进行导入
numpy
,也是在某种程度上使python调用旧
的</e
浏览 2
提问于2016-01-27
得票数 28
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Facebook发布Tensor Comprehensions,可自动按需生成机器学习代码
FAIR开源Tensor Comprehensions,让机器学习与数学运算高性能衔接
FAIR 开源 Tensor Comprehensions,让机器学习与数学运算高性能衔接
Chapter 17 深度学习的库
python的描述性统计
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券