首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >Numpy数据大小是特征矩阵大小的两倍,是这样吗?

Numpy数据大小是特征矩阵大小的两倍,是这样吗?
EN

Stack Overflow用户
提问于 2021-04-16 17:45:12
回答 2查看 47关注 0票数 2

我使用以下命令生成numpy数组:

代码语言:javascript
运行
复制
p_desct = np.random.uniform(-1, 0.4, [5000000, 512])

内存大小约为20G

特征矩阵(C++)中的相同数据:

代码语言:javascript
运行
复制
    Eigen::MatrixXf x_im = Eigen::MatrixXf::Random(5000000,512);

MemorySize ~9,6G

case numpy数组的内存使用量是相同矩阵的两倍吗?

还是我错过了什么?

EN

Stack Overflow用户

发布于 2021-04-16 17:51:29

缺省的https://numpy.org/doc/stable/reference/arrays.scalars.html#numpy.float_.数据类型是float_,但令人困惑的是,这是一个双精度的numpy

Eigen数据类型中的f后缀表示32位传统浮点数,因此是numpy使用的64位双精度数大小的一半。

试一试

np.random.uniform(-1,0.4,5000000,512,dtype=np.float32)和比较。

票数 1
EN
查看全部 2 条回答
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/67122909

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档