腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
-Xmx的大值是否会推迟垃圾回收?
java
、
linux
、
garbage-collection
、
heap-size
我有很多JVM运行在
Linux
Redhat上,它有32 of的物理
内存
和32 of的虚拟
内存
。这些JVM被配置为具有超过32 to的Xmx的总值,并且可能使
Linux
使用其虚拟
内存
。我的问题是,如果我指定的Xmx超过了所需的堆大小,它是否会
延迟
垃圾收集,并因此
分配
比所需更多的堆大小?因此,它将导致操作系统从其虚拟
内存
中
分配
内存
,从而导致性能下降。
浏览 2
提问于2012-12-04
得票数 1
回答已采纳
4
回答
分配
最大的缓冲区而不使用交换
c++
、
c
、
linux
、
virtual-memory
在
Linux
下的C/C++中,我需要
分配
一个很大的
内存
块(几at ),以便存储来自连接到以太网端口的传感器的实时数据,并以大约110MB/s的速度传输数据。我想尽可能
分配
最大的
内存
量,以最大化我可以存储的数据序列的长度。但是,我还需要确保不会有磁盘交换,因为由此产生的磁盘访问
延迟
和有限的带宽会导致传感器的(非常有限的)缓冲区溢出。确定
分配
多少
内存
的最佳方法是什么?我是否仅限于
分配
比报告的空闲
内存
稍
浏览 1
提问于2010-07-14
得票数 12
回答已采纳
1
回答
为什么numpy.zeros占用很少的空间?
python
、
arrays
、
numpy
、
cython
如果我用:x[0:200000000] = 0.0
内存
使用量大大增加了。
浏览 2
提问于2014-12-19
得票数 13
回答已采纳
2
回答
C:
内存
使用情况在calloc之后没有反映。
c
calloc(1024 * 1024 * 1024,sizeof(int)); 运行Debian Jessie我使用顶部作为系统监视器。
浏览 8
提问于2016-08-12
得票数 0
回答已采纳
1
回答
如何在红帽中使用malloc()
分配
内存
多于RAM?
c
、
linux
、
memory
系统信息:
Linux
2.6.32-573.12.1.el6.x86_64 (mockbuild@x86-031.build.eng.bos.redhat.com) (gcc版本4.4.7 20120313(Red 4.4.7-16) (GCC) ) #1 SMP Mon 11月23日12:55:32 EST 2015问题:我想要malloc() 100 GB
内存
。但是它没有在红帽子系统上进行
分配
。 我发现在macOS中可以用8 GB
内存
分配
100 GB (clang编译)。我对此很困
浏览 2
提问于2016-11-30
得票数 0
1
回答
间隔处理虚拟
内存
页平均累加交错
内存
linux
、
multithreading
、
memory
、
memory-management
、
powerpc
这个问题是关于DRAM速度和
内存
交织。我有一个非常具体的问题。我使用的是基于电源的体系结构板(减去AltiVec),我希望在进程地址空间中的两个区域之间复制一个大的
内存
段(虚拟连续)。我做了更多的研究,并发现我的董事会配备了一个单一的DDR3
内存
(速度1600 MB/s),它是相当接近最大可达到的速度已经。通过告诉他们,我也打算将每一条
内存
的大小减半,但我如何才能让内核
分配
给我的
内存
保证在两个
内存
之间平均
分配
呢?附注:我
浏览 3
提问于2014-07-09
得票数 1
回答已采纳
3
回答
如何在
Linux
上为C++应用程序
分配
“巨大”页面
c++
、
linux
、
performance
、
optimization
、
memory-management
我在
Linux
上有一个C++应用程序,它对
延迟
非常敏感。我的
内存
使用量大约是2GB,所以有了4kb的页面和64个TLB条目,我将遇到TLB的遗漏。“巨大”页面只会将TLB条目的数量减少一半,因此
内存
范围的增加抵消了TLB条目的减少,这将提高性能。 如何在C++应用程序中使用“巨大”页
分配
内存
?有什么我应该知道的权衡吗?我的
Linux
是Red发行版。
浏览 4
提问于2015-09-18
得票数 23
1
回答
较大的物理连续
内存
区域
linux
、
memory-management
为此,我正在
Linux
上开发一个应用程序,它需要一个物理上连续的
内存
区来进行测试。其思想是从该区域读取数据,以便它们被缓存,探测较旧的数据是否已被逐出(通过
延迟
测量或LLC未命中计数器),以便找到冲突的存储器地址,并最终通过比较这些冲突的地址来发现散列函数。为此,我需要
分配
一个必须很大(64MB或更大)且完全可缓存的区域,因此在TLB中没有DMA友好的选项。如何执行此
分配
?为了完全控制
分配
(即,让它在物理上是连续的),我的想法是编写一个
Linux
模块,导出一个设备,并从
浏览 3
提问于2015-01-09
得票数 1
1
回答
如果
分配
器提供realloc语义,向量可以避免复制吗?
c++
、
vector
、
stl
、
realloc
、
allocator
我有一个
内存
接口,它将获取地址空间与附加备份存储分离开来。(在
Linux
下,由接口管理的地址空间池是mmap‘’ed MAP_ANONYMOUS和MAP_NORESERVE,
Linux
‘’ed MADV_DONTNEED和mprotect‘’ed PROT_NONE这个接口允许我在惰性地获取实际物理
内存
的同时
分配
大量的地址空间。我想用它来创建一个“
延迟
向量”,它在适当的点请求备份存储,但是在它增长的时候从不复制该向量的当前内容。考虑到标准库的
分配
器的语义,这样的方案可能
浏览 3
提问于2014-05-06
得票数 9
回答已采纳
1
回答
为什么Java被用于低
延迟
,而C#却不是呢?
c#
、
java
、
.net
Java和C#几乎相同,都有垃圾收集器,相似的
内存
模型(至少与C++相比),相似的
内存
分配
(我认为),但Java经常用于低
延迟
应用程序(不如C++),而C#不是真正的.在
内存
模型等方面有区别吗?是因为Java有不同的JVM/垃圾收集器吗?更好地调整参数? 编辑:在下面的一条评论之后,我相信这个(封闭的)问题的答案是C#限制了系统是基于Windows的。
Linux
允许调整服务器以减少上下文切换,从而提供更多的低
延迟
机会,而不是C#语言本身。
浏览 2
提问于2012-04-19
得票数 4
回答已采纳
2
回答
c++对象数组的
延迟
分配
c++
、
linux
int *foo = new int [n];或 const int n = 1<<14;}
Linux
内核会使用
延迟
内存
分配
吗?例如,有一个将填充0的结构,是总是懒洋洋地
分配
,还是在初始化时实际
分配
物理RAM?
浏览 0
提问于2018-06-19
得票数 4
回答已采纳
1
回答
记忆
延迟
曲线问题
c
、
memory
、
memory-management
、
benchmarking
、
latency
当我查看由lmbench(例如)生成的
内存
延迟
曲线时,我想知道数组大小如何影响其确切的
分配
位置。我只想确定我的猜测是否正确,或者我对记忆
延迟
的理解有问题。
浏览 0
提问于2013-09-19
得票数 1
回答已采纳
2
回答
当交换关闭时,主
内存
中的写入复制会工作吗?
linux
、
virtual-machine
、
ram
上面的陈述摘自Robert的书(
Linux
系统编程第二版,
内存
管理章节,超额承诺和OOM主题)。如果我遗漏了什么,请纠正我。
浏览 0
提问于2020-02-08
得票数 1
回答已采纳
2
回答
new不
分配
内存
。
c++
、
memory
这应该使我每秒钟都有大约100 MB的
内存
。我使用和htop跟踪
内存
使用情况。但不知何故,事实并非如此。为什么?
浏览 6
提问于2015-04-29
得票数 4
回答已采纳
2
回答
关于
内存
分配
,C malloc/calloc依赖于
Linux
/malloc还是相反?
c
、
linux
、
linux-kernel
据我所知,C具有以下函数,例如:malloc、calloc、realloc,用于
分配
内存
。而
linux
内核还具有以下功能:malloc、mmap、kmalloc、vmalloc.
分配
内存
我想知道哪一个是最低的。如果你说"
Linux
内核是最低的函数,你的C程序必须用
Linux
内核
分配
内存
“,那么
Linux
内核如何
分配
它自己的
内存
呢?或者说,"
Linux<
浏览 1
提问于2022-03-19
得票数 -1
回答已采纳
1
回答
tcp_rmem sysctl对
内存
使用率有何影响?
networking
、
tcp
、
buffer
、
throughput
我想以这样的方式配置tcp_rmem,它既适用于低
延迟
,也适用于高
延迟
。同时,对于低
延迟
的用例,它不会消耗更多的
内存
。有可能做到这一点吗?我在考虑为tcp_rmem设置更高的值,这样它就可以在高
延迟
下工作。想象一下,如果
延迟
很低,那么每个连接会为接收缓冲区
分配
多少
内存
?1.是总是为每个连接
分配
2MB,还是根据需要
分配
2MB? 2.是从1MB开始,当发现1MB不够时,再
分配
2MB,当看到2MB不够时,
浏览 25
提问于2020-04-24
得票数 0
4
回答
calloc与malloc + memset完全相同吗?
c
、
linux
、
linux-kernel
、
glibc
在
linux
中,calloc是否与malloc + memset完全相同,还是取决于
linux
/内核的确切版本?换句话说,calloc是否总是按照规范所建议的那样写入您所
分配
的
内存
。
浏览 10
提问于2013-11-03
得票数 1
回答已采纳
1
回答
如何验证是否在两个检查点之间释放了所有
内存
分配
?
linux
、
memory-leaks
、
valgrind
进程运行的时间越长,它使用的
内存
就越多。这是尽管流程主要由一个循环组成,该循环迭代地调用一个函数,该函数不应在调用之间保留任何数据。当我用伐研检查泄密时,一切都会恢复正常。当进程在运行几个小时后最终退出时,退出会出现很大的
延迟
,这使我相信
内存
是在该函数中
分配
的,并且没有立即释放,因为它仍然被引用。随后,该
内存
在退出时被释放,因为该引用最终被释放。我想知道是否有一种方法(或其他兼容
linux
的工具)可以在两个代码检查点之间进行泄漏检查。我想得到一个泄漏报告,报告所有已
分配
浏览 0
提问于2018-09-04
得票数 0
回答已采纳
1
回答
为什么我的
Linux
不执行
延迟
内存
分配
?
linux
、
mmap
、
lazy-initialization
、
numa
、
demand-paging
我正在练习使用
Linux
的
延迟
分配
和需求寻呼策略。 } munmap( shm_p
浏览 6
提问于2022-01-28
得票数 0
2
回答
NUMA感知缓存对齐
内存
分配
linux
、
caching
、
pthreads
、
malloc
、
numa
在
linux
系统中,pthread库为我们提供了一个缓存对齐函数(posix_memalign)来防止错误共享。要选择架构的特定NUMA节点,我们可以使用libnuma库。我想要的是两个都需要的东西。我将某些线程绑定到某些特定的处理器,并希望从相应的NUMA节点为每个线程
分配
本地数据结构,以减少线程的
内存
操作
延迟
。我该怎么做呢?
浏览 16
提问于2011-11-16
得票数 10
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Redis 内存分配
Linux 内核将弃用并删除 SLOB 内存分配器
内存的分配策略
白话Go语言内存管理--内存分配原理
c语言-malloc分配内存
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券