首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >大型集合在MongoDB中的大容量插入性能

大型集合在MongoDB中的大容量插入性能
EN

Stack Overflow用户
提问于 2015-06-09 15:19:07
回答 3查看 12.4K关注 0票数 18

我使用BulkWriteOperation (java驱动程序)将数据存储在大块中。起初,它似乎工作良好,但是当集合的大小增加时,插入可能会花费相当长的时间。

目前,对于2000万个文档的集合,大容量插入1000个文档可能需要大约10秒。

是否有一种方法可以使插入与集合大小无关?我没有任何更新或更新,我总是插入新的数据。

从日志来看,锁似乎没有任何问题。每个文档都有一个被索引的时间字段,但是它是线性增长的,所以我认为mongo不需要花时间来重新组织索引。

我想听听一些改进表演的想法

谢谢

EN

Stack Overflow用户

发布于 2017-06-29 09:30:42

  • 磁盘利用率& CPU:检查磁盘利用率和CPU,看看其中是否有任何问题正在消失。显然,应该是磁盘造成了这个问题。
  • Mongo:,如果1000个大容量查询耗时10秒,那么检查mongo中是否有任何需要时间的插入。如果存在这样的查询,则可以缩小分析范围。

另一件不清楚的事情是在Mongo实例上发生的查询顺序。插入是唯一发生的操作还是还有其他的查找查询也在运行?如果是,那么您应该考虑扩大任何资源正在最大化。

票数 1
EN
查看全部 3 条回答
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/30736231

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档