我使用BulkWriteOperation (java驱动程序)将数据存储在大块中。起初,它似乎工作良好,但是当集合的大小增加时,插入可能会花费相当长的时间。
目前,对于2000万个文档的集合,大容量插入1000个文档可能需要大约10秒。
是否有一种方法可以使插入与集合大小无关?我没有任何更新或更新,我总是插入新的数据。
从日志来看,锁似乎没有任何问题。每个文档都有一个被索引的时间字段,但是它是线性增长的,所以我认为mongo不需要花时间来重新组织索引。
我想听听一些改进表演的想法
谢谢
发布于 2017-06-29 09:30:42
另一件不清楚的事情是在Mongo实例上发生的查询顺序。插入是唯一发生的操作还是还有其他的查找查询也在运行?如果是,那么您应该考虑扩大任何资源正在最大化。
https://stackoverflow.com/questions/30736231
复制相似问题