首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >由于提前写入日志太多而导致的ArangoDB超时

由于提前写入日志太多而导致的ArangoDB超时
EN

Stack Overflow用户
提问于 2018-11-09 10:59:56
回答 1查看 96关注 0票数 2

我正在尝试重新启动我的ArangoDB实例,但是我一直得到一个超时,我认为这是因为WAL日志文件的重播。

起初有2725个文件,现在有2701个。我让Arango重播所有的文件(如下面所示),但我仍然有一个超时。

代码语言:javascript
运行
复制
2018-11-09T10:30:11Z [2285] INFO replaying WAL logfile '/var/lib/arangodb3/journals/logfile-2668165691.db' (2700 of 2701)
2018-11-09T10:30:11Z [2285] INFO replaying WAL logfile '/var/lib/arangodb3/journals/logfile-2668552250.db' (2701 of 2701)
2018-11-09T10:30:11Z [2285] INFO WAL recovery finished successfully

当我重新启动时,服务挂起:

代码语言:javascript
运行
复制
2018-11-09T10:41:34Z [2233] INFO using storage engine mmfiles
2018-11-09T10:41:34Z [2233] INFO {syscall} file-descriptors (nofiles) hard limit is 131072, soft limit is 131072
2018-11-09T10:41:34Z [2233] INFO Authentication is turned on (system only), authentication for unix sockets is turned on

两个问题:

  • 这里我有什么选择来恢复我的数据并重新启动arango?
  • 为什么当我重播所有日志文件时,日志文件的数量只减少了24个?
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-02-02 16:04:34

我将日志文件移到另一个目录,然后重新启动ArangoDB。小心,我认为这会导致数据丢失。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53224445

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档