我在一个测试环境中有一个11节点的Cassandra集群。由于某些原因,system.paxos
表正在失控地增长,并且没有分布在集群中。
nodetool cfstats
告诉我paxos
有27G的数据。
Table: paxos
SSTable count: 2406
SSTables in each level: [2400/4, 6, 0, 0, 0, 0, 0, 0, 0]
Space used (live), bytes: 28981416094
Space used (total), bytes: 28981416094
du -sh /data/system/paxos
告诉我,一个特定的节点几乎拥有全部~27G的system.paxos
。
我检查了cassandra.yaml
:集群使用的是RandomPartitioner,每个节点拥有大约9%的空间。其他表正按预期的方式分发。
发布于 2015-03-31 01:34:36
系统密钥空间中的内容主要用于内部,并且特定于该节点。因此,键空间使用Local复制策略:
cqlsh:system> describe keyspace system;
CREATE KEYSPACE system WITH replication = {
'class': 'LocalStrategy'
};
2400/4表示在该级别的4人中,有2.4k。最明确的是,有一些东西是坏的(或者说远远落后于它)。您应该检查日志中是否有异常,进行堆栈跟踪,检查压缩状态,并检查您设置的任何监视或趋势信息。一旦收集到诊断数据,重新启动节点并查看它是否开始解析。
https://stackoverflow.com/questions/29358701
复制相似问题