不管zabbix的后端数据库是oracle还是mysql,当zabbix监控的量级达到了一定程度后,那么对数据库的性能是一个非常严峻的挑战。特别是对历史数据的查询,将会变得非常非常的慢,别告诉我可以建索引优化,当量级达到一定的程度的时候,索引真的没啥效果了。如果再不继续寻找合适的解决方案,那么就一定会引发数据库层面的问题,最终导致服务不可用。当监控数据越来越大的时候,存储不足的时候,怎么办?那就删历史数据呗,但如果要求至少要保存半年甚至1年以上的历史数据,且又高端存储磁阵紧缺面临扩容难题的时候怎么办?而且又同时面临着单个历史表非常庞大的时候怎么办?分库、分表、分区?做读写分离?不!一切都是浮云,还有一个更值得推荐的解决方案,那就是利用Zabbix本身对ES支持的机制来将历史数据存储到ES集群。目前,官方虽然表示Zabbix对Elasticsearch的支持仍处于试验阶段,但笔者认为还是值得一试,且在测试阶段未发现有啥不妥。“生产环境”上也改造了几套对接ES的架构,目前运行均一切正常,ES可快速横向扩展的能力是人尽皆知啊!谁用谁知道。
下面笔者附上对接ES的官方文档链接:https://www.zabbix.com/documentation/5.0/en/manual/appendix/install/elastic_search_setup,且利用测试环境输出了本篇的“精华”。希望可以起到抛砖引玉的效果,欢迎广大盆友可以和笔者一起共同探讨。
笔者简单画了一下大概的架构图,如下:
由于Oracle、ES、Kibana、Zabbix不是本文的主题,因此这几个组件的安装过程笔者在本文就省略了哈。关于Oracle的安装,笔者在以前的文章中有所讲到,那么ES、Kibana、Zabbix的相关知识点笔者后续也会抽时间输出“精华”,望广大朋友们多多关注哦,非常感谢!
curl -X PUT \
http://localhost:9200/uint \
-H 'content-type:application/json' \
-d '{
"settings": {
"index": {
"number_of_replicas": 1,
"number_of_shards": 5
}
},
"mappings": {
"properties": {
"itemid": {
"type": "long"
},
"clock": {
"format": "epoch_second",
"type": "date"
},
"value": {
"type": "long"
}
}
}
}'
curl -X PUT \
http://localhost:9200/dbl \
-H 'content-type:application/json' \
-d '{
"settings": {
"index": {
"number_of_replicas": 1,
"number_of_shards": 5
}
},
"mappings": {
"properties": {
"itemid": {
"type": "long"
},
"clock": {
"format": "epoch_second",
"type": "date"
},
"value": {
"type": "double"
}
}
}
}'
curl -X PUT \
http://localhost:9200/str \
-H 'content-type:application/json' \
-d '{
"settings": {
"index": {
"number_of_replicas": 1,
"number_of_shards": 5
}
},
"mappings": {
"properties": {
"itemid": {
"type": "long"
},
"clock": {
"format": "epoch_second",
"type": "date"
},
"value": {
"fields": {
"analyzed": {
"index": true,
"type": "text",
"analyzer": "standard"
}
},
"index": false,
"type": "text"
}
}
}
}'
curl -X PUT \
http://localhost:9200/log \
-H 'content-type:application/json' \
-d '{
"settings": {
"index": {
"number_of_replicas": 1,
"number_of_shards": 5
}
},
"mappings": {
"properties": {
"itemid": {
"type": "long"
},
"clock": {
"format": "epoch_second",
"type": "date"
},
"value": {
"fields": {
"analyzed": {
"index": true,
"type": "text",
"analyzer": "standard"
}
},
"index": false,
"type": "text"
}
}
}
}'
curl -X PUT \
http://localhost:9200/text \
-H 'content-type:application/json' \
-d '{
"settings": {
"index": {
"number_of_replicas": 1,
"number_of_shards": 5
}
},
"mappings": {
"properties": {
"itemid": {
"type": "long"
},
"clock": {
"format": "epoch_second",
"type": "date"
},
"value": {
"fields": {
"analyzed": {
"index": true,
"type": "text",
"analyzer": "standard"
}
},
"index": false,
"type": "text"
}
}
}
}'
HistoryStorageURL=local.es.svr:9200
HistoryStorageTypes=uint,dbl,str,log,text
<?php
// Zabbix GUI configuration file.
global $DB, $HISTORY;
$HISTORY['url'] = 'http://local.es.svr:9200';
$HISTORY['types'] = ['uint', 'text', 'log', 'str', 'dbl'];
# 杀死和拉起zabbix server
ps -aux | grep zabbix_server | grep -v grep | awk '{print $2}' | xargs kill -9
/opt/aspire/product/zabbixsvr5/sbin/zabbix_server -c /opt/aspire/product/zabbixsvr5/etc/zabbix_server.conf
# 杀死和拉起php-fpm
pkill php-fpm
/opt/aspire/product/php7/sbin/php-fpm
上图可看出上报监控数据正常
笔者通过plsql登录了oracle 19c进行select count操作
通过上图可看到,history、history_log、history_str、history_text、history_uint 这5张表都没有数据写入了
上图可看到,历史数据都写入到对应的索引了。
此方案是Zabbix官方内置支持的机制,也是比较推荐的解决方案,其实Zabbix从4.2版本就开始支持时序数据库TimescaleDB了,但目前时序数据库不支持Zabbix proxy。如果后端的Oracle或MySQL换成TimescaleDB,再结合ES,是不是变得可以支持更大规模的监控?这是一个值得去测试的解决方案。笔者回头找时间搭建一下,并做压测。好了!时间有限,今晚就此搁笔,感谢广大盆友的关注,望多多点赞、收藏、转发,谢谢!
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。