我正在用Chef开发一个Ganglia食谱。非常简单,我构建了四个不同的配置文件,我已经尝试用作template,但为了简单起见,我构建了这些配置文件。
这是我的食谱:
return if tagged?('norun::ganglia')
case node[:platform]
when "ubuntu", "debian"
pkg = "ganglia-monitor"
when "redhat", "centos", "fedora"
pkg = &
我在一个小型集群(4台机器)上安装了Hortonworks数据平台2.2的新安装,但是当我登录到Ambari GUI时,大多数仪表板统计框(HDFS磁盘使用率、网络使用率、内存使用情况等)都不包含任何统计信息,而是显示消息:
No data There was no data available. Possible reasons include inaccessible Ganglia service
单击HDFS服务链接提供以下摘要:
NameNode Started
SNameNode Started
DataNodes 4/4 DataNodes Live
NameNo
我有两个不同的配置文件,守护进程,gmond。
第一个配置文件是ganglia-gmond-3.17,来自rpmforge包):
/* This configuration is as close to 2.5.x default behavior as possible
The values closely match ./gmond/metric.h definitions in 2.5.x */
globals {
daemonize = yes
setuid = yes
user = ganglia
debug_level = 0
max_udp_msg_le
我使用了,试图监视一个拥有多个主机的集群,每个集群都有8个GPU。
在最后几步之后,我尝试在我的web节点上重新启动gmond服务,结果得到:
Starting GANGLIA gmond: Could not find platform independent libraries <prefix>
Could not find platform dependent libraries <exec_prefix>
Consider setting $PYTHONHOME to <prefix>[:<exec_prefix>]
ImportErro
我正在尝试在两个VM之间设置Ganglia监视工具。最初,在设置监视服务器和监视VM之后,Ganglia只能检测web前端上的监视服务器。在重新启动这两台机器之后,它什么也检测不到。
我按照指南在设置了这些主机,但这似乎不起作用。
下面是监视服务器的/etc/ganglia/gmond.conf文件。
==============================================================
/* This configuration is as close to 2.5.x default behavior as possible
The value
我对监视我的多代理apache水槽设置感兴趣。我已经启用了内置的ganglia服务器,它通过JSON数据为我提供了流度量。现在我感兴趣的是在图表中查看这些信息。为了实现这一点,我使用ganglia web ui,我有以下问题-我是否需要安装gmond和gmetad来实现它,如果没有,我将如何使用现有的ganglia信息和ganglia web ui?
提前谢谢。
OS:百分比OS 6.4
问题:在服务器上安装了gmond、gmetad和gweb。在同一台服务器上安装了火花工作人员。在$SPARK_HOME/conf/metrics.properties中配置metrics.properties如下所示..。
CONFIGURATION (metrics.properties in spark):
org.apache.spark.metrics.sink.GangliaSink
host localhost
port 8649
period 10
unit seconds
ttl 1
mo
我希望使用ganglia监视Hadoop (HadoopVersion0.20.2)多节点集群。我的Hadoop工作正常,我在看完博客后安装了Ganglia --
我还研究了Ganglia.pdf(附录B节和Hadoop/HBase )的监测。
I have modified only the following lines in **Hadoop-metrics.properties**(same on all Hadoop Nodes)==>
// Configuration of the "dfs" context for ganglia
dfs.c