由于linux下的office和win下有所区别,我只能把linux下的.dot文件打包成pdf,粘贴发送标出来,但有些图片还是没办法发表,要是有朋友感兴趣的话,可加我qq 215687833具体的文档可供参考,皆来自本人整理,扯犊子的请绕行。

ganglia 是分布式的监控系统,有两个 Daemon, 分别是:客户端 Ganglia Monitoring
Daemon (gmond)和服务端 Ganglia Meta Daemon (gmetad),还有 Ganglia PHP Web
Frontend(基于 web 的动态访问方式)组成
是一个 Linux 下图形化监控系统运行性能的软件,界面美观、丰富,功能强大
http://ganglia.sourceforge.net/ 软件下载
环境:RHEL6 x86­64 disable selinux and iptables
2 台主机的解析分别为
192.168.2.79    node2.example.com
192.168.2.81    node3.example.com
ganglia 多播的配置。
配置在 192.168.2.79    node2.example.com
下载软件包:
ganglia­3.6.0.tar.gz
ganglia­web­3.5.10.tar.gz
libconfuse­2.6­3.el6.x86_64.rpm
libconfuse­devel­2.6­3.el6.x86_64.rpm
rrdtool­devel­1.3.8­6.el6.x86_64.rpm
yum install ­y rpm­build 将 tar 包打压成 rpm 包。
[root@node2 ~]# rpmbuild ­tb ganglia­3.6.0.tar.gz  打压的过程中所需要的依赖包。
error: Failed build dependencies:
libart_lgpl­devel is needed by ganglia­3.6.0­1.x86_64
gcc­c++ is needed by ganglia­3.6.0­1.x86_64
python­devel is needed by ganglia­3.6.0­1.x86_64
libconfuse­devel is needed by ganglia­3.6.0­1.x86_64
pcre­devel is needed by ganglia­3.6.0­1.x86_64
expat­devel is needed by ganglia­3.6.0­1.x86_64
rrdtool­devel is needed by ganglia­3.6.0­1.x86_64
apr­devel > 1 is needed by ganglia­3.6.0­1.x86_64
安装依赖关系。
# yum install ­y libart_lgpl­devel gcc­c++ python­devel pcre­devel expat­devel rrdtool­devel apr­devel
安装完成后再次打压。
[root@node2 ~]# rpmbuild ­tb ganglia­3.6.0.tar.gz
 error: Failed build dependencies:
libconfuse­devel is needed by ganglia­3.6.0­1.x86_64
rrdtool­devel is needed by ganglia­3.6.0­1.x86_64
发现还需要依赖关系,安装以下依赖包。
[root@node2 ~]# yum localinstall libconfuse­devel­2.6­3.el6.x86_64.rpm rrdtool­devel­1.3.8­
6.el6.x86_64.rpm
发现安装 上面 2 个包,又产生一个依赖包,还需要安装依赖 包。
[root@node2 ~]# yum localinstall libconfuse­devel­2.6­3.el6.x86_64.rpm rrdtool­devel­1.3.8­
6.el6.x86_64.rpm libconfuse­2.6­3.el6.x86_64.rpm
再次将 tar 包打压成 rpm 包,ok
[root@node2 ~]# rpmbuild ­tb ganglia­3.6.0.tar.gz
将 tar­web tar 包也打压成 rpm 包。
[root@node2 ~]# rpmbuild ­tb ganglia­web­3.5.10.tar.gz
切换到下面的目录,ganglia 打压的 包放在这下面。
/root/rpmbuild/RPMS/x86_64
[root@node2 x86_64]# ls
ganglia­devel­3.6.0­1.x86_64.rpm
ganglia­gmetad­3.6.0­1.x86_64.rpm
ganglia­gmond­3.6.0­1.x86_64.rpm
ganglia­gmond­modules­python­3.6.0­1.x86_64.rpm
libganglia­3.6.0­1.x86_64.rpm
[root@node2 x86_64]# rpm ­ivh *
Preparing...                ########################################### [100%]
   1:libganglia             ########################################### [ 20%]
   2:ganglia­gmond          ########################################### [ 40%]
   3:ganglia­gmond­modules­p########################################### [ 60%]
   4:ganglia­devel          ########################################### [ 80%]
   5:ganglia­gmetad         ########################################### [100%]
/root/rpmbuild/RPMS/noarch  ganglia­web 打压的包放在这下面。
[root@node2 noarch]# yum localinstall ganglia­web­3.5.10­1.noarch.rpm ­y
ganglia 的主配置文件都放在/etc/ganglia 目录下。
[root@node2 ganglia]# vim gmetad.conf 修改服务的配置文件。
data_source "my cluster" localhost 改个组名为 my cluster
[root@node2 ganglia]# vim gmond.conf
cluster {
  name = "my cluster"
  owner = "unspecified"
  latlong = "unspecified"
  url = "unspecified"
启动 ganglia 的服务端/客户端:
/etc/init.d/gmond start
/etc/init.d/gmetad start
在浏览器中输入: http://192.168.2.79/ganglia/
这下面放的是通过广播监控到的 ganglia 服务的信息。
/var/lib/ganglia/rrds/my cluster
[root@node2 my cluster]# ls
192.168.2.125  192.168.2.138  192.168.2.56  node2.example.com
192.168.2.133  192.168.2.207  192.168.2.71  __SummaryInfo__
192.168.2.134  192.168.2.220  192.168.2.85
下面配置另一台主机的 ganglia 客户端服务。
首先切换到当下目录,将 ganglia 包拷贝到远程主机。
/root/rpmbuild/RPMS/x86_64
scp ganglia­gmond­* libganglia­3.6.0­1.x86_64.rpm 192.168.2.81:/root/ 顺便也把 libconfuse­2.6­
3.el6.x86_64.rpm 也拷贝过去,会用到依赖关系。
安装客户端的软件包。
配置在 192.168.2.81    node3.example.com
[root@node3 ~]# yum localinstall ganglia­gmond­* libganglia­3.6.0­1.x86_64.rpm libconfuse­2.6­
3.el6.x86_64.rpm
一样 ganglia 的主配置文件也放在/etc/ganglia 目录下。
[root@node3 ganglia]# vim  gmond.conf 编辑客户端的配置文件。
cluster {
  name = "my cluster"
  owner = "unspecified"
  latlong = "unspecified"
  url = "unspecified"
}
要是有多台客户端的主机,组一样都使用
cluster {
  name = "my cluster"
  owner = "unspecified"
  latlong = "unspecified"
  url = "unspecified"
}
重启服务:
# /etc/init.d/gmond start
在主配置的/var/lib/ganglia/rrds 目录下可以看到 ganglia 所监控到的主机信息。
单播 ganglia 的配置:
配置在 192.168.2.79 这台主机上。
单播的原理就是各自监控各自的,大家的组/端口都不一样,每个人起得组名字,端口都不一样。
首先把上面的 ganglia 服务给停了。
[root@node2 ganglia]# vim gmetad.conf 编辑服务端的配置
组名我改为 linux007  监控的主机为 192.168.2.79 和 192.168.2.81 端口为 8007
data_source "linux007" 192.168.2.79:8007        192.168.2.81:8007
[root@node2 ganglia]# vim gmond.conf 客户端主要修改以下几行
 send_metadata_interval = 30 /*secs */ 发送的更新为 30 秒
cluster {
  name = "linux007"  客户端的组名也为 linux007
  owner = "unspecified"
  latlong = "unspecified"
  url = "unspecified"
}
mcast_join = 239.2.11.71
  port = 8007
  ttl = 1
udp_recv_channel {
  mcast_join = 239.2.11.71
  port = 8007  端口也为 8007
  bind = 239.2.11.71
retry_bind = true
tcp_accept_channel {
  port = 8007  tcp 的端口为 8007
  # If you want to gzip XML output
  gzip_output = no
}
重启服务:
/etc/init.d/gmond restart
/etc/init.d/gmetad restart
另一台客户端的配置;
192.168.2.81 node3 这台主机:
[root@node3 ganglia]# vim  gmond.conf  客户端的配置文件修改以下几行。
send_metadata_interval = 30 /*secs */
cluster {
  name = "linux007"
  owner = "unspecified"
  latlong = "unspecified"
  url = "unspecified"
}
mcast_join = 239.2.11.71
  port = 8007
  ttl = 1
udp_recv_channel {
  mcast_join = 239.2.11.71
  port = 8007
  bind = 239.2.11.71
  retry_bind = true
tcp_accept_channel {
  port = 8007
  # If you want to gzip XML output
  gzip_output = no
}
重启服务:
# /etc/init.d/gmond restart
在服务端的/var/lib/ganglia/rrds/linux007 目录下,会看到一下文件或目录。
node2.example.com  node3.example.com  __SummaryInfo__
在浏览器中会看到:linux007 的信息
[root@node2 contrib]# cp check_ganglia.py /usr/local/nagios/libexec/
[root@node2 contrib]# cd /usr/local/nagios/libexec/
[root@node2 libexec]# ./check_ganglia.py
Usage: check_ganglia ­h|­­host= ­m|­­metric= ­w|­­warning= ­c|­­critical= [­s|­­server=] [­p|­­port=]
­h 可以写主机名,也可以写 ip,这怎么写,你在/var/lib/ganglia/rrds/linux007/看到的信息是一样
的。
[root@node2 libexec]# vim check_ganglia.py
ganglia_port = 8007
这下面的明显是不对的,我们写的是 20%警告,10%危险,先面的输出是危险,磁盘剩余空间
83.04,很明显是不对的。
[root@node2 libexec]# ./check_ganglia.py ­h node3.example.com ­m disk_free_percent_rootfs ­w 20
­c 10
CHECKGANGLIA CRITICAL: disk_free_percent_rootfs is 83.04
修改脚本 check_ganglia.py,使其符合我们的要求输出。
[root@node2 libexec]# vim check_ganglia.py
if critical > warning:
  if value >= critical:
    print "CHECKGANGLIA CRITICAL: %s is %.2f" % (metric, value)
    sys.exit(2)
  elif value >= warning:
    print "CHECKGANGLIA WARNING: %s is %.2f" % (metric, value)
    sys.exit(1)
  else:
    print "CHECKGANGLIA OK: %s is %.2f" % (metric, value)
    sys.exit(0)
else:
  if critical >= value:
    print "CHECKGANGLIA CRITICAL: %s is %.2f" % (metric, value)
    sys.exit(2)
  elif warning >= value:
    print "CHECKGANGLIA WARNING: %s is %.2f" % (metric, value)
    sys.exit(1)
  else:
    print "CHECKGANGLIA OK: %s is %.2f" % (metric, value)
    sys.exit(0)
  
再次输出发现完全符合要求:
[root@node2 libexec]# ./check_ganglia.py ­h node3.example.com ­m disk_free_percent_rootfs ­w 20
­c 10
CHECKGANGLIA OK: disk_free_percent_rootfs is 83.04
ganglia 擅长监控多台服务,nagios 擅长警告,现在把他们结合起来。
首先 nagios 没有 ganglia 的命令,我们添加 nagios 命令。
# cd /usr/local/nagios/etc/objects/
[root@node2 objects]# vim commands.cfg 要是上面的验证是 ip 则 HOSTADDRESS,我是域
名则
define command{
        command_name    check_ganglia
        command_line    $USER1$/check_ganglia.py ­h $HOSTNAME$ ­m $ARG1$ ­w $ARG2$ ­c
$ARG3$
        }
                          
[root@node2 objects]# vim templates.cfg
define service {
use generic­service
name ganglia­service
hostgroup_name ganglia­servers
service_groups ganglia­metrics
register        0
}
[root@node2 objects]# vim hosts.cfg
define hostgroup {
hostgroup_name ganglia­servers
alias ganglia­servers
members node3.example.com
}
[root@node2 objects]# vim services.cfg
define servicegroup {
servicegroup_name       ganglia­metrics
alias   Ganglia Metrics
}
define service {
use     ganglia­service
service_description     根分区
check_command   check_ganglia!disk_free_percent_rootfs!20!10
}
define service {
use     ganglia­service
service_description     系统负载
check_command   check_ganglia!load_one!4!5
}
重启服务后校验语发是否错误:
[root@node2 etc]# /usr/local/nagios/bin/nagios ­v /usr/local/nagios/etc/nagios.cfg
校验成后重启服务:
# /etc/init.d/nagios restart
在浏览器输入 http://192.168.2.79/nagios/  点击 servers 会看到下面:
下面额外的添加一台客户端 node4 192.168.2.82,为其添加服务主机,使用 ganglia+nagios 监控:
scp ganglia­gmond­* libconfuse­2.6­3.el6.x86_64.rpm libganglia­3.6.0­1.x86_64.rpm
192.168.2.82:/root/
安装这些软件包:
rpm    ­ivh *
把客户端的配置文件也给 node4 拷贝一份。
# scp gmond.conf 192.168.2.82:/etc/ganglia/
# /etc/init.d/gmond restart
在 node2 也就是服务端的/var/lib/ganglia/rrds/linux007 的目录下回收到 node4 这台主机的信息.
192.168.2.82  node2.example.com  node3.example.com  __SummaryInfo__
切换到 node2 这台主机,也就是 ganglia 和 nagios 这台主机的目录下。
/usr/local/nagios/etc/objects
[root@node2 objects]# vim hosts.cfg 额外添加的主机只需以,隔开;添加主机名
define host{
        use                     linux­server
        host_name               node4.example.com
        alias                   node4
        address                 192.168.2.82
        }
define hostgroup {
hostgroup_name ganglia­servers
alias ganglia­servers
members node3.example.com,node4.example.com
}
[root@node2 objects]# vim services.cfg 额外添加的服务,所有的主机都可以收到。
define service {
use     ganglia­service
service_description     内存空间
check_command   check_ganglia!mem_free!100!50
}
重启服务:
# /etc/init.d/gmond restart
# /etc/init.d/gmetad restart
# /etc/init.d/nagios restart
在浏览器中输入:http://192.168.2.79/nagios/    得到下图:

<ganglia+nagios>rhel6.5的更多相关文章

  1. 《Openstack的搭建》RHEL6.5

    Openstack就是搭建一个较为完整的虚拟化平台,把一个完整的物理机划分成若干个虚拟机来跑,从而实现资源的充分利用. Openstack对硬件的要求很高,要是你的物理机内存是4G的话,虚拟机的内存给 ...

  2. openstack自动化搭建脚本

    Openstack平台部署+节点扩容 1)搭建脚本 #!/bin/bash #openstack私有云平台部署 #脚本使用前提:三台虚拟机openstack(ip地址:.11至少4G内存,100G硬盘 ...

  3. OpenStack上搭建Q版的公共环境准备(step1)

    vmware14 centos7.5minimal版 controller1节点虚拟硬件配置: CPU:1颗2核 Memory:2G 硬盘:20G 网卡: VMnet1(仅主机模式):关闭DHCP,手 ...

  4. openstack环境搭建常用命令

    1,编辑/etc/selinux/config文件,关闭selinux SELINUX=disabled 2,清空iptables规则并保存 # iptables -F # service iptab ...

  5. openstack 环境搭建

    python单步调试配置(eclipse+pydev+keystone-2014.1.b2),catch捕获异常的时候eclipse里面也会中断的:建议搞个全新的eclipse解压缩副本,专门调试op ...

  6. neutron源码分析(一)OpenStack环境搭建

    一.OpenStack安装 安装一个初始化的Mitaka版本的OpenStack环境用于分析,neutron源码 序号 角色 IP地址 版本 1 controller 172.16.15.161 mi ...

  7. OpenStack环境搭建

    实验环境 CentOS-7-x86_64-Minimal-1708.iso openstack_N.tar.gz 创建虚拟机 controller部署 computer网络配置 OpenStack环境 ...

  8. 云计算OpenStack环境搭建(4)

    准备工作: 准备3台机器,确保yum源是可用的,分别为控制节点(192.168.11.3).计算节点(192.168.11.4)和存储节点(192.168.11.5) 控制节点:OpenStack日常 ...

  9. 搭建Openstack云平台

    实验室需要做一个大数据平台项目,临时接下需要部署实验室云平台的任务,由于之前没有接触过相关技术,仅以此篇作为纪录文,记录一下我的openstack的初步学习以及搭建过程. 1.openstcak及其组 ...

  10. 执行openstack命令报错【You must provide a username via either -...】

    openstack环境搭建好后,openstack的服务都启动了,当执行openstack命令时如nova service list报如下错误 You must provide a username ...

随机推荐

  1. cdh ntpdate 问题

    ntpdc -np 一个正常一个不正常

  2. 【转】GitHub使用

    1.设置Git全局用户配置 git config --global user.name "xxx" git config --global user.email xxx@gmail ...

  3. URL网址规范化

    网址URL规范化(URL canonicalization)是近一年来在Google搜索结果中出现的一个很大的问题.它指的是搜索引擎挑选最好的URL网址作为真正网址的过程.举例来说,下面这几个URL一 ...

  4. Linux性能测试工具-UnixBench--安装以及结果分析

    参考链接:http://blog.csdn.net/gatieme/article/details/50912910 依赖包安装:      yum install -y SDL-devel mesa ...

  5. elasticsearch2.x插件之一:marvel(简介)

    在 安装插件的过程中,尤其是安装Marvel插件遇到了很多问题,又要下载license.Marvel-agent,又要下载安装Kibana,很多内容 不知道为何这样安装处理.仔细看了看ElasticS ...

  6. Spring入门第二十五课

    使用具名参数 直接看代码: db.properties jdbc.user=root jdbc.password=logan123 jdbc.driverClass=com.mysql.jdbc.Dr ...

  7. 超级台阶 (NYOJ—76)

    很简单的高中数学题,写出来主要是提醒自己,写完递推公式(尤其是公式)一定要检查多遍. #include<stdio.h> #include<string.h> int M; i ...

  8. Asp.Net 之 Web.config 配置文件详解 -转

    在asp.net中配置文件名一般默认是web.config.每个web.config文件都是基于XML的文本文件,并且可以保存到Web应用程序中的任何目录中.在发布Web应用程序时web.config ...

  9. 消息队列--RabbitMQ(一)

    1.消息队列概述 可以理解为保存消息的一个媒介/或者是个容器,与之相关有两个概念(即生产者(Publish)与消费者(Consumer)).所谓生产者,就是生产创造消息的一方,那么,消费者便是从队列中 ...

  10. Python中配置文件解析模块-ConfigParser

    Python中有ConfigParser类,可以很方便的从配置文件中读取数据(如DB的配置,路径的配置).配置文件的格式是: []包含的叫section, section 下有option=value ...