Flume 监控之 Ganglia | 学习笔记

简介: 快速学习Flume 监控之 Ganglia。
+关注继续查看

开发者学堂课程数据采集系统 Flume Flume 监控之 Ganglia】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:/learning/course/99/detail/1641


Flume 监控之 Ganglia


4.1 Ganglia 的安装与部署

1)安装 httpd 服务与 php

[atquigu@hadoop102 flume]s suda yum -y install httnd php

2)安装其他依赖

[atguigu@hadoop102 flume]$ sudo yum -y install rrdtool

perl- rrdtool rrdtool-devel

[atquigu@hadoop102 flume]$ sudo yum -y install apr-devel

3)安装 ganglia

[atguigu@hadoop102]

flume]$ ??sudo ???rpm ????-Uvh

http://dl.fedoraproject.org/pub/epel/6/x86_64/epe1-release-6-

8.noarch.rpm

[atguigu@hadoop102 flume]$ sudo yum -y install ganglia-gmetad

[atguiguehadoop102 flume]$ sudo yum -y install ?????ganglia-web

[atguigu@hadoop102 flumelf sudo yum install -y ganglia-gmond

4)修改配置文件

/etc/httpd/conf.d/ganglia.conf

[atguigu@hadoop102 flume]$ ???sudo ???vim

/ets/httpd/sonf.d/ganglia.conf?

修改为红颜色的配置:

# Ganglia monitoring system php web frontend

Alias /ganglia /usr/share/ganglia

Order deny,allow

Deny from all

Allow from all

# Allow from 127.0.0.1

# Allow from::1

# Allow from .example.com

5)修改配置文件

/ete/ganglia/gmetad.conf-

[atguigu@hadopp102 flume]$ sudo vim /etc/ganglia/gmetad.conf?

修改为:

data_source "hadoop102"192.168.1.102。

6修改配置文件

/etc/ganglia/gmond.conf

[atguigu@hadoop102 flume]$sudo vim /etc/ganglia/gmond.conf

修改为:

cluster {

name ="hadoop102"

owner="unspecified"

latlong="unspecified"

url="unspecified"

udp_send channel{

#bind_hostname = yes # Highly recommended, soon to be default.

# This option tells gmond to use a source

address

#that resolves to the machine's host name.

Without

#this,the metrics may appear to come from

any

#interface and the DNS names associated with

#those IPs will be used to create the RRDs.

#mcast_jion =239.2.11.71

host=192.168.1.102

port=8649

ttl=1

udp_recy_channel{

#mcast_join = 239.2.11.71

port= 8649.

bind = 192.168.1.102。

retry bind = true

?

# Size of the UDP buffer. If you are handling lots of metrics

you really

# should bump it up to e.g. 10MB or even higher.

#buffer= 10485760.

7)修改配置文件

/etc/selinux/config

[atquigu@hadoop102.flume]$ sudo vim /etc/selinux/confiq?

修改为:

# This file controls the state of SELinux on the system.

# SELINUX= can take one of these three values:

#enforcing - SELinux security policy is enforced

#permissive - SELinux prints warnings instead of enforcing.

#disabled - No SELinux policy is loaded.

SELINUX=disabled.

# SELINUXTYPE= can take one of these two values

#targeted - Targeted processes are protected,

#mls - Multi Level Security protection.

SELINUXTYPE=targeted.

尖叫提示: selinux , 本次生效关闭必须重启,如果此时不想重启,可以临时生效之:

[atguigu@hadoop102 flume]$ sudo setenforce 0

?8)启动 ganglia

[atguigu@hadoop102 flume]$ sudo service httpd start

[atguigu@hadoop102 flume]$

sudo service gmetad start

[atguigu@hadoop102 flume]$ sudo service gmond start。

9)打开网页浏览 ganglia 页面

http://192.168.1.102/ganglia

尖叫提示:如果完成以上操作依然出现权限不足错误,请修改 /var/lib/ganglia 目录的权限:

[atguigu@hadoop102 flume]$ sudo chmod -R 777 /var/lib/ganglia

?

4.2 操作 Flume 测试监控

1)修改 /opt/module/flume/conf 目录下的 flume-env.sh 配置:

JAVA_OPTS="-Dflume.monitoring.type=ganglia

-Dflume.monitoring.hosts=192.168.1.102:8649

-Xms100m

-Xmx200m"

2)启动 Flume 任务

[atguigu@hadoop102 flume]$ bin/flume-ng agent \

--conf conf/ ?\

--name a1\

--conf-file job/flume-telnet-logger.conf \

-Dflume.root.logger==INFO,console \

-Dflume.monitoring.type=ganglia \

-Dflume.monitoring.hosts=192. 168.1.102:8 649.

3)发送数据观察 ganglia 监测图

[atguigu@hadoop102 flume]$ telnet localhost 44444

相关文章
|
1月前
|
JSON 监控 Unix
Flume学习--1、Flume概述、Flume入门、(二)
Flume学习--1、Flume概述、Flume入门、(二)
|
1月前
|
SQL 分布式计算 监控
Flume学习--1、Flume概述、Flume入门、(一)
Flume学习--1、Flume概述、Flume入门、(一)
|
4月前
|
消息中间件 存储 Java
|
5月前
|
分布式数据库 Hbase
Flume安装及配置
Flume 提供了大量内置的 Source、Channel 和 Sink 类型。而且不同类型的 Source、Channel 和 Sink 可以自由组合—–组合方式基于配置文件的设置,非常灵活。比如:Channel 可以把事件暂存在内存里,也可以持久化到本地硬盘上。Sink 可以把日志写入 HDFS、HBase,甚至是另外一个 Source 等。
71 0
|
10月前
|
消息中间件 数据采集 缓存
2-网站日志分析案例-日志采集:Flume-Kafka-Flume-HDFS
文章目录 2-网站日志分析案例-日志采集:Flume-Kafka-Flume-HDFS 环境安装 虚拟机安装 安装hadoop 安装zookeeper 安装过程 基本命令
2-网站日志分析案例-日志采集:Flume-Kafka-Flume-HDFS
|
11月前
|
存储 消息中间件 数据采集
Flume基础
Flume是数据采集,日志收集的框架,通过分布式形式进行采集,(高可用分布式)
190 0
Flume基础
|
分布式计算 Hadoop Linux
Flume安装部署
Flume安装部署
129 0
|
存储 消息中间件 SQL
搭建flume-1.9.0
Apache Flume 是一个从可以收集例如日志,事件等数据资源,并将这些数量庞大的数据从各项数据资源中集中起来存储的工具/服务,或者数集中机制。flume具有高可用,分布式,配置工具,其设计的原理也是基于将数据流,如日志数据从各种网站服务器上汇集起来存储到HDFS,HBase等集中存储器中
348 1
搭建flume-1.9.0
|
分布式计算 监控 Hadoop


http://www.vxiaotou.com