开发者社区> 学堂小助手> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

Flume 监控之 Ganglia | 学习笔记

简介: 快速学习Flume 监控之 Ganglia。
+关注继续查看
福利推荐:阿里云、腾讯云、华为云等大品牌云产品全线2折优惠活动来袭,4核8G云服务器899元/3年,新老用户共享优惠,点击这里立即抢购>>>

开发者学堂课程数据采集系统 Flume Flume 监控之 Ganglia】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:/learning/course/99/detail/1641


Flume 监控之 Ganglia


4.1 Ganglia 的安装与部署

1)安装 httpd 服务与 php

[atquigu@hadoop102 flume]s suda yum -y install httnd php

2)安装其他依赖

[atguigu@hadoop102 flume]$ sudo yum -y install rrdtool

perl- rrdtool rrdtool-devel

[atquigu@hadoop102 flume]$ sudo yum -y install apr-devel

3)安装 ganglia

[atguigu@hadoop102]

flume]$ ??sudo ???rpm ????-Uvh

http://dl.fedoraproject.org/pub/epel/6/x86_64/epe1-release-6-

8.noarch.rpm

[atguigu@hadoop102 flume]$ sudo yum -y install ganglia-gmetad

[atguiguehadoop102 flume]$ sudo yum -y install ?????ganglia-web

[atguigu@hadoop102 flumelf sudo yum install -y ganglia-gmond

4)修改配置文件

/etc/httpd/conf.d/ganglia.conf

[atguigu@hadoop102 flume]$ ???sudo ???vim

/ets/httpd/sonf.d/ganglia.conf?

修改为红颜色的配置:

# Ganglia monitoring system php web frontend

Alias /ganglia /usr/share/ganglia

Order deny,allow

Deny from all

Allow from all

# Allow from 127.0.0.1

# Allow from::1

# Allow from .example.com

5)修改配置文件

/ete/ganglia/gmetad.conf-

[atguigu@hadopp102 flume]$ sudo vim /etc/ganglia/gmetad.conf?

修改为:

data_source "hadoop102"192.168.1.102。

6修改配置文件

/etc/ganglia/gmond.conf

[atguigu@hadoop102 flume]$sudo vim /etc/ganglia/gmond.conf

修改为:

cluster {

name ="hadoop102"

owner="unspecified"

latlong="unspecified"

url="unspecified"

udp_send channel{

#bind_hostname = yes # Highly recommended, soon to be default.

# This option tells gmond to use a source

address

#that resolves to the machine's host name.

Without

#this,the metrics may appear to come from

any

#interface and the DNS names associated with

#those IPs will be used to create the RRDs.

#mcast_jion =239.2.11.71

host=192.168.1.102

port=8649

ttl=1

udp_recy_channel{

#mcast_join = 239.2.11.71

port= 8649.

bind = 192.168.1.102。

retry bind = true

?

# Size of the UDP buffer. If you are handling lots of metrics

you really

# should bump it up to e.g. 10MB or even higher.

#buffer= 10485760.

7)修改配置文件

/etc/selinux/config

[atquigu@hadoop102.flume]$ sudo vim /etc/selinux/confiq?

修改为:

# This file controls the state of SELinux on the system.

# SELINUX= can take one of these three values:

#enforcing - SELinux security policy is enforced

#permissive - SELinux prints warnings instead of enforcing.

#disabled - No SELinux policy is loaded.

SELINUX=disabled.

# SELINUXTYPE= can take one of these two values

#targeted - Targeted processes are protected,

#mls - Multi Level Security protection.

SELINUXTYPE=targeted.

尖叫提示: selinux , 本次生效关闭必须重启,如果此时不想重启,可以临时生效之:

[atguigu@hadoop102 flume]$ sudo setenforce 0

?8)启动 ganglia

[atguigu@hadoop102 flume]$ sudo service httpd start

[atguigu@hadoop102 flume]$

sudo service gmetad start

[atguigu@hadoop102 flume]$ sudo service gmond start。

9)打开网页浏览 ganglia 页面

http://192.168.1.102/ganglia

尖叫提示:如果完成以上操作依然出现权限不足错误,请修改 /var/lib/ganglia 目录的权限:

[atguigu@hadoop102 flume]$ sudo chmod -R 777 /var/lib/ganglia

?

4.2 操作 Flume 测试监控

1)修改 /opt/module/flume/conf 目录下的 flume-env.sh 配置:

JAVA_OPTS="-Dflume.monitoring.type=ganglia

-Dflume.monitoring.hosts=192.168.1.102:8649

-Xms100m

-Xmx200m"

2)启动 Flume 任务

[atguigu@hadoop102 flume]$ bin/flume-ng agent \

--conf conf/ ?\

--name a1\

--conf-file job/flume-telnet-logger.conf \

-Dflume.root.logger==INFO,console \

-Dflume.monitoring.type=ganglia \

-Dflume.monitoring.hosts=192. 168.1.102:8 649.

3)发送数据观察 ganglia 监测图

[atguigu@hadoop102 flume]$ telnet localhost 44444

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
flume安装及配置介绍(转载)
Flume的下载方式: wget http://www.apache.org/dyn/closer.lua/flume/1.6.0/apache-flume-1.
856 0
Flume安装部署
Flume安装部署
0 0
搭建flume-1.9.0
Apache Flume 是一个从可以收集例如日志,事件等数据资源,并将这些数量庞大的数据从各项数据资源中集中起来存储的工具/服务,或者数集中机制。flume具有高可用,分布式,配置工具,其设计的原理也是基于将数据流,如日志数据从各种网站服务器上汇集起来存储到HDFS,HBase等集中存储器中
0 0
Flume基础
Flume是数据采集,日志收集的框架,通过分布式形式进行采集,(高可用分布式)
0 0
文章
问答
来源圈子
更多
技术图谱:由专家组参与技术图谱的绘制与编写,知识与实践的结合让开发者们掌握学习路线与逻辑,快速提升技能 电子书:电子书由阿里内外专家打造,供开发者们下载学习,更与课程相结合,使用户更易理解掌握课程内容 训练营:学习训练营 深入浅出,专家授课,带领开发者们快速上云 精品课程:汇集知识碎片,解决技术难题,体系化学习场景,深入浅出,易于理解 技能自测:提供免费测试,摸底自查 体验实验室:学完即练,云资源免费使用
+ 订阅
文章排行榜
最热
最新
相关电子书
更多
Dataflow with Apache NiFi
立即下载
Apache Kafka-and the Rise of
立即下载
零基础实现Flume收集网站日志数据到MaxCompute
立即下载


http://www.vxiaotou.com