您现在的位置 >> Hadoop教程 >> Hadoop实战 >> 专题  
 

什么是 flume 日志收集,flume的特性

【作者:Hadoop实战专家】【关键词:数据 】 【点击:6238次】【2014-01-0】
Flume使用两个组件:Master和Node,Node根据在Master shell或web中动态配置,决定其是作为Agent还是Collector。(1) agentagent的作用是将数据源的数据发送给collector。 (2) collectorcollector的作用是将多个agent的数据汇总后,加载到storage中。  

相关热门搜索:

大数据标签:hadoop hdfs hbase hive zookeeper flume bigdata

可以带着下面问题来阅读本文章
1.Flume如何保证数据正确性
2.Flume有哪些自带的数据源
3.Flume特性有哪些
4.flume与hadoop的启动顺序是什么?5.flume是否支持多个数据源?

Flume介绍
Flume最早是Cloudera提供的日志收集系统,目前是Apache下的一个孵化项目,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力  Flume提供了从console(控制台)、RPC(Thrift-RPC)、text(文件)、tail(UNIX tail)、syslog(syslog日志系统,支持TCP和UDP等2种模式),exec(命令执行)等数据源上收集数据的能力。
Flume采用了多Master的方式。为了保证配置数据的一致性,Flume引入了ZooKeeper,用于保存配置数据,ZooKeeper本身可保证配置数据的一致性和高可用,另外,在配置数据发生变化时,ZooKeeper可以通知Flume Master节点。Flume Master间使用gossip协议同步数据。

Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
设计目标:
(1) 可靠性
当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将event写到磁盘上,当数据传送成功后,再删除;如果数据发送失败,可以重新发送。),Store on failure(这也是scribe采用的策略,当数据接收方crash时,将数据写到本地,待恢复后,继续发送),Best effort(数据发送到接收方后,不会进行确认)。
(2) 可扩展性
Flume采用了三层架构,分别为agent,collector和storage,每一层均可以水平扩展。其中,所有agent和collector由master统一管理,这使得系统容易监控和维护,且master允许有多个(使用ZooKeeper进行管理和负载均衡),这就避免了单点故障问题。
3) 可管理性
所有agent和colletor由master统一管理,这使得系统便于维护。多master情况,Flume利用ZooKeeper和gossip,保证动态配置数据的一致性。用户可以在master上查看各个数据源或者数据流执行情况,且可以对各个数据源配置和动态加载。Flume提供了web 和shell script command两种形式对数据流进行管理。
(4) 功能可扩展性
用户可以根据需要添加自己的agent,collector或者storage。此外,Flume自带了很多组件,包括各种agent(file, syslog等),collector和storage(file,HDFS等)。
二、Flume架构flume的逻辑架构:

2012052509592437.jpg (22.11 KB, 下载次数: 0)

  

2013-12-23 21:36 上传

正如前面提到的,Flume采用了分层架构:分别为agent,collector和storage。其中,agent和collector均由两部分组成:source和sink,source是数据来源,sink是数据去向。
Flume使用两个组件:Master和Node,Node根据在Master shell或web中动态配置,决定其是作为Agent还是Collector。
(1) agentagent的作用是将数据源的数据发送给collector。
Flume自带了很多直接可用的数据源(source),如:

* text(“filename”):将文件filename作为数据源,按行发送
* tail(“filename”):探测filename新产生的数据,按行发送出去
* fsyslogTcp(5140):监听TCP的5140端口,并且接收到的数据发送出去
* tailDir("dirname"[, fileregex=".*"[, startFromEnd=false[, recurseDepth=0]]]):监听目录中的文件末尾,使用正则去选定需要监听的文件(不包含目录),recurseDepth为递归监听其下子目录的深度

同时提供了很多sink,如:

* console[("format")] :直接将将数据显示在consolr上
* text(“txtfile”):将数据写到文件txtfile中
* dfs(“dfsfile”):将数据写到HDFS上的dfsfile文件中
* syslogTcp(“host”,port):将数据通过TCP传递给host节点
* agentSink[("machine"[,port])]:等价于agentE2ESink,如果省略,machine参数,默认使用flume.collector.event.host与flume.collector.event.port作为默认collecotr
* agentDFOSink[("machine" [,port])]:本地热备agent,agent发现collector节点故障后,不断检查collector的存活状态以便重新发送event,在此间产生的数据将缓存到本地磁盘中
* agentBESink[("machine"[,port])]:不负责的agent,如果collector故障,将不做任何处理,它发送的数据也将被直接丢弃
* agentE2EChain:指定多个collector提高可用性。 当向主collector发送event失效后,转向第二个collector发送,当所有的collector失败后,它会非常执着的再来一遍

(2) collectorcollector的作用是将多个agent的数据汇总后,加载到storage中。
它的source和sink与agent类似。
数据源(source),如:

* collectorSource[(port)]:Collector source,监听端口汇聚数据
* autoCollectorSource:通过master协调物理节点自动汇聚数据
* logicalSource:逻辑source,由master分配端口并监听rpcSink

sink,如:

* collectorSink( "fsdir","fsfileprefix",rollmillis):collectorSink,数据通过collector汇聚之后发送到hdfs, fsdir 是hdfs目录,fsfileprefix为文件前缀码
* customdfs("hdfspath"[, "format"]):自定义格式dfs

(3) storage

storage是存储系统,可以是一个普通file,也可以是HDFS,HIVE,HBase,分布式存储等。
(4) MasterMaster是管理协调agent和collector的配置等信息,是flume集群的控制器。
在Flume中,最重要的抽象是data flow(数据流),data flow描述了数据从产生,传输、处理并最终写入目标的一条路径。

2012052510101772.jpg (9.99 KB, 下载次数: 0)

  

2013-12-23 21:43 上传

* 对于agent数据流配置就是从哪得到数据,把数据发送到哪个collector。
* 对于collector是接收agent发过来的数据,把数据发送到指定的目标机器上。

注:Flume框架对hadoop和zookeeper的依赖只是在jar包上,并不要求flume启动时必须将hadoop和zookeeper服务也启动。

思考:
Flume为什么是一个分布式、可靠、和高可用的海量日志聚合的系统?

来自群组: Hadoop技术组

大数据系列相关文章:

最新评论
坏男人2014-09-10 02:18:37
你为啥要 ls -lrt 这样弄一下啊?
小馨2014-09-09 08:02:45
你是岳阳阳的?
2014-09-08 10:41:53
但你问的是[图片]
旅行者2014-09-08 12:32:36
啊,遇见msyql高手, 我正好碰到一问题, 请教下, 我在一双网卡的服务器上建的一个mysql, 用ip无法访问, 通过telnet不通 ip 3306, telnet locahost 3306或者127.0.0.1是可以的, 网管员一口咬定没有在网络上限制, 您看大概会是什么问题, 需要如何配置?
单身⑧○銗2014-09-07 07:12:07
你问问厉害一点的,我也是刚学这玩意,还不到一个月呢
 
  • Hadoop生态系统资料推荐