新聞資訊  快訊  焦點  財經  政策  社會
互 聯 網   電商  金融  數據  計算  技巧
生活百科  科技  職場  健康  法律  汽車
手機百科  知識  軟件  修理  測評  微信
軟件技術  應用  系統  圖像  視頻  經驗
硬件技術  知識  技術  測評  選購  維修
網絡技術  硬件  軟件  設置  安全  技術
程序開發  語言  移動  數據  開源  百科
安全防護  資訊  黑客  木馬  病毒  移動
站長技術  搜索  SEO  推廣  媒體  移動
財經百科  股票  知識  理財  財務  金融
教育考試  育兒  小學  高考  考研  留學
您當前的位置:首頁 > 互聯網百科 > 大數據

大數據系統數據采集產品的架構分析

時間:2019-11-18 11:50:06  來源:  作者:

任何完整的大數據平臺,一般包括以下的幾個過程:

  1. 數據采集
  2. 數據存儲
  3. 數據處理
  4. 數據展現(可視化,報表和監控)
大數據系統數據采集產品的架構分析

 

其中,數據采集是所有數據系統必不可少的,隨著大數據越來越被重視,數據采集的挑戰也變的尤為突出。這其中包括:

  • 數據源多種多樣
  • 數據量大,變化快
  • 如何保證數據采集的可靠性的性能
  • 如何避免重復數據
  • 如何保證數據的質量

我們今天就來看看當前可用的一些數據采集的產品,重點關注一些它們是如何做到高可靠,高性能和高擴展。

Apache Flume

Flume 是Apache旗下,開源,高可靠,高擴展,容易管理,支持客戶擴展的數據采集系統。 Flume使用JRuby來構建,所以依賴JAVA運行環境。

Flume最初是由Cloudera的工程師設計用于合并日志數據的系統,后來逐漸發展用于處理流數據事件。

大數據系統數據采集產品的架構分析

 

Flume設計成一個分布式的管道架構,可以看作在數據源和目的地之間有一個Agent的網絡,支持數據路由。

大數據系統數據采集產品的架構分析

 

每一個agent都由Source,Channel和Sink組成。

  • SourceSource負責接收輸入數據,并將數據寫入管道。Flume的Source支持HTTP,JMS,RPC,NetCat,Exec,Spooling Directory。其中Spooling支持監視一個目錄或者文件,解析其中新生成的事件。
  • ChannelChannel 存儲,緩存從source到Sink的中間數據。可使用不同的配置來做Channel,例如內存,文件,JDBC等。使用內存性能高但不持久,有可能丟數據。使用文件更可靠,但性能不如內存。
  • SinkSink負責從管道中讀出數據并發給下一個Agent或者最終的目的地。Sink支持的不同目的地種類包括:HDFS,HBASE,Solr,ElasticSearch,File,Logger或者其它的Flume Agent
大數據系統數據采集產品的架構分析

 

Flume在source和sink端都使用了transaction機制保證在數據傳輸中沒有數據丟失。

大數據系統數據采集產品的架構分析

 

Source上的數據可以復制到不同的通道上。每一個Channel也可以連接不同數量的Sink。這樣連接不同配置的Agent就可以組成一個復雜的數據收集網絡。通過對agent的配置,可以組成一個路由復雜的數據傳輸網絡。

大數據系統數據采集產品的架構分析

 

配置如上圖所示的agent結構,Flume支持設置sink的Failover和Load Balance,這樣就可以保證即使有一個agent失效的情況下,整個系統仍能正常收集數據。

大數據系統數據采集產品的架構分析

 

Flume中傳輸的內容定義為事件(Event),事件由Headers(包含元數據,Meta Data)和Payload組成。

Flume提供SDK,可以支持用戶定制開發:

Flume客戶端負責在事件產生的源頭把事件發送給Flume的Agent。客戶端通常和產生數據源的應用在同一個進程空間。常見的Flume客戶端有Avro,log4J,syslog和HTTP Post。另外ExecSource支持指定一個本地進程的輸出作為Flume的輸入。當然很有可能,以上的這些客戶端都不能滿足需求,用戶可以定制的客戶端,和已有的FLume的Source進行通信,或者定制實現一種新的Source類型。

同時,用戶可以使用Flume的SDK定制Source和Sink。似乎不支持定制的Channel。

Fluentd

Fluentd (Github 地址)是另一個開源的數據收集框架。Fluentd使用C/Ruby開發,使用JSON文件來統一日志數據。它的可插拔架構,支持各種不同種類和格式的數據源和數據輸出。最后它也同時提供了高可靠和很好的擴展性。Treasure Data, Inc對該產品提供支持和維護。

大數據系統數據采集產品的架構分析

 

Fluentd的部署和Flume非常相似:

大數據系統數據采集產品的架構分析

 


大數據系統數據采集產品的架構分析

 

Fluentd的架構設計和Flume如出一轍:

大數據系統數據采集產品的架構分析

 

Fluentd的Input/Buffer/Output非常類似于Flume的Source/Channel/Sink。

  • InputInput負責接收數據或者主動抓取數據。支持syslog,http,file tail等。
  • BufferBuffer負責數據獲取的性能和可靠性,也有文件或內存等不同類型的Buffer可以配置。
  • OutputOutput負責輸出數據到目的地例如文件,AWS S3或者其它的Fluentd。

Fluentd的配置非常方便,如下圖:

大數據系統數據采集產品的架構分析

 

Fluentd的技術棧如下圖:

大數據系統數據采集產品的架構分析

 

FLuentd和其插件都是由Ruby開發,MessgaePack提供了JSON的序列化和異步的并行通信RPC機制。

大數據系統數據采集產品的架構分析

 

Cool.io是基于libev的事件驅動框架。

FLuentd的擴展性非常好,客戶可以自己定制(Ruby)Input/Buffer/Output。

Fluentd從各方面看都很像Flume,區別是使用Ruby開發,Footprint會小一些,但是也帶來了跨平臺的問題,并不能支持windows平臺。另外采用JSON統一數據/日志格式是它的另一個特點。相對去Flumed,配置也相對簡單一些。

Logstash

Logstash是著名的開源數據棧ELK(ElasticSearch,Logstash,Kibana)中的那個L。

Logstash用JRuby開發,所有運行時依賴JVM。

Logstash的部署架構如下圖,當然這只是一種部署的選項。

大數據系統數據采集產品的架構分析

 

一個典型的Logstash的配置如下,包括了Input,filter的Output的設置。

input {
 file {
 type => "apache-access"
 path => "/var/log/apache2/other_vhosts_access.log"
 }

 file {
 type => "apache-error"
 path => "/var/log/apache2/error.log"
 }
}

filter {
 grok {
 match => { "message" => "%{COMBINEDAPACHELOG}" }
 }
 date {
 match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]
 }
}

output {
 stdout { }
 redis {
 host => "192.168.1.200"
 data_type => "list"
 key => "logstash"
 }
}

幾乎在大部分的情況下ELK作為一個棧是被同時使用的。所有當你的數據系統使用ElasticSearch的情況下,logstash是首選。

Chukwa

Apache Chukwa (github)是apache旗下另一個開源的數據收集平臺,它遠沒有其他幾個有名。Chukwa基于Hadoop的HDFS和Map Reduce來構建(顯而易見,它用Java來實現),提供擴展性和可靠性。Chukwa同時提供對數據的展示,分析和監視。很奇怪的是它的上一次github的更新事7年前。可見該項目應該已經不活躍了。

Chukwa的部署架構如下。

大數據系統數據采集產品的架構分析

 

Chukwa的主要單元有:Agent,Collector,DataSink,ArchiveBuilder,Demux等等,看上去相當復雜。

由于該項目已經不活躍,我們就不細看了。

Scribe

Scribe是Facebook開發的數據(日志)收集系統。已經多年不維護,同樣的,就不多說了。

大數據系統數據采集產品的架構分析

 

Splunk Forwarder

以上的所有系統都是開源的,在商業化的大數據平臺產品中,Splunk提供完整的數據采金,數據存儲,數據分析和處理,以及數據展現的能力。

Splunk是一個分布式的機器數據平臺,主要有三個角色:

  • Search Head負責數據的搜索和處理,提供搜索時的信息抽取。
  • Indexer負責數據的存儲和索引
  • Forwarder,負責數據的收集,清洗,變形,并發送給Indexer
大數據系統數據采集產品的架構分析

 

Splunk內置了對Syslog,TCP/UDP,Spooling的支持,同時,用戶可以通過開發Script Input和Modular Input的方式來獲取特定的數據。在Splunk提供的軟件倉庫里有很多成熟的數據采集應用,例如AWS,數據庫(DBConnect)等等,可以方便的從云或者是數據庫中獲取數據進入Splunk的數據平臺做分析。

這里要注意的是,Search Head和Indexer都支持Cluster的配置,也就是高可用,高擴展的,但是Splunk現在還沒有針對Farwarder的Cluster的功能。也就是說如果有一臺Farwarder的機器出了故障,數據收集也會隨之中斷,并不能把正在運行的數據采集任務Failover到其它的Farwarder上。

總結

我們簡單討論了幾種流行的數據收集平臺,它們大都提供高可靠和高擴展的數據收集。大多平臺都抽象出了輸入,輸出和中間的緩沖的架構。利用分布是的網絡連接,大多數平臺都能實現一定程度的擴展性和高可靠性。其中Flume,Fluentd是兩個被使用較多的產品。如果你用ElasticSearch,Logstash也許是首選,因為ELK棧提供了很好的集成。Chukwa和Scribe由于項目的不活躍,不推薦使用。

Splunk作為一個優秀的商業產品,它的數據采集還存在一定的限制,相信Splunk很快會開發出更好的數據收集的解決方案。



Tags:大數據系統   點擊:()  評論:()
聲明:本站部分內容來自互聯網,內容觀點僅代表作者本人,如有任何版權侵犯請與我們聯系,我們將立即刪除。
▌相關評論
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
▌相關推薦
任何完整的大數據平臺,一般包括以下的幾個過程: 數據采集 數據存儲 數據處理 數據展現(可視化,報表和監控) 其中,數據采集是所有數據系統必不可少的,隨著大數據越來越被重視,數據采...【詳細內容】
2019-11-18   大數據系統  點擊:(36)  評論:(0)  加入收藏
相關文章
    無相關信息
最新更新
欄目熱門
欄目頭條
31选7开奖11185