摘要: Hadoop用于处理非常大的数据集,通常假设数据是已经在HDFS中,或者可以批量复制。 然而,有很多系统不符合这个假设,他们产生了我们想要的数据流,使用Hadoop进行收集,存储和分析,Apache Flume系统是处理这些问题理想的方案。 Flume是设计用于将大容量基于事件的数据存储到Hadoo 阅读全文
posted @ 2017-07-12 22:27 gyhuminyan 阅读(472) 评论(0) 推荐(0)