摘要:        
简介: 目前项目中已有多个渠道到Kafka的数据处理,本文主要记录通过Spark Streaming 读取Kafka中的数据,写入到Elasticsearch,达到一个实时(严格来说,是近实时,刷新时间间隔可以自定义)数据刷新的效果。 应用场景: 业务库系统做多维分析的时候,数据来源各不相同。很多历    阅读全文
            
                posted @ 2018-07-16 11:15
何建新
阅读(5180)
评论(0)
推荐(0)
            
        
                    
                
        2018年7月16日