摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 Spark作为计算引擎,是承载大数据操作的框架媒介。作为程序体的框架,调用配置所处位置下的机器的硬件设施来实现调用配置。HBase作为数据库,是大数据 阅读全文
posted @ 2021-03-13 22:10 牛哈哈呀 阅读(56) 评论(0) 推荐(0) 编辑