摘要: 1. 阐述Hadoop生态系统中,HDFS, MapReduce, Yarn, Hbase及Spark的相互关系,为什么要引入Yarn和Spark。 Spark作为计算引擎,是承载大数据操作的框架媒介。作为程序体的框架,调用配置所处位置下的机器的硬件设施来实现调用配置。 HBase作为数据库,是大数 阅读全文
posted @ 2021-03-13 18:48 桉叶 阅读(205) 评论(0) 推荐(0) 编辑