深入理解Hadoop读书笔记-1

背景

公司的物流业务系统目前实现了使用storm集群进行过门事件的实时计算处理,但是还有一个需求,我们需要存储每个标签上传的每条明细数据,然后进行定期的标签报表统计,这个是目前的实时计算框架无法满足的,需要考虑离线存储和计算引擎。

标签的数据量是巨大的,此时存储在mysql中是不合适的,所以我们考虑了分布式存储系统HDFS。目前考虑的架构是,把每条明细数据存储到HDFS中,利用Hive或者其他类SQL的解析引擎,定期进行离线统计计算。

查找相关资料后,我下载了深入理解Haddoop这本书,从大数据的一些基础原理开始调研,这一系列的笔记就是调研笔记。

深入理解Hadoop

  1. 大数据的核心处理思想

    • 数据分布在多个节点并行处理
      • 提高处理速度
      • 同一个数据在不同节点有多份拷贝可以保持容错
    • 计算程序尽量靠近数据
    • 数据的处理尽量在本地完成
    • 顺序IO代替随机IO
  2. MapReduce的编程模型

    假设有海量的文档需要统计词频

    • 每个mapper处理一个输入文件,逐行处理数据,生成键值对
    • 排序键值对,根据reducer的个数,分发<key,lisy<值>>到不同的reducer处理(确保相同的key可以被分到同一个子集)
    • reducer任务合并多个相同key中的list<值>数据,输出键值对,最后合并到文件

  1. Hadoop1.X系统(守护进程)构成

    • NameNode:维护存储在HDFS上的所有文件的元数据信息,包括:数据块信息和数据块在节点的位置

    • Secondary NameNode:内务处理功能

    • Data Node:负责把真正的数据块存储在本地硬盘上

    • Job Tracker:调度子任务/监控任务和节点/失败子任务的重新调度

    • Task Tracker:运行在数据节点上,负责子任务的启动和管理

      还可以按照主从节点来分类:

    • 主节点

      • NN SN JT
    • 从节点

      • DN TT
  2. HDFS分布式文件系统为什么适合存储大文件而不适合存储大量的小文件?

    HDFS中文件会被分成多个数据块,每个数据块默认有三个备份,NN默认把信息保存在本地磁盘中,为了加快访问,会存储在内存中。假设有1G的一个文件和1000个1MB的文件,数据块默认大小为64MB,总数据块的数量为 1024/64 * 3 = 48块 和 1000 * 3 = 3000块的差距。(同一个文件可以存储在同一个数据块在中,不同文件不能存储在同一个数据块)

  3. 辅助名称节点的工作原理(待完成)

  4. HDFS的写入过程你能简单说说吗?

    1. 客户端需要像NN请求写入,NN会检查是否有权限

    2. 客户端接收到允许写入后,开始准备数据,当数据大小为一个块时,会调用NN请求数据节点信息

    3. NN创建文件,并生成块id,同时把数据节点相关的连接信息返回给客户端

    4. 客户端开始和节点1通信,等待节点1回复ACK

    5. 节点1存储数据,同时会与节点二通信,等待节点2返回ACK

    6. 节点3存储数据后,直接返回ACK

  5. 写入过程中存在哪些异常情况?

    • 写入错误-成功备份的块数量小于设置的数量

      当集群数量较小时,比如只有四台机器,如果默认开启三个数据块备份,那么当数据管道中有DN失败时,会去找其他健康的DN进行备份,假如两台DN都有问题,那么就无法满足最小3个数据块的备份需求。可以修改一个参数: dfs.client.block.write.replace-datanode-on-failure.enable 设置为false,表示如果在写入的pipeline有datanode失败的时候是否要切换到新的机器,默认为true。

    • 待添加..

  6. HDFS读文件机制

    1. 客户端请求NN读取文件

    2. NN返回文件的元数据信息

    3. 客户端直接访问对应数据节点获取数据块即可

  7. 简单说说 任务跟踪器和作业跟踪器的工作原理,各自负责什么?

    作业跟踪器负责接收客户端提交的任务,从名称节点获取输入文件的数据块信息,并采取数据就近原则把任务分配到 数据节点的任务跟踪器上。同时监控任务跟踪器的执行情况,在任务跟踪器节点故障时分配任务到其他的任务跟踪器节点。

    任务跟踪器负责实际执行任务,并且定时汇报心跳信息给作业跟踪器。

  1. Hadoop2.0中的Yarn都有什么组件?负责做什么?

    • 全局资源管理器:负责全局的资源调度
    • 节点管理器:负责具体节点的资源监控和资源分配
    • 应用程序管理器:每种应用有不同的应用程序管理器,负责分析任务数量,向全局资源管理器申请资源,监控任务运行情况,重新调度任务。
    • 容器:cpu和内存的抽象,任务和应用程序管理器都需要运行在容器中。
  2. Yarn提交任务的执行流程

    1. 客户端提交作业
    2. 全局资源管理器判断作业的类型,通过节点管理器给应用程序管理器分配容器
    3. 应用程序管理器运行在容器中,同时像全局资源管理器注册自己,申请任务资源
    4. 全局资源管理器确定资源后,通过节点管理器分配任务所需容器
    5. 运行在容器中的任务,通过应用特定的协议像应用程序管理器上报状态


posted @ 2020-08-21 17:01  Ging  阅读(153)  评论(0编辑  收藏  举报