HDFS

产生背景

当数据量越来越大,在一个操作系统存不下,需要一种系统来管理多台机器上的文件,这就是分布式文件系统,HDFS只是分布式文件系统中的一种

HDFS使用场景:适合一次写入,多次读出的场景,且不支持文件的修改,适合用来做数据分析


组成架构

NameNode

即Master,它是一个主管、管理者

  1. 管理HDFS的名称空间
  2. 配置副本策略
  3. 管理数据块映射信息
  4. 处理客户端读写请求

DataNode

即Slave,NameNode下达命令,DataNode执行实际操作

  1. 存储实际的操作
  2. 执行数据块的读/写操作

Client

即客户端

  1. 文件切分。文件上传HDFS的时候,Client将文件切分成Block后再上传
  2. 与NameNode交互,获取文件的位置信息
  3. 与DataNode交互,读取或者写入数据
  4. Client提供一些命令来管理HDFS,比如NameNode格式化
  5. Client可以通过一些命令来访问HDFS,比如对HDFS的增删改查等

Secondary NameNode

并非热备,当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务

  • 辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode
  • 在紧急情况下,可辅助恢复NameNode

优缺点

优点

  • 高容错性
  • 适合处理大数据
  • 可构建在廉价机器上,通过多副本机制,提高可靠性

缺点

1)不适合低延时数据访问,比如毫秒级的存储数据,是做不到的

2)无法高效的对大量小文件进行存储

​ (1)存储大量小文件的话,它会占用NameNode大量的内存来存储文件目录和块信息。这样是不可取的,因为NameNode的内存总是有限的;

​ (2)小文件存储的寻址时间会超过读取时间,它违反了HDFS的设计目标。

3)不支持并发写入、文件随机修改

​ (1)一个文件只能有一个写,不允许多个线程同时写;

​ (2)仅支持数据append(追加),不支持文件的随机修改。


块的大小

思考:为什么块的大小不能设置太小,也不能设置太大?

​ (1)HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置;

​ (2)如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时,会非常慢

总结:HDFS块的大小设置主要取决于磁盘传输速率


Shell操作

基本语法hadoop fs 具体命令hdfs dfs 具体命令是一样的

大部分命令与Linux一致


上传文件

  • -moveFromLocal:将文件从本地移动到HDFS

    # hadoop fs -moveFromLocal localpath hdfspath
    # 将本地的./kongming.txt文件移动到/sanguo/shuguo
    hadoop fs -moveFromLocal ./kongming.txt /sanguo/shuguo
    
  • -copyFromLocal:从本地文件系统中拷贝文件到HDFS

    hadoop fs -copyFromLocal kongming.txt /
    
  • -appendToFile:追加一个文件到已经存在的文件末尾

    hadoop fs -appendToFile zhuge.txt /sanguo/shuguo/zhuge.txt
    # 查看文件是否追加成功
    hadoop fs -cat /sanguo/shuguo/zhuge.txt
    
  • -put:等同于copyFromLocal

    hadoop fs -put lin.txt /sanguo/shuguo/
    

下载文件

  • -copyToLocal:从HDFS拷贝到本地

  • -get:等同于copyToLocal,就是从HDFS下载文件到本地

  • -getmerge:合并下载多个文件,比如HDFS的目录 /user/atguigu/test下有多个文件: log.1, log.2,log.3,...

    hadoop fs -getmerge /sanguo/shuguo/* ./t.txt
    

直接操作

  • -mkdir :创建目录

    #其中,-p表示递归创建多级目录
    hadoop fs -mkdir -p /sanguo/shuguo 
    
  • -chgrp-chmod-chown:Linux文件系统中的用法一样,修改文件所属权限

  • -setrep:设置HDFS中文件的副本数量

    hadoop fs -setrep 10
    

    这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量

    因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10

posted @ 2022-11-17 20:31  黄一洋  阅读(9)  评论(0)    收藏  举报