HDFS
产生背景
当数据量越来越大,在一个操作系统存不下,需要一种系统来管理多台机器上的文件,这就是分布式文件系统,HDFS只是分布式文件系统中的一种
HDFS使用场景:适合一次写入,多次读出的场景,且不支持文件的修改,适合用来做数据分析
组成架构
NameNode
即Master,它是一个主管、管理者
- 管理HDFS的名称空间
- 配置副本策略
- 管理数据块映射信息
- 处理客户端读写请求
DataNode
即Slave,NameNode下达命令,DataNode执行实际操作
- 存储实际的操作
- 执行数据块的读/写操作
Client
即客户端
- 文件切分。文件上传HDFS的时候,Client将文件切分成Block后再上传
- 与NameNode交互,获取文件的位置信息
- 与DataNode交互,读取或者写入数据
- Client提供一些命令来管理HDFS,比如NameNode格式化
- Client可以通过一些命令来访问HDFS,比如对HDFS的增删改查等
Secondary NameNode
并非热备,当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务
- 辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode
- 在紧急情况下,可辅助恢复NameNode
优缺点
优点
- 高容错性
- 适合处理大数据
- 可构建在廉价机器上,通过多副本机制,提高可靠性
缺点
1)不适合低延时数据访问,比如毫秒级的存储数据,是做不到的
2)无法高效的对大量小文件进行存储
(1)存储大量小文件的话,它会占用NameNode大量的内存来存储文件目录和块信息。这样是不可取的,因为NameNode的内存总是有限的;
(2)小文件存储的寻址时间会超过读取时间,它违反了HDFS的设计目标。
3)不支持并发写入、文件随机修改
(1)一个文件只能有一个写,不允许多个线程同时写;
(2)仅支持数据append(追加),不支持文件的随机修改。
块的大小
思考:为什么块的大小不能设置太小,也不能设置太大?
(1)HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置;
(2)如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时,会非常慢
总结:HDFS块的大小设置主要取决于磁盘传输速率
Shell操作
基本语法:hadoop fs 具体命令 和 hdfs dfs 具体命令是一样的
大部分命令与Linux一致
上传文件
-
-moveFromLocal:将文件从本地移动到HDFS# hadoop fs -moveFromLocal localpath hdfspath # 将本地的./kongming.txt文件移动到/sanguo/shuguo hadoop fs -moveFromLocal ./kongming.txt /sanguo/shuguo -
-copyFromLocal:从本地文件系统中拷贝文件到HDFShadoop fs -copyFromLocal kongming.txt / -
-appendToFile:追加一个文件到已经存在的文件末尾hadoop fs -appendToFile zhuge.txt /sanguo/shuguo/zhuge.txt # 查看文件是否追加成功 hadoop fs -cat /sanguo/shuguo/zhuge.txt -
-put:等同于copyFromLocalhadoop fs -put lin.txt /sanguo/shuguo/
下载文件
-
-copyToLocal:从HDFS拷贝到本地 -
-get:等同于copyToLocal,就是从HDFS下载文件到本地 -
-getmerge:合并下载多个文件,比如HDFS的目录 /user/atguigu/test下有多个文件: log.1, log.2,log.3,...hadoop fs -getmerge /sanguo/shuguo/* ./t.txt
直接操作
-
-mkdir:创建目录#其中,-p表示递归创建多级目录 hadoop fs -mkdir -p /sanguo/shuguo -
-chgrp、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限 -
-setrep:设置HDFS中文件的副本数量hadoop fs -setrep 10这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量
因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10

浙公网安备 33010602011771号