学习进度笔记(五)
今天完成了实验3的第一部分HDFS的内容。
这部分内容比较简单,但是我一开始权限没给到位,在root用户里做了很久,好多报错,最后也是成功解决。
启动 Hadoop,在 HDFS 中创建用户目录"/user/hadoop":
hadoop fs -mkdir /user/hadoop
在 Linux 系统的本地文件系统的"/home/hadoop"目录下新建一个文本文件test.txt,并上传到HDFS的"/user/hadoop"目录下:
echo "Some content for the test file" > /home/hadoop/test.txt
hadoop fs -put /home/hadoop/test.txt /user/hadoop
把 HDFS 中"/user/hadoop"目录下的 test.txt 文件,下载到 Linux 系统的本地文件系统中的"/home/hadoop/下载"目录下:
hadoop fs -get /user/hadoop/test.txt /home/hadoop/下载
将HDFS中"/user/hadoop"目录下的test.txt文件的内容输出到终端中进行显示:
hadoop fs -cat /user/hadoop/test.txt
在 HDFS 中的"/user/hadoop"目录下,创建子目录input,把 HDFS 中"/user/hadoop"目录下的test.txt文件,复制到"/user/hadoop/input"目录下:
hadoop fs -mkdir /user/hadoop/input
hadoop fs -cp /user/hadoop/test.txt /user/hadoop/input
删除HDFS中"/user/hadoop"目录下的test.txt文件,删除HDFS中"/user/hadoop"目录下的input子目录及其子目录下的所有内容:
hadoop fs -rm /user/hadoop/test.txt
hadoop fs -rm -r /user/hadoop/input