学习进度笔记(五)

     今天完成了实验3的第一部分HDFS的内容。

      这部分内容比较简单,但是我一开始权限没给到位,在root用户里做了很久,好多报错,最后也是成功解决。

启动 Hadoop,在 HDFS 中创建用户目录"/user/hadoop":

 
hadoop fs -mkdir /user/hadoop

在 Linux 系统的本地文件系统的"/home/hadoop"目录下新建一个文本文件test.txt,并上传到HDFS的"/user/hadoop"目录下:

 
echo "Some content for the test file" > /home/hadoop/test.txt
hadoop fs -put /home/hadoop/test.txt /user/hadoop

把 HDFS 中"/user/hadoop"目录下的 test.txt 文件,下载到 Linux 系统的本地文件系统中的"/home/hadoop/下载"目录下:

 
hadoop fs -get /user/hadoop/test.txt /home/hadoop/下载

将HDFS中"/user/hadoop"目录下的test.txt文件的内容输出到终端中进行显示:

 
hadoop fs -cat /user/hadoop/test.txt

在 HDFS 中的"/user/hadoop"目录下,创建子目录input,把 HDFS 中"/user/hadoop"目录下的test.txt文件,复制到"/user/hadoop/input"目录下:

 
hadoop fs -mkdir /user/hadoop/input
hadoop fs -cp /user/hadoop/test.txt /user/hadoop/input

删除HDFS中"/user/hadoop"目录下的test.txt文件,删除HDFS中"/user/hadoop"目录下的input子目录及其子目录下的所有内容:

 
hadoop fs -rm /user/hadoop/test.txt
hadoop fs -rm -r /user/hadoop/input
posted @ 2024-02-15 22:53  早起早起^^  阅读(14)  评论(0)    收藏  举报