【大数据系列】常用命令

1、格式化系统

     hadoop namenode -format

2、put  上传 ()

hadoop fs -put //hdfs dfs -put完全一样  hdfs  dfs(和hadoop fs等价)

 eg:hadoop fs -mkdir -p /user/hadoop/data

      hdfs dfs -put 1.txt . (点相当于默认路径)

   put===copyFromLocal

3、重命名

  hdfs dfs -mv ./1.txt ./2.txt  (最好使用全部路径)

4、下载

   get === copyToLocal

  hdfs dfs -get ./1.txt ./

5、移动到hdfs 

   hdfs dfs -moveFromLocal 1.txt

  从hdfs移动到本地未实行

6、删除文件(或目录)

  hdfs dfs -rm /user/hadoop/needDelete

8、复制 -cp

7、创建文件目录

 hadoop fs -mkdir /usr/hadoop/newDir

9、在hadoop中不是root拥有超级管理员权限,

识别权限是靠用户名称的,hadoop中文件属于哪个用户,那个用户就有超级管理员权限,超级用户是namenode进程的标识

  -chmod 改变文件权限(与linux类似)

  -chown 改变用户和组

 10、查询集群的配置方式

hdfs  getconf [-namenodes|-secondaryNameNodes|-backupNodes|-includeFile|-excludeFile|-nnRpcAddresses|-confKey [key]]

 11、安全模式操作

hdfs dfsadmin -safemode enter     进入安全模式

hdfs dfsadmin -safemode enter     进入安全模式(手动进入,手动退出)

hdfs dfsadmin -safemode leave     退出安全模式

hdfs dfsadmin -dafemode wait        等待安全模式

 12、更新NN、更新RM节点

 hdfs dfsadmin -refreshNodes

 hdfs dfsadmin -help refreshNodes   //查看帮助

yarn rmadmin -refreshNodes

posted @ 2017-07-31 10:23  霓裳梦竹  阅读(644)  评论(0编辑  收藏  举报