Hadoop相关问题

1.Slave节点要存储数据,所以它的磁盘越大越好。错误
分析:一旦Slave节点宕机,数据恢复是一个难题

2.hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。错误
分析:hadoop dfsadmin -report 用这个命令可以快速定位出哪些节点down掉了,HDFS的容量以及使用了多少,以及每个节点的硬盘使用情况。

3.Hadoop环境变量中的 HADOOP_HEAPSIZE 用于设置所有 Hadoop 守护线程的内存。它默认是 200 GB。错误
分析:hadoop为各个守护进程(NN,DN,SNN等)统一分配的内存在hadoop-env.sh中设置,参数为HADOOP_HEAPSIZE,默认为1000M。

posted @ 2015-10-09 15:25  skyl夜  阅读(...)  评论(...编辑  收藏