hadoop面试题

1.hadoop集群可以运行的3个模式?

单机(本地)模式

伪分布式模式

集群模式(全分布式模式)

2.单机(本地)模式中的注意点?

在单机模式(standalone)中不会存在守护进程,所以东西都运行在一个JVM中。这里同样没有DFS,使用的是本地文件系统。单机模式适用于开发工程中运行mapreduce程序,这也是最少使用的一个模式。

3.伪分布模式中的注意点?

伪分布式(Pseudo)适用于开发和测试环境,在这个模式中,所有的守护进程都在同一台机器上运行。

4.vm是否可以称为Pseudo?

不是,两个事物,同时Pseudo只针对hadoop。

5.全分布式模式中又有什么注意点?

全分布模式通常被用于生产环境,这里我们使用N台主机组成一个hadoop集群,hadoop守护进程运行在每台主机上,这里会存在namenode运行的主机,datanode运行的主机,以及tasktracker运行的主机。在分布式环境下,主节点和从节点会分开。

6.hadoop是否遵循unix模式?

是的,在unix用例下,hadoop还拥有“conf”目录。

7.hadoop安装在上面目录下?

cloudera和apache使用相同的目录结构,hadoop被安装在cd/usr/lib/hadoop-0.20/

8.Namenode、Job tracker和task tracker的端口号是?

Namenode:70,Jobtracker:30,TaskTracker:60.

9.hadoop的核心配置是什么?

hadoop的核心配置通过两个xml文件来完成:1.hadoop-default.xml;2.hadoop-site.xml.这些文件都使用xml格式,因此每个xml中都有一些属性,包括名称和值,但是当下这些文件都已不复存在了。

10.那当下又该如何配置?

hadoop现在拥有3个配置文件:1.core-site.xml;2.hdfs-site.xml;3.mapred-site.xml.这些文件都保存在conf/子目录下。

11.ran的溢出因子是?

溢出因子(Spill factor)是临时文件中存储文件的大小,也就是hadoop-temp目录。

12.fs.mapr.working.dir只是单一的目录?

fs.mapr.working.dir只是一个目录.

13.hdfs-site.xml的3个主要属性?

dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端)

dfs.data.dir决定的是数据存储的路径

fs.checkpoint.dir用于第二Namenode

14.如何退出输入模式?

退出输入的方式有:1.按ESC;2.键入:q(如果你没有输入任何当下)或者键入:wq(如果你已经输入当下),并且按下enter。

15.当你输入hadoopfsck/造成"connection refused java exception"时,系统究竟发生了什么?

这意味着Namenode没有运行在你的vm之上.

16.我们使用Ubuntu及Cloudera,那么我们该去哪里下载hadoop,或者是默认就与Ubuntu一起安装?

这个属性hadoop的默认设置,你必须从cloudera或者Edureka的dropbox下载,然后在你的系统上运行。当然,你也可以自己配置,但是你需要一个linuxbox,ubuntu或者是red hat。在cloudera网站或者是Edureka的dropbox中有安装步骤。

17.“jps”命令的用处?

查看系统启动的应用进程,可以检查Namenode、Datanode、Task Tracker、Job Tracker是否正常工作。

18.如何重启namenode?

先执行sbin/stop-dfs.sh,再执行sbin/start-dfs.sh

 19.Fsck的全名?

全名是:File System Check

20.如何检查namenode是否正常运行?

如果要检查NameNode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。

21.mapred.job.tracker命令的作用?

可以让你知道哪个节点是job tracker

22./etc/init.d命令的作用是?

/etc/init.d 说明了守护进程(服务)的位置或状态,其实是linux特性,和hadoop关系不大。

23.如何在浏览器中查找Namenode?

如果你确实需要在浏览器中查找Namenode,你不再需要50070

24.如何从su转到cloudera?

从su转到cloudera只需要键入exit。

25.启动和关闭命令会用到哪些文件?

Slaves及masters

26.Slaves由什么组成?

Slaves由主机的列表组成,每台1行,用于说明数据节点。

27.masters由说明组成?

Masters同样是主机的列表组成,每台一行,用于说明第二个namenode服务器。

28.hadoop-env.sh是用于做什么的?

hadoop-env.sh提供了hadoop中,java_home的运行环境。

29.Master文件是否提供了多个入口?

是的你可以拥有多个Master文件接口。

30.hadoop-env.sh文件当下的位置?

hadoop-env.sh现在位于conf

31.在hadoop_PID_DIR中,PID代表了什么?

PID代表了“ProcessID”.

32./var/hadoop/pids用于做什么?

/var/hadoop/pid用来存储PID。

33.hadoop-metrics.properties文件的作用是?

hadoop-metrics.properties被用做“Reporting”,控制hadoop报告,初始状态是"not to report".

34.hadoop需求什么样的网络?

hadoop核心使用shell(ssh)来驱动从节点上的服务器进程,并在主节点和从节点之间使用password-less SSH连接。

35.全分布式环境下为什么需求password-less SSH?

这主要因为集群中通信过于频繁,Job Tracker需要尽可能快的给Task Tracker发布任务。

36.这会导致安全问题吗?

安全不用担心,hadoop集群是完全隔离的,通常情况下无法从互联网进行操作,与众不同的配置,因此我们不需要在意在这种级别的安全漏洞,比如说通过互联网侵入等等,hadoop为机器之间的连接提供一个相对安全的方式。

37.SSH工作的端口号是?

ssh工作的端口号是22,当然可以通过它来配置,22是默认的端口号。

38.SSH中的注意点还包括?

ssh只是个安全的shell通信,可以把他当做no.22上的一种协议,只需要配置一个密码就可以安全的访问。

 

posted @ 2015-08-12 16:48  风云再起  阅读(798)  评论(0)    收藏  举报