hadoop面试题
1.hadoop集群可以运行的3个模式?
单机(本地)模式
伪分布式模式
集群模式(全分布式模式)
2.单机(本地)模式中的注意点?
在单机模式(standalone)中不会存在守护进程,所以东西都运行在一个JVM中。这里同样没有DFS,使用的是本地文件系统。单机模式适用于开发工程中运行mapreduce程序,这也是最少使用的一个模式。
3.伪分布模式中的注意点?
伪分布式(Pseudo)适用于开发和测试环境,在这个模式中,所有的守护进程都在同一台机器上运行。
4.vm是否可以称为Pseudo?
不是,两个事物,同时Pseudo只针对hadoop。
5.全分布式模式中又有什么注意点?
全分布模式通常被用于生产环境,这里我们使用N台主机组成一个hadoop集群,hadoop守护进程运行在每台主机上,这里会存在namenode运行的主机,datanode运行的主机,以及tasktracker运行的主机。在分布式环境下,主节点和从节点会分开。
6.hadoop是否遵循unix模式?
是的,在unix用例下,hadoop还拥有“conf”目录。
7.hadoop安装在上面目录下?
cloudera和apache使用相同的目录结构,hadoop被安装在cd/usr/lib/hadoop-0.20/
8.Namenode、Job tracker和task tracker的端口号是?
Namenode:70,Jobtracker:30,TaskTracker:60.
9.hadoop的核心配置是什么?
hadoop的核心配置通过两个xml文件来完成:1.hadoop-default.xml;2.hadoop-site.xml.这些文件都使用xml格式,因此每个xml中都有一些属性,包括名称和值,但是当下这些文件都已不复存在了。
10.那当下又该如何配置?
hadoop现在拥有3个配置文件:1.core-site.xml;2.hdfs-site.xml;3.mapred-site.xml.这些文件都保存在conf/子目录下。
11.ran的溢出因子是?
溢出因子(Spill factor)是临时文件中存储文件的大小,也就是hadoop-temp目录。
12.fs.mapr.working.dir只是单一的目录?
fs.mapr.working.dir只是一个目录.
13.hdfs-site.xml的3个主要属性?
dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端)
dfs.data.dir决定的是数据存储的路径
fs.checkpoint.dir用于第二Namenode
14.如何退出输入模式?
退出输入的方式有:1.按ESC;2.键入:q(如果你没有输入任何当下)或者键入:wq(如果你已经输入当下),并且按下enter。
15.当你输入hadoopfsck/造成"connection refused java exception"时,系统究竟发生了什么?
这意味着Namenode没有运行在你的vm之上.
16.我们使用Ubuntu及Cloudera,那么我们该去哪里下载hadoop,或者是默认就与Ubuntu一起安装?
这个属性hadoop的默认设置,你必须从cloudera或者Edureka的dropbox下载,然后在你的系统上运行。当然,你也可以自己配置,但是你需要一个linuxbox,ubuntu或者是red hat。在cloudera网站或者是Edureka的dropbox中有安装步骤。
17.“jps”命令的用处?
查看系统启动的应用进程,可以检查Namenode、Datanode、Task Tracker、Job Tracker是否正常工作。
18.如何重启namenode?
先执行sbin/stop-dfs.sh,再执行sbin/start-dfs.sh
19.Fsck的全名?
全名是:File System Check
20.如何检查namenode是否正常运行?
如果要检查NameNode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。
21.mapred.job.tracker命令的作用?
可以让你知道哪个节点是job tracker
22./etc/init.d命令的作用是?
/etc/init.d 说明了守护进程(服务)的位置或状态,其实是linux特性,和hadoop关系不大。
23.如何在浏览器中查找Namenode?
如果你确实需要在浏览器中查找Namenode,你不再需要50070
24.如何从su转到cloudera?
从su转到cloudera只需要键入exit。
25.启动和关闭命令会用到哪些文件?
Slaves及masters
26.Slaves由什么组成?
Slaves由主机的列表组成,每台1行,用于说明数据节点。
27.masters由说明组成?
Masters同样是主机的列表组成,每台一行,用于说明第二个namenode服务器。
28.hadoop-env.sh是用于做什么的?
hadoop-env.sh提供了hadoop中,java_home的运行环境。
29.Master文件是否提供了多个入口?
是的你可以拥有多个Master文件接口。
30.hadoop-env.sh文件当下的位置?
hadoop-env.sh现在位于conf
31.在hadoop_PID_DIR中,PID代表了什么?
PID代表了“ProcessID”.
32./var/hadoop/pids用于做什么?
/var/hadoop/pid用来存储PID。
33.hadoop-metrics.properties文件的作用是?
hadoop-metrics.properties被用做“Reporting”,控制hadoop报告,初始状态是"not to report".
34.hadoop需求什么样的网络?
hadoop核心使用shell(ssh)来驱动从节点上的服务器进程,并在主节点和从节点之间使用password-less SSH连接。
35.全分布式环境下为什么需求password-less SSH?
这主要因为集群中通信过于频繁,Job Tracker需要尽可能快的给Task Tracker发布任务。
36.这会导致安全问题吗?
安全不用担心,hadoop集群是完全隔离的,通常情况下无法从互联网进行操作,与众不同的配置,因此我们不需要在意在这种级别的安全漏洞,比如说通过互联网侵入等等,hadoop为机器之间的连接提供一个相对安全的方式。
37.SSH工作的端口号是?
ssh工作的端口号是22,当然可以通过它来配置,22是默认的端口号。
38.SSH中的注意点还包括?
ssh只是个安全的shell通信,可以把他当做no.22上的一种协议,只需要配置一个密码就可以安全的访问。

浙公网安备 33010602011771号