ubuntu 版本 13.10
hadoop 版本 0.21.0
jdk版本 1.7.0_45
eclipse 版本 3.8.2
本文假设已经安装好jdk,笔者的jdk安装目录为 /usr/local/java/jdk1.7.0_45
一. 在Ubuntu下创建hadoop用户组和用户;
1. 创建hadoop用户组
1 sudo addgroup hadoop
2. 创建hadoop用户
1 sudo adduser -ingroup hadoop hadoop
3. 给hadoop用户添加权限
1 sudo gedit /etc/sudoers
在root ALL=(ALL:ALL) ALL下添加
1 hadoop ALL=(ALL:ALL) ALL
二. 安装ssh服务
1. 安装openssh-server
1 sudo apt-get install openssh-server
三. 建立ssh无密码登录本机
1. 转换成hadoop用户
1 su - hadoop
2. 创建ssh-key
1 ssh-keygen -t rsa -P ""
3. 进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中
1 cd ~/.ssh 2 cat id_rsa.pub >> authorized_keys
4. 登录localhost
1 ssh localhost
如果不需要密码就可以了
5. 执行退出命令
exit
四. 安装hadoop
默认将安装包放在主文件夹里
1. 将它移动到安装目录 /usr/local/下
1 sudo mv hadoop-0.21.0.tar.gz /usr/local/
2. 解压hadoop-0.21.0.tar.gz
1 cd /usr/local 2 sudo tar -zxvf hadoop-0.21.0.tar.gz
3. 将解压出的文件夹改名为hadoop
1 sudo mv hadoop-0.21.0 hadoop
4. 将该hadoop文件夹的属主用户设为hadoop
1 sudo chown -R hadoop:hadoop hadoop
5. 配置conf/hadoop-env.sh(找到#export JAVA_HOME=...,去掉#,然后加上本机jdk的路径)
1 sudo gedit hadoop/conf/hadoop-env.sh 2 export JAVA_HOME=/usr/local/java/jdk1.7.0_45
6. 打开conf/core-site.xml文件;
1 sudo gedit hadoop/conf/core-site.xml
编辑如下
1 <?xml version="1.0"?> 2 <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 3 4 <!-- Put site-specific property overrides in this file. --> 5 6 <configuration> 7 <property> 8 <name>fs.default.name</name> 9 <value>hdfs://localhost:9000</value> 10 </property> 11 </configuration>
7. 打开conf/mapred-site.xml文件;
1 sudo gedit hadoop/conf/mapred-site.xml
编辑如下
1 <?xml version="1.0"?> 2 <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 3 4 <!-- Put site-specific property overrides in this file. --> 5 6 <configuration> 7 <property> 8 <name>mapred.job.tracker</name> 9 <value>localhost:9001</value> 10 </property> 11 </configuration>
8. 打开conf/hdfs-site.xml文件;
1 sudo gedit hadoop/conf/hdfs-site.xml
编辑如下
1 <configuration> 2 <property> 3 <name>dfs.name.dir</name> 4 <value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value> 5 </property> 6 <property> 7 <name>dfs.data.dir</name> 8 <value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value> 9 </property> 10 <property> 11 <name>dfs.replication</name> 12 <value>2</value> 13 </property> 14 </configuration>
五. 运行hadoop
建议使用root权限执行
1. 进入hadoop目录下,格式化hdfs文件系统,初次运行hadoop时一定要有该操作
1 cd /usr/local/hadoop/ 2 bin/hadoop namenode -format
2. 启动bin/start-all.sh
1 bin/start-all.sh
3. 检测hadoop是否启动成功
jps
如果屏幕上启动了5个进程(Namenode,SecondaryNameNode,TaskTracker,DataNode,JobTracker),那么恭喜你安装成功了。
参考博客:http://www.cnblogs.com/tippoint/archive/2012/10/23/2735532.html
;
浙公网安备 33010602011771号