Hadoop 3.x.x的安装与
- 安装前提,需要三台虚拟机并关闭防火墙,配置静态IP,配置免密登陆,JDK的安装,这些操作可以看我Linux分类中的文章,不做过多说明。
- 我使用的hadoop 版本是hadoop 3.1.3
- 下面开始安装步骤
- 首先将安装包传输到目录下,并解压
- tar -zxvf hadoop-3.1.3.tar.gz -C /usr/local/soft/

- 解压完成后可以进行改名
-
mv hadoop-3.1.3 hadoop
![]()
- 配置环境变量
- export HADOOP_HOME=/usr/local/soft/hadoop (这里需要是你自己的安装目录)
- export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

- 进入hadoop的配置文件目录下开始配置
- cd /usr/local/soft/hadoop/etc/hadoop/
- 首先修改workers文件 (如果是2.x版本的话应该是slaves文件)
- vim workers 添加你自己的主机名,再配置这里之前需要确保你 /etc/hosts 文件已经配置过IP地址和主机名

-
- 再修改hadoop-env.sh文件
- vim hadoop-env.sh
- export JAVA_HOME=/usr/local/soft/jdk1.8.0_171 (注意,这里需要是你自己的JDK地址,记得修改)

- core-site.xml文件
- vim core.site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/soft/hadoop/tmp/</value>
</property>
</configuration>

-
- hdfs-site.xml文件
- vim hdfs-site.xml
-
hadoop-3.1.1 默认端口9870 (后面打开管理网页需要用到)
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/soft/hadoop/tmp</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/soft/hadoop/data/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http.address</name>
<value>master:9870</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>

-
- yarn-site.xml
- vim yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

- vim mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapreduce.reduce.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
<property>
<name>mapreduce.map.memory.mb</name>
<value>1536</value>
</property>
<property>
<name>mapreduce.map.java.opts</name>
<value>-Xmx1024M</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>3072</value>
</property>
<property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xmx2560M</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>

- 这些配置完成后,进入/hadoop/sbin目录下进行一些配置
- 对于start-dfs.sh和stop-dfs.sh文件,添加下列参数,可以添加在末尾或者第二行:

HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root
- 对于start-yarn.sh和stop-yarn.sh文件,添加下列参数:
#!/usr/bin/env bash YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root

- 进行格式化 (我是在分发之后分别对三台进行格式化的)
- cd /usr/local/soft/hadoop/sbin
- ./hdfs namenode -format
- 对文件进行分发。
- scp -r /usr/local/soft/hadoop slave1:/usr/local/soft/
- scp -r /usr/local/soft/hadoop slave2:/usr/local/soft/

- 配置文件也不要忘记
- scp -r /etc/profile slave1:/etc/profile
-
scp -r /etc/profile slave2:/etc/profile

- 启动虚拟机
- ./start-all.sh



- 检查确定有这些进程后,打开网页
- 在网址上输入你的IP地址加上前面提到的端口号9870,出现下方页面则代表搭建hadoop3.x版本成功!
- 注意:不要忘记在WIndows的C:\Windows\System32\drivers\etc 下配置hosts文件, 加入你自己虚拟机的IP地址和对应名称



浙公网安备 33010602011771号