hadoop学习笔记(一)hadoop环境搭建

目的

本文用于记录了如何安装、配置一台namenode、多台datanode的伪分布式集群。用于记录学习过程,中间一些步骤未做详细的描述,见谅。

所需系统

LINUX CENTOS7

(因为公司的生产环境不大可能会用windows装hadoop,本文仅探讨linux场景)

所需软件

Linux和Windows所需软件包括:

  1. JavaTM1.5.x,必须安装,建议选择Sun公司发行的Java版本。
  2. ssh 必须安装并且保证 sshd一直运行,以便用Hadoop 脚本管理远端Hadoop守护进程。

安装包

可以去官网hadoop.apache.org/下载,但是经常打不开或者速度很慢,可以用https://mirrors.aliyun.com/apache/hadoop/ 阿里的源,速度还是很稳的。

可以用wget下载下来。

 

集群规划

hadoop集群支持三种模式:

  • 单机模式
  • 伪分布式模式
  • 完全分布式模式

如果是三台虚拟机,可以这么规划:

192.168.1.1   namenode,resourcemanager

192.168.1.2   datanode,nodemanager

192.168.1.3   datanode,nodemanager

 

 

准备工作

 

每台机器都要确认的步骤:

1、确认java安装好了

2、关闭防火墙

如centos7版本,

输入如下命令: systemctl stop firewalld

再检查一下防火墙状态: systemctl status firewalld

3、解压包

 tar -zxvf  xxx

4、配置--2.7.3版本为例

1)配置core-site.xml

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.1:9000</value>  
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/app2/hadoop-2.7.3/tmp</value> 
</property>
</configuration>

指定一台namenode和tmp目录

2)配置hdfs-site.xml

<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>//节点数
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/app2/hadoop-2.7.3/data/datanode</value>
</property>

</configuration>

配置副本数和hdfs文件的存储路径

 

对namenode+datanode的操作:

192.168.1.1

hadoop-daemon.sh start namenode

hadoop-daemon.sh start datanode

 

对datanode操作:

hadoop-daemon.sh start datanode

 

搞定,去地址看 namenodeip:50070  查看:

 

 hdfs命令查看文件:

 

 没问题,hdfs集群搭建成功。yarn的搭建过程下一篇再记录。

 

posted @ 2021-12-08 16:12  差五克三百斤  阅读(82)  评论(0)    收藏  举报