3.Hadoop_Spak (Hadoop Single Node)

  • 安装JDK

Hadoop 用Java开发的,所以需要安装Java环境

在Linux下 使用组合件 Ctrl+Alt+t 呼出终端

ctrl+shft+v 组合键可以粘贴到终端,利用这个和第二节里的共用粘贴板可直接复制指令

“#” 代表注释

输入指令:

#查询当前java版本

java -version

显示未安装

 

#安装Java之前更新软件包信息

sudo apt-get update

#安装JDK

sudo apt-get install default-jdk

#可再查询Java版本

java -version

#查询java安装路径,后续需要设置全局变量(白色部分为路径)

update-alternatives --display Java

  • 设置SSH无密码登录

在集群之间通过SSH(Secure Shell)连接

后续会通过这个镜像复制多个节点,为方便操作,设置为无密码。

#安装SSH

sudo apt-get install ssh

#安装rsync

sudo apt-get install rysnc

#产生SSH Key 密钥

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

#查看产生的密钥

ll ~/.ssh

#将产生的密钥放到许可文件中

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

  • 下载安装hadoop

#下载hadoop-2.6.4tar.gz

wget https://archive.apache.org/dist/hadoop/common/hadoop-2.6.4/hadoop-2.6.4.tar.gz

#解压至hadoop-2.6.4目录

sudo tar -zxvf hadoop-2.6.4.tar.gz

#移动到 /usr/local

sudo mv hadoop-2.6.4 /usr/local/hadoop

  •  设置Hadoop环境变量

#编辑bashrc

sudo gedit ~/.bashrc

#输入下列内容

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64 
export HADOOP_HOME=/usr/local/hadoop 
export PATH=$PATH:$HADOOP_HOME/bin 
export PATH=$PATH:$HADOOP_HOME/sbin 
export HADOOP_MAPRED_HOME=$HADOOP_HOME 
export HADOOP_COMMON_HOME=$HADOOP_HOME 
export HADOOP_HDFS_HOME=$HADOOP_HOME 
export YARN_HOME=$HADOOP_HOME 
export HADOOP_COMMON_HOME=$HADOOP_HOME 
export HADOOP_HDFS_HOME=$HADOOP_HOME 
export YARN_HOME=$HADOOP_HOME 
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native 
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" 
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH

#让~/.bashrc修改生效

source ~/.bashrc

#修改Hadoop-env.sh配置文件

sudo gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh

#修改下列内容:

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

#修改core-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml

#输入下列内容:

<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>

#修改yarn-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml

#输入下列内容

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>

 

#修改mapred-site.xml

 sudo cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml 

 sudo gedit /usr/local/hadoop/etc/hadoop/mapred-site.xml

 #输入下列内容

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

 

# 修改hdfs-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml

#输入下列内容:

<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir </name>
<value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>

  • 创建并格式化HDFS目录

sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/namenode
sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode
sudo chown sway:sway -R /usr/local/hadoop

 

#hadoop指令

hadoop namenode -format

  • 启动Hadoop

#启动start-dfs.sh,再启动 start-yarn.sh

start-dfs.sh
start-yarn.sh

#或者一次性启动

start-all.sh

#查看目前所执行的行程

jps

如果启动的进程少了(包含:NameNode,DataNode,SecondaryNode  ResourceManager,NodeManager 共五个)

很有可能是前面的文件配置有问题

注意:<> 前后不要加空格

  •  通过网页查看Resource-Manager 和 HDFS

在虚拟机的浏览器中输入:

http://localhost:8088/

http://localhost:50070/

 










posted @ 2018-12-05 20:58  S_way  阅读(238)  评论(0)    收藏  举报