centos7.4下离线安装CDH5.7

(一)安装前的规划

(1)操作系统版本:centos7.4(64bit)

[root@hadoop22 etc]# more /etc/centos-release
CentOS Linux release 7.4.1708 (Core) 

[root@hadoop22 installPackage]# cat /proc/version 
Linux version 3.10.0-693.el7.x86_64 (builder@kbuilder.dev.centos.org) (gcc version 4.8.5 20150623 (Red Hat 4.8.5-16) (GCC) ) #1 SMP Tue Aug 22 21:09:27 UTC 2017

[root@hadoop22 installPackage]# getconf LONG_BIT #确认OS是32bit还是64bit
64

(2)软件安装包

类型 安装包     下载地址
 CM  cloudera-manager-centos7-cm5.7.6_x86_64.tar.gz  http://archive.cloudera.com/cm5/cm/5/
 CDH

3个安装包:

CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel.sha1

CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel

manifest.json

 http://archive.cloudera.com/cdh5/parcels/
 JDK  jdk-8u161-linux-x64.tar.gz  http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
 mysql数据库 mysql-5.7.16-1.el7.x86_64.rpm-bundle.tar   http://dev.mysql.com/get/Downloads/MySQL-5.7/mysql-5.7.16-1.el7.x86_64.rpm-bundle.tar
 jdbc  mysql-connector-java-5.1.46.tar.gz  https://dev.mysql.com/downloads/connector/j/3.0.html

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(3)主机规划

本次采用vmware虚拟机安装,主机规划如下:

IP地址 主机名 CPU 内存 备注
10.141.71.22 hadoop22 2颗 x 1核 16GB 主节点
10.141.71.23 hadoop23 2颗 x 1核 8GB  
10.141.71.24 hadoop24 2颗 x 1核 8GB  
10.141.71.25 hadoop25 2颗 x 1核 8GB  

 

 

 

 

 

 

 

(二)配置服务器

 (1)修改主机名

因为虚拟机是通过vmware的克隆功能拷贝的,4台虚拟机名称相同,我们需要将其修改为规划的名称。使用"hostnamectl set-hostname 主机名"即可修改,例如将hadoop22修改为hadoop23: 

hostnamectl set-hostname hadoop23

(2)配置网卡信息

这里我们采用固定IP,执行修改配置文件即可,网卡的配置文件在"/etc/sysconfig/network-script/"下面,以hadoop22这台主机为例,这里使用的网卡为:ifcfg-ens33,将其配置信息修改为如下:

[root@hadoop22 network-scripts]# vim /etc/sysconfig/network-scripts/ifcfg-ens33 

# 修改为下面
TYPE=Ethernet NAME=ens33 UUID=a043a2bb-babb-4864-8e2a-c2c98dbdd8b5 DEVICE=ens33 ONBOOT=yes IPADDR=10.141.71.22 NETMASK=255.255.255.0 GATEWAY=10.141.71.254

其它节点一次如上修改。

(3)添加主机节点映射

修改4台主机的"/etc/hosts"文件即可:

[root@hadoop22 ~]# vim /etc/hosts

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
10.141.71.22 hadoop22
10.141.71.23 hadoop23
10.141.71.24 hadoop24
10.141.71.25 hadoop25

注意,127.0.0.1和::1不能删除。

(4)关闭防火墙

[root@hadoop22 ~]# systemctl stop firewalld.service #停止firewall
[root@hadoop22 ~]# systemctl disable firewalld.service #禁止firewall开机启动,如果不执行,服务器重启之后firewall会启动
[root@hadoop22 ~]# firewall-cmd --state  #查看防火墙状态
not running

(5)关闭selinux

 修改"/etc/selinux/config"文件,将SELINUX值改为disabled。

[root@hadoop22 ~]# vi /etc/selinux/config
SELINUX=disabled

(6)配置ssh无密码访问

要达到的效果:主节点到其它节点不需要密码就能访问。

(6.1)执行以下命令:

[root@hadoop22 ~]# ssh-keygen -t rsa

此时会生成.ssh文件

[root@hadoop22 ~]# pwd
/root

[root@hadoop22 ~]# ll -a
...
drwx------.  2 root root   80 Apr  6 15:48 .ssh
...

里面有2个文件

[root@hadoop22 .ssh]# ll
total 16
-rw-------. 1 root root 1679 Apr  6 15:46 id_rsa
-rw-r--r--. 1 root root  395 Apr  6 15:46 id_rsa.pub

(6.2)添加公钥到认证文件中

[root@hadoop22 .ssh]# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

(6.3)然后把authorized_keys文件scp到其它节点,在这之前,需要在其它节点先创建.ssh文件夹

[root@hadoopxx ~]# mkdir .ssh         # 在23、24、25节点执行

[root@hadoop22 ~]# scp ~/.ssh/authorized_keys root@10.141.71.23:~/.ssh/
[root@hadoop22 ~]# scp ~/.ssh/authorized_keys root@10.141.71.24:~/.ssh/
[root@hadoop22 ~]# scp ~/.ssh/authorized_keys root@10.141.71.25:~/.ssh/

注意,确保.ssh文件夹的权限为700,id_rsa.pub和authorized_keys权限为644,其他权限都会导致SSH出问题。

(7)时间同步配置

CDH集群的时间必须同步,,否则安装完成会报错:不良 : 无法找到主机的 NTP 服务,或该服务未响应时钟偏差请求。如下图:

(7.1)NTP规划

由于我是在局域网内安装,不能访问互联网,故采用hadoop22的本地时间来做同步。规划如下:

NTP属性 主机 IP地址
NTP server hadoop22 10.141.71.22
NTP client

hadoop23

hadoop24

hadoop25

10.141.71.23

10.141.71.24

10.141.71.25

 

 

 

 

 

 

(7.2)查看是否安装了NTP软件包

[root@hadoop22 ~]# rpm -qa ntp
ntp-4.2.6p5-25.el7.centos.2.x86_64

centos7.4自带了ntp软件包,无需再安装。

(7.3)修改NTP server

修改"/etc/ntp.conf"配置文件,如下:

driftfile /var/lib/ntp/drift

# Permit time synchronization with our time source, but do not
# permit the source to query or modify the service on this system.
restrict default ignore   #新增行1     
restrict 10.141.71.0  mask 255.255.255.0 notrap nomodify  #新增行2:运行71网段的所有IP同步

/var/lib/ntp/drift #新增行3 fudge 127.127.1.0 stratum 10 #新增行4 # Permit all access over the loopback interface. This could # be tightened as well, but to do so would effect some of # the administrative functions. restrict 127.0.0.1 restrict ::1 # Hosts on local network are less restricted. #restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap # Use public servers from the pool.ntp.org project. # Please consider joining the pool (http://www.pool.ntp.org/join.html). server 127.127.1.0 #新增行5:ntp server服务器地址,127.127.1.0是本服务器的IP
server 10.141.71.22 #新增行6:ntp server服务器地址
#broadcast
192.168.1.255 autokey # broadcast server
#broadcastclient # broadcast client

 (7.4)NTP client

去除原来的ntp server,添加新的ntp server

# Use public servers from the pool.ntp.org project.
# Please consider joining the pool (http://www.pool.ntp.org/join.html).
server 10.141.71.22  #新增行1:添加ntp服务器

(7.5)启动ntp服务

在所有节点上执行如下命令启动ntp服务

# /bin/systemctl restart ntpd.service #启动ntp服务
# /bin/systemctl enable ntpd.service #设置开机启动

查看NTP状态:

(7.6)查看ntp服务时间同步信息

ntpdc用于查询ntpd守护进程对其当前状态和要求的变化。程序可以运行在交互模式下使用命令行参数或控制。ntpdc -np可以看到所使用的时间服务器。

我的ntp服务器信息如下:

我的ntp客户端信息如下:

(7.7)进行时间同步

在ntp client节点执行ntpdate hadoop22命令,将所有客户端的时间与服务器同步

说明:NTP服务启动需要大约五分钟时间,服务启动之前,若客户端同步时间,则会出现错误“no server suitable for synchronization found”

(7.8)配置每天进行一次时间同步

在3台ntp client上配置crontab,执行:

[root@hadoop23 ~]# crontab -e

# 添加1行

30 12 * * * /usr/sbin/ntpdate 10.141.71.22 >> /tmp/ntdp.log

该行信息表示,每天12:30执行一次时间同步,并将执行结果输出到"/tmp/ntpd.log"文件中。

(8)jdk安装

所有节点安装jdk,这里现在主节点安装,然后scp到其它节点。

(8.1)查找已安装的openjdk

[root@hadoop22 ~]# rpm -qa |grep java
javapackages-tools-3.4.1-11.el7.noarch
java-1.8.0-openjdk-headless-1.8.0.131-11.b12.el7.x86_64
tzdata-java-2017b-1.el7.noarch
python-javapackages-3.4.1-11.el7.noarch
java-1.8.0-openjdk-1.8.0.131-11.b12.el7.x86_64                     #open jdk
java-1.7.0-openjdk-1.7.0.141-2.6.10.5.el7.x86_64                   #open jdk
java-1.7.0-openjdk-headless-1.7.0.141-2.6.10.5.el7.x86_64          #open jdk

(8.2)卸载已安装的openjdk

# rpm -e --nodeps java-1.7.0-openjdk-headless-1.7.0.141-2.6.10.5.el7.x86_64
# rpm -e --nodeps java-1.8.0-openjdk-1.8.0.131-11.b12.el7.x86_64
# rpm -e --nodeps java-1.7.0-openjdk-1.7.0.141-2.6.10.5.el7.x86_64

(8.3)安装新的jdk

解压下载好的jdk,并重新命名(重新命名只是方便简化路径)

[root@hadoop22 opt]# tar -xzvf /root/Desktop/installPackage/jdk-8u161-linux-x64.tar.gz
[root@hadoop22 opt]# mv jdk1.8.0_161 jdk1.8 [root@hadoop22 opt]#
ls jdk1.8 rh

(8.4)配置环境变量

root@hadoop22 opt]# vim /etc/profile
#添加以下:
export JAVA_HOME=/opt/jdk1.8
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

(8.5)使生效

[root@hadoop22 opt]# source /etc/profile

(8.6)测试

[root@hadoop22 opt]# echo $JAVA_HOME
/opt/jdk1.8

(8.7)复制到其它节点:

scp -r /opt/jdk1.8 root@10.141.71.23:/opt
scp -r /opt/jdk1.8 root@10.141.71.24:/opt
scp -r /opt/jdk1.8 root@10.141.71.25:/opt

(8.8)修改环境变量,见8.4

(9)安装mysql数据库

mysql数据库只需要在主节点(hadoop22)安装即可

(9.1)卸载mariadb

[root@hadoop22 installPackage]# rpm -qa |grep mariadb
mariadb-libs-5.5.56-2.el7.x86_64
[root@hadoop22 installPackage]# rpm -e --nodeps mariadb-libs-5.5.56-2.el7.x86_64

(9.2)解压mysql

[root@hadoop22 opt]# tar -xvf /root/Desktop/installPackage/mysql-5.7.16-1.el7.x86_64.rpm-bundle.tar 
[root@hadoop22 opt]# ls
jdk1.8 mysql-community-libs-5.7.16-1.el7.x86_64.rpm
mysql-community-client-5.7.16-1.el7.x86_64.rpm mysql-community-libs-compat-5.7.16- 
1.el7.x86_64.rpm
mysql-community-common-5.7.16-1.el7.x86_64.rpm mysql-community-minimal-debuginfo-5.7.16- 
1.el7.x86_64.rpm
mysql-community-devel-5.7.16-1.el7.x86_64.rpm mysql-community-server-5.7.16- 
1.el7.x86_64.rpm
mysql-community-embedded-5.7.16-1.el7.x86_64.rpm mysql-community-server-minimal-5.7.16- 
1.el7.x86_64.rpm
mysql-community-embedded-compat-5.7.16-1.el7.x86_64.rpm mysql-community-test-5.7.16-1.el7.x86_64.rpm
mysql-community-embedded-devel-5.7.16-1.el7.x86_64.rpm rh

(9.3)只需要按顺序安装4个包即可

[root@hadoop22 opt]# rpm -ivh mysql-community-common-5.7.16-1.el7.x86_64.rpm 
[root@hadoop22 opt]# rpm -ivh mysql-community-libs-5.7.16-1.el7.x86_64.rpm 
[root@hadoop22 opt]# rpm -ivh mysql-community-client-5.7.16-1.el7.x86_64.rpm 
[root@hadoop22 opt]# rpm -ivh mysql-community-server-5.7.16-1.el7.x86_64.rpm

(10.4)mysql起停

# 查看mysql是否启动
service mysqld status

# 启动mysql
service mysqld start

# 停止mysql
service mysqld stop

# 重启mysql
service mysqld restart

(10.5)设定开机自启动

[root@hadoop22 opt]# vim /etc/rc.local 
添加 service mysqld start

(9.6)确认mysql初始密码

[root@hadoop22 log]# more /var/log/mysqld.log |grep password
2018-04-03T11:50:22.636798Z 1 [Note] A temporary password is generated for root@localhost: 
xMsoLF;oa7h=

(9.7)登录mysql

[root@hadoop22 log]# mysql -p
Enter password: 
Welcome to the MySQL monitor. Commands end with ; or \g.
Your MySQL connection id is 2
Server version: 5.7.16

(9.8)修改密码(大写+小写+特殊字符)

mysql> set password = password("Mysql_123456");
Query OK, 0 rows affected, 1 warning (0.00 sec)

(9.9)使用新密码重新登陆就好了

[root@hadoop22 log]# mysql -uroot -pMysql_123456

(9.10)创建3个数据库,并授权

create database hive DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
create database sentry DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
create database amon DEFAULT CHARSET utf8 COLLATE utf8_general_ci;

grant all privileges on *.* to 'root'@'hadoop22' identified by 'Mysql_123456' with grant option;
flush privileges;

 

(三)安装CM

(1)在主节点解压cloudera manager

cloudera manager默认安装在"/opt"目录下,进入"/opt"目录,解压安装包,生成2个文件夹cloudera和cm-5.7.6

[root@hadoop22 ~]# cd /opt
[root@hadoop22 opt]# tar -xzvf /root/Desktop/installPackage/cloudera-manager-centos7-cm5.7.6_x86_64.tar.gz 

 

(2) 在主节点为cloudera manager建立数据库

首先解压jdbc包:

# tar -xzvf mysql-connector-java-5.1.46

 解压后的文件如下:

其中"mysql-connector-java-5.1.46-bin.jar"是我们需要的,将其拷贝到"/opt/cm-5.7.6/share/cmf/lib"路径下。

在主节点初始化CM的数据库:

/opt/cm-5.7.6/share/cmf/schema/scm_prepare_database.sh mysql -hhadoop22 -uroot -pMysql_123456 --scm-host hadoop22 scm scm Scm_123456

说明:这个脚本就是用来创建和配置CMS需要的数据库的脚本。各参数是指:
mysql:数据库用的是mysql,如果安装过程中用的oracle,那么该参数就应该改为oracle。
-hhadoop22:数据库建立在hadoop22主机上面。也就是主节点上面。注意主机前面有个“h”
-uroot:root身份运行mysql。-Mysql_123456:mysql的root密码是Mysql_123456。
--scm-host hadoop22:CMS的主机,一般是和mysql安装的主机是在同一个主机上。
最后三个参数是:数据库名,数据库用户名,数据库密码。

(3)agent配置

修改主节点的agent配置文件,仅需修改server_host参数即可:

[root@hadoop22 ~]# vim /opt/cm-5.7.6/etc/cloudera-scm-agent/config.ini

server_host=hadoop22

(4)将CM拷贝到其它节点

scp -r /opt/cm-5.7.6/ root@hadoop23:/opt/
scp -r /opt/cm-5.7.6/ root@hadoop24:/opt/
scp -r /opt/cm-5.7.6/ root@hadoop25:/opt/

 (5)再所有节点创建cloudera-scm用户

useradd --system --home=/opt/cm-5.7.6/run/cloudera-scm-server --no-create-home --shell=/bin/false --comment "Cloudera SCM User" cloudera-scm

(6)准备parcels,用于安装CDH5

将CDH5相关的包放到主节点的"/opt/cloudera/parcel-repo"路径下,parcels相关文件有以下3个

[root@hadoop22 parcel-repo]# cd /opt/cloudera/parcel-repo/
[root@hadoop22 parcel-repo]# ll
-rw-r--r--. 1 root root 1448796525 Apr 5 18:40 CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel
-rw-r--r--. 1 root root 41         Apr 5 18:37 CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel.sha1
-rw-r--r--. 1 root root 51240      Apr 5 18:38 manifest.json

重命名"CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel.sha1"为"CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel.sha",如果不修改,系统会重新下载"CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel"文件。

 (7)启动cm server

启动脚本使用方法如下:

[root@hadoop22 ~]# /opt/cm-5.7.6/etc/init.d/cloudera-scm-server 
Usage: cloudera-scm-server {start|force_next_start|stop|restart|status|condrestart}

 (7.1)在主节点启动cm server

[root@hadoop22 ~]# /opt/cm-5.7.6/etc/init.d/cloudera-scm-server start

(7.2)在所有节点(包括主节点)启动cm agent

[root@hadoop23 ~]# /opt/cm-5.7.6/etc/init.d/cloudera-scm-agent start

(7.3)查看server和agent的状态

在主节点,server和agent都在运行:

其它节点,server不运行,只有agent运行:

(8)开始安装CM

(8.1)登陆http://10.141.71.22:7180

 

选择免费版本,继续

 

 选择主机,全部选上,继续

 选择安装方式,我们使用Parcesl,继续

 

漫长的等待

 

自定义安装,仅安装zookeeoer即可,其他的服务待需要的时候在进行安装。

最终安装结果如图所示:

 

posted @ 2018-04-07 18:43  gegeman  阅读(4242)  评论(2编辑  收藏  举报