GP在Centos7.3上的安装部署

1. 操作系统准备

安装Centos 7.3系统

2. 部署规划

 

本部署文档是按照4台服务器来部署数据库的,1mater节点,3slave节点(oralce服务器此不在范围内)。如果有服务器增加的话,相应的增加到slave节点。

服务器主机名

IP地址

安装的数据库种类

master

192.168.120.160

greenplum\hadoop\

slave1

192.168.120.161

Zookeeper\greenplum\hadoop\solr

slave2

192.168.120.162

Zookeeper\greenplum\hadoop\solr

slave3

192.168.120.163

Zookeeper\greenplum\hadoop\solr

slave....

......

......

 

3. 安装JAVA环境(每台机器都要安装,即使系统已经按照了JDK,但为了避免后续安装出现的问题,请进行重新安装

为了避免JAVA版本引起后续安装过程中的问题,我们统一将服务器自带的或者已经安装的JDK进行卸载,再重新安装部署包中的JDK,这里省略卸载的过程。

1、上传JAVA安装包jdk-8u74-linux-x64.rpm到每个服务器的/soft,并安装

[root@master soft]# cd /soft

[root@master soft]# rpm -ivh jdk-8u74-linux-x64.rpm

Preparing...                ########################################### [100%]

   1:jdk                    ########################################### [100%]

Unpacking JAR files...

        rt.jar...

        jsse.jar...

        charsets.jar...

        tools.jar...

        localedata.jar...

        Jfxrt.jar...

2、设置JAVA环境变量

[root@master soft]# vi /etc/profile

在文件结尾处,添加以下的代码:

export JAVA_HOME=/usr/java/jdk1.8.0_11

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATH

3、完成修改后,保存退出 ,并使用source命令,立即生效 

[root@master soft]# source /etc/profile

4、检验JAVA 配置是否生效

[root@master ~]# java -version

java version "1.8.0_74"

Java(TM) SE Runtime Environment (build 1.8.0_74-b19)

Java HotSpot(TM) 64-Bit Server VM (build 24.60-b09, mixed mode)

4. 服务器配置每台机器都要执行一遍

4.1. IP地址配置

如服务器操作系统安装后已配置,则跳过此步骤

修改文件配置(每台机器都执行)

     执行命令:

vi /etc/sysconfig/network-scripts/ifcfg-eth0

配置案例:

DEVICE="eth0"

BOOTPROTO="static"

HWADDR="00:0C:29:E6:38:0E"

NM_CONTROLLED="yes"

ONBOOT="yes"

TYPE="Ethernet"

UUID="9a350cca-12e0-4388-8443-168784b76bf7"

IPADDR=192.168.6.14

GATEWAY=192.168.0.3

NETMASK=255.255.0.0

修改完之后重启服务器,然后ping一下设置的IP能否访问;

 

4.2. 创建/soft目录

[root@master ~]# mkdir -p /soft

4.3. 主机名设置

为了统一标准,请将大数据的数据库服务器的主机名进行如下命名:

主节点服务器:master

子节点服务器:slave1

  slave2

  slave3

  ......

   执行命令:hostnamectl set-hostname 主机名

   查询设置情况:hostnamectl status

 

4.4. 防火墙设置

[root@master ~]# systemctl stop firewalld.service—停止防火墙

[root@master ~]# systemctl disable firewalld.service—禁用防火墙

Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.

Removed symlink /etc/systemd/system/basic.target.wants/firewalld.service.

[root@mpp-master ~]# systemctl status firewalld.service –查看防火墙状态

● firewalld.service - firewalld - dynamic firewall daemon

   Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)

   Active: inactive (dead)

     Docs: man:firewalld(1)

 

3月 30 10:50:34 localhost.localdomain systemd[1]: Starting firewalld - dynamic firewall daemon...

3月 30 10:50:35 localhost.localdomain systemd[1]: Started firewalld - dynamic firewall daemon.

3月 30 12:56:49 mpp-master systemd[1]: Stopping firewalld - dynamic firewall daemon...

3月 30 12:56:50 mpp-master systemd[1]: Stopped firewalld - dynamic firewall daemon.

 

4.5. selinux设置

[root@master conf]# setenforce 0

[root@master conf]# vi /etc/selinux/config

在文件中找到SELINUX=enforcing并改为SELINUX=disabled

4.6. 清空并设置sysctl.conf

[root@master conf]# vi /etc/sysctl.conf

kernel.shmmax = 500000000

kernel.shmmni = 4096

kernel.shmall = 4000000000

kernel.sem = 250 512000 100 2048

kernel.sysrq = 1

kernel.core_uses_pid = 1

kernel.msgmnb = 65536

kernel.msgmax = 65536

kernel.msgmni = 2048

net.ipv4.tcp_syncookies = 1

net.ipv4.ip_forward = 0

net.ipv4.conf.default.accept_source_route = 0

net.ipv4.tcp_tw_recycle = 1

net.ipv4.tcp_max_syn_backlog = 4096

net.ipv4.conf.all.arp_filter = 1

net.ipv4.ip_local_port_range = 1025 65535

net.core.netdev_max_backlog = 10000

vm.overcommit_memory = 2

执行:sysctl -p /etc/sysctl.conf 使其立即生效

[root@master soft]# sysctl -p /etc/sysctl.conf

 

4.7. 设置limits.conf

[root@master /]# vi /etc/security/limits.conf

* soft nofile 65536

* hard nofile 65536

* soft nproc 131072

* hard nproc 131072

4.8. dns设置

[root@master /]# vi /etc/hosts

192.168.120.160 master

192.168.120.161 slave1

192.168.120.162 slave2

192.168.120.163 slave3

......其他slave

4.9. 搭建本地Yum

步骤一:将iso包上传到服务器/soft

步骤二:挂载iso包到/mnt目录

 [root@localhost ]# cd /soft

 [root@localhost ]# mount -t iso9660 -o loop CentOS-7-x86_64-DVD-1810.iso /mnt

步骤三:编辑yum仓库配置文件  

[root@localhost ~]# cd /etc/yum.repos.d/

[root@localhost yum.repos.d]# vi CentOS-Base.repo

删掉其他,只保留一个

 

步骤三:至此版本的本地yum安装完毕,测试下是否能够正常使用 

[root@localhost yum.repos.d]# yum list

4.10. 开机自动挂载镜像

执行命令:vi /etc/fstab

 

在末尾增加:

/soft/CentOS-7-x86_64-DVD-1810.iso /mnt/as iso9660 defaults,loop 0 0

 

#

# /etc/fstab

# Created by anaconda on Sun May 26 14:26:43 2019

#

# Accessible filesystems, by reference, are maintained under '/dev/disk'

# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info

#

UUID=9dbb3678-8809-4769-8a28-8ce13228cae4   

/  xfs,rw,noatime,allocsize=16m     defaults        0 0

UUID=12e1514b-b34e-449f-88d9-06843bae9d2a

/boot   xfs     defaults        0 0

UUID=191648d1-b831-499e-bc6f-1b6cf71eed3b

/swap  swap    defaults        0 0

/soft/CentOS-7.3-x86_64-DVD-1611.iso /mnt/as iso9660 defaults,loop 0 0

/dev/sda1 /home xfs nodev,noatime,allocsize=16m 0 0

4.11. ssh免登陆(每台服务器都要执行

[root@master conf]#  ssh-keygen -t rsa    

(之后一直回车)

[root@master conf]# ssh-copy-id master

(输入:yes)

[root@master conf]# ssh-copy-id slave1

(输入:yes)

[root@master conf]# ssh-copy-id slave2

(输入:yes)

[root@master conf]# ssh-copy-id slave3

(输入:yes)

 

......其他slave

5. zookeeper安装(zookeeper的节点数必须为奇数)

  1. 上传zookeeper-3.4.6.tar.gzslave1服务器的/soft目录
  2. 解压缩安装包

[root@slave1/]# cd /soft

[root@slave1s soft]# tar -zxvf zookeeper-3.4.6.tar.gz

.................................

  1. 拷贝配置模板

[root@slave1 soft]# cd /soft/zookeeper-3.4.6/conf

[root@slave1  conf]# mv zoo_sample.cfg zoo.cfg

[root@masterconf]# ls

configuration.xsl  log4j.properties  zoo.cfg

  1. 创建 data目录

[root@slave1 conf]# mkdir -p /zookeeper-3.4.6/data

  1. 创建log 目录

[root@slave1 conf]# mkdir -p /zookeeper-3.4.6/log

  1. 创建机器识别码

[root@slave1 conf]# vi /zookeeper-3.4.6/data/myid

编写文件,设置内容为:1

  1. 配置zoo.cfg

[root@slave1 conf]# vi zoo.cfg

以下蓝色字体根据实际情况修改,dataDir和dataLogDir可设如下默认值。

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/zookeeper-3.4.6/data

dataLogDir=/zookeeper-3.4.6/log

clientPort=2181

server.1=slave1:2888:3888

server.2=slave2:2888:3888

server.3=slave3:2888:3888

 

......其他slave

  1. 保存
  2. 将ZK主节点slave1/zookeeper-3.4.6拷贝到其他slave服务器

[root@slave1 /]# scp -r /soft/zookeeper-3.4.6 slave2:/soft

[root@slave1 /]# scp -r /soft/zookeeper-3.4.6 slave3:/soft

......其他slave

  1. 修改每台slave机器的识别码

Slave2服务器:

[root@slave2 soft]# mkdir -p /zookeeper-3.4.6/data

[root@slave2 soft]# mkdir -p /zookeeper-3.4.6/log

[root@slave2~]# vi /zookeeper-3.4.6/data/myid

编辑文件插入:2

Slave3服务器:

[root@slave3 soft]# mkdir -p /zookeeper-3.4.6/data

[root@slave3 soft]# mkdir -p /zookeeper-3.4.6/log

[root@slave3~]# vi /zookeeper-3.4.6/data/myid

编辑文件插入:3

......其他slave

 

  1. 启动每个节点ZK服务

[root@slave1 bin]# /soft/zookeeper-3.4.6/bin/zkServer.sh start

JMX enabled by default

Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

[root@slave2 /]# /soft/zookeeper-3.4.6/bin/zkServer.sh start

JMX enabled by default

Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

[root@slave3 ~]# /soft/zookeeper-3.4.6/bin/zkServer.sh start

JMX enabled by default

Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

......其他slave

  1. 查看每个节点ZK的服务状态

[root@slave1 bin]# /soft/zookeeper-3.4.6/bin/zkServer.sh status

JMX enabled by default

Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg

Mode: leader

 

[root@slave2 /]# /soft/zookeeper-3.4.6/bin/zkServer.sh status

JMX enabled by default

Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg

Mode: follower

 

[root@slave3 ~]# /soft/zookeeper-3.4.6/bin/zkServer.sh status

JMX enabled by default

Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg

Mode: follower

......其他slave

备注:在所有节点中,会随机选择一个作为leader,其他都是follower

6. greenplum安装

6.1. 安装数据库

  1. 上传安装包 greenplum-db-4.3.11.3-build-1-RHEL5-x86_64.zip master节点的soft目录
  2. 解压缩:(master节点)

[root@master soft]# cd /soft

[root@master soft]# unzip greenplum-db-4.3.11.3-build-1-RHEL5-x86_64.zip

  1. 安装:

[root@master soft]# ./bin/bash greenplum-db-4.3.11.3-build-1-RHEL5-x86_64.bin

 

(默认会将gp安装到/usr/local/greenplum-db-4.3.11.3 这个目录)

如需修改安装目录,出现安装界面,按空格键进行翻页,接受软件安装协议yes,安装目录调整为/data/greenplum-db-4.3.11.3

一直按回车,直到出现如下语句:

*******************************************************************************

Do you accept the Pivotal Database license agreement? [yes|no]

以此输入:

yes

回车

Yes

yes

当出现以下的文字出现时,代表安装完成。

 

6.2. 创建、授权all_hosts文件

  1. 创建all_hosts文件,并授权777,目的为以后执行gpssh(greenplum的ssh工具)和gpcheck(greenplum的系统设置检验工具) 提供hostname:

[root@master soft]# vi /soft/all_hosts

master

slave1

slave2

slave3

......其他slave

[root@master soft]# chmod 777 /soft/all_hosts

6.3. 设置greenplum环境变量

  1. root用户设置环境greenplum的环境变量

[root@master soft]# vi /root/.bashrc

将以下文字添加到的最后:

. /data/greenplum-db/greenplum_path.sh  

保存后,再执行命令:

[root@master soft]# . /data/greenplum-db/greenplum_path.sh

6.4. 创建gpadmin用户,并拷贝软件包

  1. 运行gpseginstall工具 (为每个机器添加gpadmin用户并且实现软件包的拷贝和gpadmin用户在各个的机器上免密码登录)

[root@master soft]#gpseginstall -f /soft/all_hosts -u gpadmin -p gpadmin

  1. 设置gpadmin用户的greenplum的环境变量:

[root@master soft]# vi /home/gpadmin/.bashrc

. /data/greenplum-db/greenplum_path.sh 放到该文件的最后。

并且执行 [root@master soft]# . /data/greenplum-db/greenplum_path.sh

切换用户:[root@master soft]# su - gpadmin

  1. 拷贝.bashrc文件到所有的segment节点

[gpadmin@master soft]# scp /home/gpadmin/.bashrc gpadmin@slave1:/home/gpadmin/

[gpadmin@master soft]# scp /home/gpadmin/.bashrc gpadmin@slave2:/home/gpadmin/

[gpadmin@master soft]# scp /home/gpadmin/.bashrc gpadmin@slave3:/home/gpadmin/

......其他slave

6.5. 创建主数据和镜像数据目录,并授权

  1. master上切换到root用户:

[gpadmin@master ~]$ su - root

  1. 创建文件夹和所有者

[root@master ~]# mkdir -p /data/master-data/master

[root@master ~]# chown gpadmin /data/master-data/master

  1. 创建 seg_hosts文件(提供hostname给gpssh )

[root@master data]# vi /soft/seg_hosts

slave1

slave2

slave3

......其他slave

  1. 使用gpssh工具在所有segment主机上创建主数据和镜像数据目录,并授权

(备注:primarymirror的实例数由该公式决定:cup核数/2)

 [root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/primary1'
 [root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/mirror1'  [root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/primary2'
 [root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/mirror2'  [root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/primary3'
 [root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/mirror3'

  ......
 [root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/primary1'
 [root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/mirror1'  [root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/primary2'
 [root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/mirror2'  [root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/primary3'
 [root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/mirror3'

  ......

6.6. 同步所有节点的系统时间

  1. [root@master data]# vi /etc/ntp.conf

找到下面的代码将其删除

server 0.centos.pool.ntp.org iburst

server 1.centos.pool.ntp.org iburst

server 2.centos.pool.ntp.org iburst

server 3.centos.pool.ntp.org iburst

并添加以下代码:

server master prefer

  1. 拷贝文件到其他节点(蓝色为每台服务器的主机名)

[root@master data]# scp /etc/ntp.conf root@slave1:/etc/

[root@master data]# scp /etc/ntp.conf root@slave2:/etc/

[root@master data]# scp /etc/ntp.conf root@slave3:/etc/

......其他slave

  1. 启动所有节点的ntp服务

[root@master data]# gpssh -f /soft/all_hosts -v -e 'ntpd'

[Reset ...]

[INFO] login master

[INFO] login slave1

[INFO] login slave2

[INFO] login slave3

 [master] ntpd

[ slave1] ntpd

[ slave2] ntpd

[ slave3] ntpd

[INFO] completed successfully

[Cleanup...]

  1. 将服务器系统时间设定成当前北京时间

 [root@master data]#  gpssh -f /soft/all_hosts -e 'date -s 09:44:00'

[master] date -s 09:44:00

[master] Tue Dec  8 09:44:00 HKT 2015

[ slave1] date -s 09:44:00

[ slave1] Tue Dec  8 09:44:00 HKT 2015

[ slave2] date -s 09:44:00

[ slave2] Tue Dec  8 09:44:00 HKT 2015

[ slave3] date -s 09:44:00

[ slave3] Tue Dec  8 09:44:00 HKT 2015

  1. 系统验证:

 [root@master data]# gpcheck -f /soft/all_hosts -m master

  1. 执行上面的命令之后,会出现一些错误的信息,这里需要解决掉提示的所有error

解决方法执行以下命令:(以下蓝色字体需要根据执行上面的命令之后,列出的错误信息,进行自行调整)

[root@master data]# gpssh -f /soft/all_hosts -e 'echo deadline > /sys/block/sr0/queue/scheduler'

[root@master data]#gpssh -f /soft/all_hosts -e '/sbin/blockdev --setra 16384 /dev/sda1'

  1. 解决完所有的错误之后,再验证一次

[root@master data]# gpcheck -f /soft/all_hosts -m master

如果在控制台打印的信息中,没有出现ERROR的就解决了。

6.7. 初始化数据库配置

  1. 切换用户

[root@master data]# su - gpadmin

  1. 拷贝模板

[gpadmin@master ~]$ cp /usr/local/greenplum-db-4.3.11.3/docs/cli_help/gpconfigs/gpinitsystem_config /home/gpadmin/gpinitsystem_config

[gpadmin@master ~]$ chmod 775 gpinitsystem_config

  1. 配置数据库

[gpadmin@master ~]$ vi gpinitsystem_config

(将默认的文字清空后,加入下面的文字内容,其中DATA_DIRECTORY和MIRROR_DATA_DIRECTORY的多值以空格分隔)

ARRAY_NAME="EMC Greenplum DW"

ARRAY_NAME="EMC Greenplum DW"                   

SEG_PREFIX=gpseg

PORT_BASE=40000

declare -a DATA_DIRECTORY=(/data/primary1 /data/primary2 /data/primary3)

MASTER_HOSTNAME=master

MASTER_DIRECTORY=/data/master

MASTER_PORT=5432

TRUSTED_SHELL=ssh

CHECK_POINT_SEGMENTS=256

ENCODING=UNICODE

MIRROR_PORT_BASE=50000

REPLICATION_PORT_BASE=41000

MIRROR_REPLICATION_PORT_BASE=51000

declare -a MIRROR_DATA_DIRECTORY=(/data/mirror1 /data/mirror2 /data/mirror3 )

  1. 执行命令:

[gpadmin@master ~]$ export MASTER_DATA_DIRECTORY=/master-data/master/gpseg-1

[gpadmin@master ~]$ vi /home/gpadmin/.bashrc

添加 export MASTER_DATA_DIRECTORY=/data/master/gpseg-1 到~/文件尾,

  1. 保存后再同步到其他节点:

[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave1:/home/gpadmin

[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave2:/home/gpadmin

[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave3:/home/gpadmin

......其他slave

 

执行初始化脚本:

[gpadmin@master ~]$ gpinitsystem -c gpinitsystem_config -h /soft/seghosts

......

Continue with Greenplum creation Yy/Nn>

y

......

  1. 数据库操作命令(可略过不执行):

关闭数据库: gpstop

启动数据库:gpstart

查看数据库状态:gpstate

强制关闭并重启:gpstop -rfa

  1. 验证数据库情况

psql命令行:

[gpadmin@master ~]$ psql -d template1 -p 5432

psql (8.2.15)

Type "help" for help.

template1=#

如果输入命令后出现上面的文字代码,代表数据库正常启动,要退出命令行,可输入:\q

6.8. 使用Pgadmin客户端连接

  • 配置pg_hba.conf文件

master主机上操作

# vi /data/master/gpseg-1/pg_hba.conf

增加要访问的ip

local    all      gpadmin      ident

host     all      gpadmin      127.0.0.1/28    trust

host     all      gpadmin      192.168.120.160/32       trust

host     all      gpadmin      ::1/128    trust

host     all      gpadmin      fe80::20c:29ff:feaf:1ddd/128    trust

local    replication gpadmin      ident

host     replication gpadmin      samenet       trust

l pg_hba.conf修改后,使用# pg_ctl reload重新读取pg_hba.conf文件,如果pg_ctl找不到数据库,则用# pg_ctl reload -D /data/master/gpseg-1 指定数据库目录,或# export PGDATA=/data/master/gpseg-1 导入环境变量

l 启动pgadmin软件,新建一个服务器连接,如下图:

 

连接成功后界面如下:

 

6.9. gpcc 安装(监控)

6.9.1. 安装gpperfmon

  1. 先用root用户登录

[gpadmin@master ~]$ su - root

  1. /etc/hosts 里的如下内容删掉(如果已经删除,无需进行此步操作)。

::1   localhost localhost.localdomain localhost6 localhost6.localdomain6

  1. 保存后,使用gpadmin用户登录, 以下都是gpadmin的用户操作不要使用root  

[root@master ~]$ su - gpadmin

  1. 先安装gpperfmon

[gpadmin@master ~]# gpperfmon_install --enable --password gpadmin --port 5432

  1. 重启gp

[gpadmin@master ~]#gpstop -rfa

  1. 查看gpperfmon的安装情况

[gpadmin@master ~]#ps -ef | grep gpmmon  

gpadmin   61470  60925  0 14:37 pts/2    00:00:00 grep gpmmon

gpadmin   63504  63495  0 Dec08 ?        00:01:08 /usr/local/greenplum-db-4.3.5.1/bin/gpmmon -D /data/master/gpseg-1/gpperfmon/conf/gpperfmon.conf -p 5432

[gpadmin@master ~]$psql gpperfmon -c 'SELECT * FROM system_now;'

      ctime        | hostname | mem_total  |  mem_used  | mem_actual_used | mem_actua

l_free | swap_total | swap_used | swap_page_in | swap_page_out | cpu_user | cpu_sys | c

pu_idle | load0 | load1 | load2 | quantum | disk_ro_rate | disk_wo_rate | disk_rb_rate

| disk_wb_rate | net_rp_rate | net_wp_rate | net_rb_rate | net_wb_rate

---------------------+----------+------------+------------+-----------------+----------

+--------------+-------------+-------------+-------------+-------------

 2015-12-09 14:36:30 | master   | 8238727168 | 4203065344 |      1015599104 |      7223

128064 | 8388599808 |         0 |            0 |             0 |     0.48 |    0.56 |  

   98.8 |     0 |     0 |     0 |      15 |            0 |            5 |            0

|        19882 |        6276 |          16 |      381091 |        2018

 2015-12-09 14:36:30 | slave1   | 8239775744 | 4275822592 |      1013182464 |      7226

593280 | 8388599808 |         0 |            0 |             0 |     0.24 |    0.48 |  

   99.2 |  0.23 |  0.36 |  0.16 |      15 |            0 |            2 |            0

|         7082 |        6269 |          13 |      381448 |        7923

 2015-12-09 14:36:30 | slave2   | 8239775744 | 4289359872 |      1018822656 |      7220

953088 | 8388599808 |         0 |            0 |             0 |     0.45 |    0.68 |  

  98.79 |     0 |     0 |     0 |      15 |            0 |            2 |            0

|         4631 |        6273 |          14 |      385715 |        4148

(4 rows)

6.9.2. 安装gpcc

  1. 上传安装包并解压缩gpcc

将安装包 greenplum-cc-web-1.3.0.1-build-12-RHEL5-x86_64.zip上传到/soft目录

解压:

[gpadmin@master ~]$ unzip /soft/greenplum-cc-web-1.3.0.1-build-12-RHEL5-x86_64.zip

  1. 安装解压后的
  2. gpcc

执行:

[gpadmin@master ~]$ ./greenplum-cc-web-1.3.0.1-build-12-RHEL5-x86_64.bin

(一直回车直到出现下面文字,按照红色字体输入)

*******************************************************************************

Do you accept the Pivotal Greenplum Database end user license

agreement? [yes | no]

*******************************************************************************

yes

*******************************************************************************

Provide the installation path for Greenplum Command Center or

press ENTER to accept the default installation path: /usr/local/greenplum-cc-web-1.3.0.1-build-12

*******************************************************************************

/home/gpadmin/greenplum-cc-web-1.3.0.1-build-12

*******************************************************************************

Install Greenplum Command Center into </home/gpadmin/greenplum-cc-web-1.3.0.1-build-12>? [yes | no]

*******************************************************************************

yes

*******************************************************************************

/home/gpadmin/greenplum-cc-web-1.3.0.1-build-12 does not exist.

Create /home/gpadmin/greenplum-cc-web-1.3.0.1-build-12 ? [ yes | no ]

(Selecting no will exit the installer)

*******************************************************************************

Yes

......

  1. 初始化环境变量\修改权限

[gpadmin@master ~]$ source /home/gpadmin/greenplum-cc-web/gpcc_path.sh

[gpadmin@master ~]$ chown -R gpadmin:gpadmin greenplum-cc-web

[gpadmin@master ~]$ chmod -R 755 greenplum-cc-web

[gpadmin@master ~]$ chmod -R 755 greenplum-cc-web-1.3.0.1-build-12

[gpadmin@master ~]$ chown -R gpadmin:gpadmin greenplum-cc-web-1.3.0.1-build-12

  1. 在所有节点安装

[gpadmin@master ~]$ gpccinstall -f /soft/allhosts

  1. 查看版本

[gpadmin@master ~]$ gpcmdr --version

gpcmdr.py version 1.3.0.1 build 12

lighttpd version: lighttpd/1.4.35

6.9.3. 设置环境变量

1) 编辑.bashrc    

 [gpadmin@master ~]$ vi /home/gpadmin/.bashrc

添加以下2行:

GPPERFMONHOME=/home/gpadmin/greenplum-cc-web-1.3.0.1-build-12

source $GPPERFMONHOME/gpcc_path.sh

2) 初始化环境变量  

[gpadmin@master ~]$ source /home/gpadmin/.bashrc

3) 拷贝环境变量

[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave1:/home/gpadmin/

.bashrc                                            100%  315     0.3KB/s   00:00    

[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave2:/home/gpadmin/

.bashrc                                            100%  315     0.3KB/s   00:00    

[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave3:/home/gpadmin/

.bashrc                                            100%  315     0.3KB/s   00:00   

......其他slave

 

4) 启动GP数据库

[gpadmin@master ~]$ gpstart -rfa

5) GP数据库实例起来后,就可以开始执行gpcmdr --setup(根据实际情况设置,)

[gpadmin@master ~]$ gpcmdr --setup

以下输入项,请根据红色字体输入

 #gp监控实例名,用于启停监控时指定

Please enter a new instance name:

> draogn   

#监控是否和GP master同节点,N指同节点

Is the master host for the GreenplumDatabase remote? Yy|Nn (default=N):

> N       

#登录GP监控页面展示的名字

What would you like to use for the displayname for this instance:

> dragon

What port does the Greenplum Database use?(default=5432):

>回车

......

What port would you like the web server touse for this instance? (default=28080):

>回车

Do you want to enable SSL for the Web APIYy|Nn (default=N):

> 回车

......

Do you want to enable ipV6 for the Web APIYy|Nn (default=N):

>回车

Do you want to enable Cross Site RequestForgery Protection for the Web API Yy|Nn (default=N):

>回车

......

#是否将GP监控实例拷贝到standby master节点(冗余备份的目的)

Do you want to copy the instance to astandby master host Yy|Nn (default=Y):

>N

#打印登录网址

The web UI for this instance is availableathttps://master:28080/ 

#打印出启动GP监控命令

You can now start the web UI for thisinstance by running: gpcmdr --start dragon

......

6) 启动GP监控

[gpadmin@master ~]$gpcmdr --start dragon

7) 使用浏览器访问http://master服务器的IP:28080

 

默认帐号:gpmon

默认密码:gpadmin

 

posted on 2020-03-27 12:13  Matthaeus  阅读(568)  评论(0)    收藏  举报