GP在Centos7.3上的安装部署
1. 操作系统准备
安装Centos 7.3系统
2. 部署规划
本部署文档是按照4台服务器来部署数据库的,1台mater节点,3台slave节点(oralce服务器此不在范围内)。如果有服务器增加的话,相应的增加到slave节点。
|
服务器主机名 |
IP地址 |
安装的数据库种类 |
|
master |
192.168.120.160 |
greenplum\hadoop\ |
|
slave1 |
192.168.120.161 |
Zookeeper\greenplum\hadoop\solr |
|
slave2 |
192.168.120.162 |
Zookeeper\greenplum\hadoop\solr |
|
slave3 |
192.168.120.163 |
Zookeeper\greenplum\hadoop\solr |
|
slave.... |
...... |
...... |
3. 安装JAVA环境(每台机器都要安装,即使系统已经按照了JDK,但为了避免后续安装出现的问题,请进行重新安装)
为了避免JAVA版本引起后续安装过程中的问题,我们统一将服务器自带的或者已经安装的JDK进行卸载,再重新安装部署包中的JDK,这里省略卸载的过程。
1、上传JAVA安装包jdk-8u74-linux-x64.rpm到每个服务器的/soft,并安装
[root@master soft]# cd /soft
[root@master soft]# rpm -ivh jdk-8u74-linux-x64.rpm
Preparing... ########################################### [100%]
1:jdk ########################################### [100%]
Unpacking JAR files...
rt.jar...
jsse.jar...
charsets.jar...
tools.jar...
localedata.jar...
Jfxrt.jar...
2、设置JAVA环境变量
[root@master soft]# vi /etc/profile
在文件结尾处,添加以下的代码:
export JAVA_HOME=/usr/java/jdk1.8.0_11
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATH
3、完成修改后,保存退出 ,并使用source命令,立即生效
[root@master soft]# source /etc/profile
4、检验JAVA 配置是否生效
[root@master ~]# java -version
java version "1.8.0_74"
Java(TM) SE Runtime Environment (build 1.8.0_74-b19)
Java HotSpot(TM) 64-Bit Server VM (build 24.60-b09, mixed mode)
4. 服务器配置(每台机器都要执行一遍)
4.1. IP地址配置
如服务器操作系统安装后已配置,则跳过此步骤
修改文件配置(每台机器都执行)
执行命令:
vi /etc/sysconfig/network-scripts/ifcfg-eth0
配置案例:
DEVICE="eth0"
BOOTPROTO="static"
HWADDR="00:0C:29:E6:38:0E"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="9a350cca-12e0-4388-8443-168784b76bf7"
IPADDR=192.168.6.14
GATEWAY=192.168.0.3
NETMASK=255.255.0.0
修改完之后重启服务器,然后ping一下设置的IP能否访问;
4.2. 创建/soft目录
[root@master ~]# mkdir -p /soft
4.3. 主机名设置
为了统一标准,请将大数据的数据库服务器的主机名进行如下命名:
主节点服务器:master
子节点服务器:slave1
slave2
slave3
......
执行命令:hostnamectl set-hostname 主机名
查询设置情况:hostnamectl status
4.4. 防火墙设置
[root@master ~]# systemctl stop firewalld.service—停止防火墙
[root@master ~]# systemctl disable firewalld.service—禁用防火墙
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
Removed symlink /etc/systemd/system/basic.target.wants/firewalld.service.
[root@mpp-master ~]# systemctl status firewalld.service –查看防火墙状态
● firewalld.service - firewalld - dynamic firewall daemon
Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
Active: inactive (dead)
Docs: man:firewalld(1)
3月 30 10:50:34 localhost.localdomain systemd[1]: Starting firewalld - dynamic firewall daemon...
3月 30 10:50:35 localhost.localdomain systemd[1]: Started firewalld - dynamic firewall daemon.
3月 30 12:56:49 mpp-master systemd[1]: Stopping firewalld - dynamic firewall daemon...
3月 30 12:56:50 mpp-master systemd[1]: Stopped firewalld - dynamic firewall daemon.
4.5. selinux设置
[root@master conf]# setenforce 0
[root@master conf]# vi /etc/selinux/config
在文件中找到SELINUX=enforcing并改为SELINUX=disabled
4.6. 清空并设置sysctl.conf
[root@master conf]# vi /etc/sysctl.conf
kernel.shmmax = 500000000
kernel.shmmni = 4096
kernel.shmall = 4000000000
kernel.sem = 250 512000 100 2048
kernel.sysrq = 1
kernel.core_uses_pid = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.msgmni = 2048
net.ipv4.tcp_syncookies = 1
net.ipv4.ip_forward = 0
net.ipv4.conf.default.accept_source_route = 0
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_max_syn_backlog = 4096
net.ipv4.conf.all.arp_filter = 1
net.ipv4.ip_local_port_range = 1025 65535
net.core.netdev_max_backlog = 10000
vm.overcommit_memory = 2
执行:sysctl -p /etc/sysctl.conf 使其立即生效
[root@master soft]# sysctl -p /etc/sysctl.conf
4.7. 设置limits.conf
[root@master /]# vi /etc/security/limits.conf
* soft nofile 65536
* hard nofile 65536
* soft nproc 131072
* hard nproc 131072
4.8. dns设置
[root@master /]# vi /etc/hosts
192.168.120.160 master
192.168.120.161 slave1
192.168.120.162 slave2
192.168.120.163 slave3
......其他slave
4.9. 搭建本地Yum
步骤一:将iso包上传到服务器/soft
步骤二:挂载iso包到/mnt目录
[root@localhost ]# cd /soft
[root@localhost ]# mount -t iso9660 -o loop CentOS-7-x86_64-DVD-1810.iso /mnt
步骤三:编辑yum仓库配置文件
[root@localhost ~]# cd /etc/yum.repos.d/
[root@localhost yum.repos.d]# vi CentOS-Base.repo
删掉其他,只保留一个
步骤三:至此版本的本地yum安装完毕,测试下是否能够正常使用
[root@localhost yum.repos.d]# yum list
4.10. 开机自动挂载镜像
执行命令:vi /etc/fstab
在末尾增加:
/soft/CentOS-7-x86_64-DVD-1810.iso /mnt/as iso9660 defaults,loop 0 0
#
# /etc/fstab
# Created by anaconda on Sun May 26 14:26:43 2019
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
UUID=9dbb3678-8809-4769-8a28-8ce13228cae4
/ xfs,rw,noatime,allocsize=16m defaults 0 0
UUID=12e1514b-b34e-449f-88d9-06843bae9d2a
/boot xfs defaults 0 0
UUID=191648d1-b831-499e-bc6f-1b6cf71eed3b
/swap swap defaults 0 0
/soft/CentOS-7.3-x86_64-DVD-1611.iso /mnt/as iso9660 defaults,loop 0 0
/dev/sda1 /home xfs nodev,noatime,allocsize=16m 0 0
4.11. ssh免登陆(每台服务器都要执行)
[root@master conf]# ssh-keygen -t rsa
(之后一直回车)
[root@master conf]# ssh-copy-id master
(输入:yes)
[root@master conf]# ssh-copy-id slave1
(输入:yes)
[root@master conf]# ssh-copy-id slave2
(输入:yes)
[root@master conf]# ssh-copy-id slave3
(输入:yes)
......其他slave
5. zookeeper安装(zookeeper的节点数必须为奇数)
- 上传zookeeper-3.4.6.tar.gz到slave1服务器的/soft目录
- 解压缩安装包
[root@slave1/]# cd /soft
[root@slave1s soft]# tar -zxvf zookeeper-3.4.6.tar.gz
.................................
- 拷贝配置模板
[root@slave1 soft]# cd /soft/zookeeper-3.4.6/conf
[root@slave1 conf]# mv zoo_sample.cfg zoo.cfg
[root@masterconf]# ls
configuration.xsl log4j.properties zoo.cfg
- 创建 data目录
[root@slave1 conf]# mkdir -p /zookeeper-3.4.6/data
- 创建log 目录
[root@slave1 conf]# mkdir -p /zookeeper-3.4.6/log
- 创建机器识别码
[root@slave1 conf]# vi /zookeeper-3.4.6/data/myid
编写文件,设置内容为:1
- 配置zoo.cfg
[root@slave1 conf]# vi zoo.cfg
以下蓝色字体根据实际情况修改,dataDir和dataLogDir可设如下默认值。
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/zookeeper-3.4.6/data
dataLogDir=/zookeeper-3.4.6/log
clientPort=2181
server.1=slave1:2888:3888
server.2=slave2:2888:3888
server.3=slave3:2888:3888
......其他slave
- 保存
- 将ZK主节点slave1的/zookeeper-3.4.6拷贝到其他slave服务器
[root@slave1 /]# scp -r /soft/zookeeper-3.4.6 slave2:/soft
[root@slave1 /]# scp -r /soft/zookeeper-3.4.6 slave3:/soft
......其他slave
- 修改每台slave机器的识别码
Slave2服务器:
[root@slave2 soft]# mkdir -p /zookeeper-3.4.6/data
[root@slave2 soft]# mkdir -p /zookeeper-3.4.6/log
[root@slave2~]# vi /zookeeper-3.4.6/data/myid
编辑文件插入:2
Slave3服务器:
[root@slave3 soft]# mkdir -p /zookeeper-3.4.6/data
[root@slave3 soft]# mkdir -p /zookeeper-3.4.6/log
[root@slave3~]# vi /zookeeper-3.4.6/data/myid
编辑文件插入:3
......其他slave
- 启动每个节点ZK服务
[root@slave1 bin]# /soft/zookeeper-3.4.6/bin/zkServer.sh start
JMX enabled by default
Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[root@slave2 /]# /soft/zookeeper-3.4.6/bin/zkServer.sh start
JMX enabled by default
Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[root@slave3 ~]# /soft/zookeeper-3.4.6/bin/zkServer.sh start
JMX enabled by default
Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
......其他slave
- 查看每个节点ZK的服务状态
[root@slave1 bin]# /soft/zookeeper-3.4.6/bin/zkServer.sh status
JMX enabled by default
Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: leader
[root@slave2 /]# /soft/zookeeper-3.4.6/bin/zkServer.sh status
JMX enabled by default
Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: follower
[root@slave3 ~]# /soft/zookeeper-3.4.6/bin/zkServer.sh status
JMX enabled by default
Using config: /soft/zookeeper-3.4.6/bin/../conf/zoo.cfg
Mode: follower
......其他slave
备注:在所有节点中,会随机选择一个作为leader,其他都是follower
6. greenplum安装
6.1. 安装数据库
- 上传安装包 greenplum-db-4.3.11.3-build-1-RHEL5-x86_64.zip 到master节点的soft目录
- 解压缩:(master节点)
[root@master soft]# cd /soft
[root@master soft]# unzip greenplum-db-4.3.11.3-build-1-RHEL5-x86_64.zip
- 安装:
[root@master soft]# ./bin/bash greenplum-db-4.3.11.3-build-1-RHEL5-x86_64.bin
(默认会将gp安装到/usr/local/greenplum-db-4.3.11.3 这个目录)
如需修改安装目录,出现安装界面,按空格键进行翻页,接受软件安装协议yes,安装目录调整为/data/greenplum-db-4.3.11.3
一直按回车,直到出现如下语句:
*******************************************************************************
Do you accept the Pivotal Database license agreement? [yes|no]
以此输入:
yes
回车
Yes
yes
当出现以下的文字出现时,代表安装完成。
6.2. 创建、授权all_hosts文件
- 创建all_hosts文件,并授权777,目的为以后执行gpssh(greenplum的ssh工具)和gpcheck(greenplum的系统设置检验工具) 提供hostname:
[root@master soft]# vi /soft/all_hosts
master
slave1
slave2
slave3
......其他slave
[root@master soft]# chmod 777 /soft/all_hosts
6.3. 设置greenplum环境变量
- 为root用户设置环境greenplum的环境变量
[root@master soft]# vi /root/.bashrc
将以下文字添加到的最后:
. /data/greenplum-db/greenplum_path.sh
保存后,再执行命令:
[root@master soft]# . /data/greenplum-db/greenplum_path.sh
6.4. 创建gpadmin用户,并拷贝软件包
- 运行gpseginstall工具 (为每个机器添加gpadmin用户并且实现软件包的拷贝和gpadmin用户在各个的机器上免密码登录)
[root@master soft]#gpseginstall -f /soft/all_hosts -u gpadmin -p gpadmin
- 设置gpadmin用户的greenplum的环境变量:
[root@master soft]# vi /home/gpadmin/.bashrc
将 . /data/greenplum-db/greenplum_path.sh 放到该文件的最后。
并且执行 [root@master soft]# . /data/greenplum-db/greenplum_path.sh
切换用户:[root@master soft]# su - gpadmin
- 拷贝.bashrc文件到所有的segment节点
[gpadmin@master soft]# scp /home/gpadmin/.bashrc gpadmin@slave1:/home/gpadmin/
[gpadmin@master soft]# scp /home/gpadmin/.bashrc gpadmin@slave2:/home/gpadmin/
[gpadmin@master soft]# scp /home/gpadmin/.bashrc gpadmin@slave3:/home/gpadmin/
......其他slave
6.5. 创建主数据和镜像数据目录,并授权
- 在master上切换到root用户:
[gpadmin@master ~]$ su - root
- 创建文件夹和所有者
[root@master ~]# mkdir -p /data/master-data/master
[root@master ~]# chown gpadmin /data/master-data/master
- 创建 seg_hosts文件(提供hostname给gpssh )
[root@master data]# vi /soft/seg_hosts
slave1
slave2
slave3
......其他slave
- 使用gpssh工具在所有segment主机上创建主数据和镜像数据目录,并授权
(备注:primary和mirror的实例数由该公式决定:cup核数/2)
[root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/primary1'
[root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/mirror1' [root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/primary2'
[root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/mirror2' [root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/primary3'
[root@master data]#gpssh -f /soft/seg_hosts -e 'mkdir -p /data/mirror3'
......
[root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/primary1'
[root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/mirror1' [root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/primary2'
[root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/mirror2' [root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/primary3'
[root@master data]#gpssh -f /soft/seg_hosts -e 'chown gpadmin /data/mirror3'
......
6.6. 同步所有节点的系统时间
- [root@master data]# vi /etc/ntp.conf
找到下面的代码将其删除
server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst
并添加以下代码:
server master prefer
- 拷贝文件到其他节点(蓝色为每台服务器的主机名)
[root@master data]# scp /etc/ntp.conf root@slave1:/etc/
[root@master data]# scp /etc/ntp.conf root@slave2:/etc/
[root@master data]# scp /etc/ntp.conf root@slave3:/etc/
......其他slave
- 启动所有节点的ntp服务
[root@master data]# gpssh -f /soft/all_hosts -v -e 'ntpd'
[Reset ...]
[INFO] login master
[INFO] login slave1
[INFO] login slave2
[INFO] login slave3
[master] ntpd
[ slave1] ntpd
[ slave2] ntpd
[ slave3] ntpd
[INFO] completed successfully
[Cleanup...]
- 将服务器系统时间设定成当前北京时间
[root@master data]# gpssh -f /soft/all_hosts -e 'date -s 09:44:00'
[master] date -s 09:44:00
[master] Tue Dec 8 09:44:00 HKT 2015
[ slave1] date -s 09:44:00
[ slave1] Tue Dec 8 09:44:00 HKT 2015
[ slave2] date -s 09:44:00
[ slave2] Tue Dec 8 09:44:00 HKT 2015
[ slave3] date -s 09:44:00
[ slave3] Tue Dec 8 09:44:00 HKT 2015
- 系统验证:
[root@master data]# gpcheck -f /soft/all_hosts -m master
- 执行上面的命令之后,会出现一些错误的信息,这里需要解决掉提示的所有error
解决方法执行以下命令:(以下蓝色字体需要根据执行上面的命令之后,列出的错误信息,进行自行调整)
[root@master data]# gpssh -f /soft/all_hosts -e 'echo deadline > /sys/block/sr0/queue/scheduler'
[root@master data]#gpssh -f /soft/all_hosts -e '/sbin/blockdev --setra 16384 /dev/sda1'
- 解决完所有的错误之后,再验证一次
[root@master data]# gpcheck -f /soft/all_hosts -m master
如果在控制台打印的信息中,没有出现ERROR的就解决了。
6.7. 初始化数据库配置
- 切换用户
[root@master data]# su - gpadmin
- 拷贝模板
[gpadmin@master ~]$ cp /usr/local/greenplum-db-4.3.11.3/docs/cli_help/gpconfigs/gpinitsystem_config /home/gpadmin/gpinitsystem_config
[gpadmin@master ~]$ chmod 775 gpinitsystem_config
- 配置数据库
[gpadmin@master ~]$ vi gpinitsystem_config
(将默认的文字清空后,加入下面的文字内容,其中DATA_DIRECTORY和MIRROR_DATA_DIRECTORY的多值以空格分隔)
ARRAY_NAME="EMC Greenplum DW"
ARRAY_NAME="EMC Greenplum DW"
SEG_PREFIX=gpseg
PORT_BASE=40000
declare -a DATA_DIRECTORY=(/data/primary1 /data/primary2 /data/primary3)
MASTER_HOSTNAME=master
MASTER_DIRECTORY=/data/master
MASTER_PORT=5432
TRUSTED_SHELL=ssh
CHECK_POINT_SEGMENTS=256
ENCODING=UNICODE
MIRROR_PORT_BASE=50000
REPLICATION_PORT_BASE=41000
MIRROR_REPLICATION_PORT_BASE=51000
declare -a MIRROR_DATA_DIRECTORY=(/data/mirror1 /data/mirror2 /data/mirror3 )
- 执行命令:
[gpadmin@master ~]$ export MASTER_DATA_DIRECTORY=/master-data/master/gpseg-1
[gpadmin@master ~]$ vi /home/gpadmin/.bashrc
添加 export MASTER_DATA_DIRECTORY=/data/master/gpseg-1 到~/文件尾,
- 保存后再同步到其他节点:
[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave1:/home/gpadmin
[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave2:/home/gpadmin
[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave3:/home/gpadmin
......其他slave
执行初始化脚本:
[gpadmin@master ~]$ gpinitsystem -c gpinitsystem_config -h /soft/seghosts
......
Continue with Greenplum creation Yy/Nn>
y
......
- 数据库操作命令(可略过不执行):
关闭数据库: gpstop
启动数据库:gpstart
查看数据库状态:gpstate
强制关闭并重启:gpstop -rfa
- 验证数据库情况
psql命令行:
[gpadmin@master ~]$ psql -d template1 -p 5432
psql (8.2.15)
Type "help" for help.
template1=#
如果输入命令后出现上面的文字代码,代表数据库正常启动,要退出命令行,可输入:\q
6.8. 使用Pgadmin客户端连接
- 配置pg_hba.conf文件
在master主机上操作
# vi /data/master/gpseg-1/pg_hba.conf
增加要访问的ip
local all gpadmin ident
host all gpadmin 127.0.0.1/28 trust
host all gpadmin 192.168.120.160/32 trust
host all gpadmin ::1/128 trust
host all gpadmin fe80::20c:29ff:feaf:1ddd/128 trust
local replication gpadmin ident
host replication gpadmin samenet trust
l pg_hba.conf修改后,使用# pg_ctl reload重新读取pg_hba.conf文件,如果pg_ctl找不到数据库,则用# pg_ctl reload -D /data/master/gpseg-1 指定数据库目录,或# export PGDATA=/data/master/gpseg-1 导入环境变量
l 启动pgadmin软件,新建一个服务器连接,如下图:
连接成功后界面如下:
6.9. gpcc 安装(监控)
6.9.1. 安装gpperfmon
- 先用root用户登录
[gpadmin@master ~]$ su - root
- 把 /etc/hosts 里的如下内容删掉(如果已经删除,无需进行此步操作)。
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
- 保存后,使用gpadmin用户登录, 以下都是gpadmin的用户操作不要使用root
[root@master ~]$ su - gpadmin
- 先安装gpperfmon
[gpadmin@master ~]# gpperfmon_install --enable --password gpadmin --port 5432
- 重启gp
[gpadmin@master ~]#gpstop -rfa
- 查看gpperfmon的安装情况
[gpadmin@master ~]#ps -ef | grep gpmmon
gpadmin 61470 60925 0 14:37 pts/2 00:00:00 grep gpmmon
gpadmin 63504 63495 0 Dec08 ? 00:01:08 /usr/local/greenplum-db-4.3.5.1/bin/gpmmon -D /data/master/gpseg-1/gpperfmon/conf/gpperfmon.conf -p 5432
[gpadmin@master ~]$psql gpperfmon -c 'SELECT * FROM system_now;'
ctime | hostname | mem_total | mem_used | mem_actual_used | mem_actua
l_free | swap_total | swap_used | swap_page_in | swap_page_out | cpu_user | cpu_sys | c
pu_idle | load0 | load1 | load2 | quantum | disk_ro_rate | disk_wo_rate | disk_rb_rate
| disk_wb_rate | net_rp_rate | net_wp_rate | net_rb_rate | net_wb_rate
---------------------+----------+------------+------------+-----------------+----------
+--------------+-------------+-------------+-------------+-------------
2015-12-09 14:36:30 | master | 8238727168 | 4203065344 | 1015599104 | 7223
128064 | 8388599808 | 0 | 0 | 0 | 0.48 | 0.56 |
98.8 | 0 | 0 | 0 | 15 | 0 | 5 | 0
| 19882 | 6276 | 16 | 381091 | 2018
2015-12-09 14:36:30 | slave1 | 8239775744 | 4275822592 | 1013182464 | 7226
593280 | 8388599808 | 0 | 0 | 0 | 0.24 | 0.48 |
99.2 | 0.23 | 0.36 | 0.16 | 15 | 0 | 2 | 0
| 7082 | 6269 | 13 | 381448 | 7923
2015-12-09 14:36:30 | slave2 | 8239775744 | 4289359872 | 1018822656 | 7220
953088 | 8388599808 | 0 | 0 | 0 | 0.45 | 0.68 |
98.79 | 0 | 0 | 0 | 15 | 0 | 2 | 0
| 4631 | 6273 | 14 | 385715 | 4148
(4 rows)
6.9.2. 安装gpcc
- 上传安装包并解压缩gpcc
将安装包 greenplum-cc-web-1.3.0.1-build-12-RHEL5-x86_64.zip上传到/soft目录
解压:
[gpadmin@master ~]$ unzip /soft/greenplum-cc-web-1.3.0.1-build-12-RHEL5-x86_64.zip
- 安装解压后的
- gpcc
执行:
[gpadmin@master ~]$ ./greenplum-cc-web-1.3.0.1-build-12-RHEL5-x86_64.bin
(一直回车直到出现下面文字,按照红色字体输入)
*******************************************************************************
Do you accept the Pivotal Greenplum Database end user license
agreement? [yes | no]
*******************************************************************************
yes
*******************************************************************************
Provide the installation path for Greenplum Command Center or
press ENTER to accept the default installation path: /usr/local/greenplum-cc-web-1.3.0.1-build-12
*******************************************************************************
/home/gpadmin/greenplum-cc-web-1.3.0.1-build-12
*******************************************************************************
Install Greenplum Command Center into </home/gpadmin/greenplum-cc-web-1.3.0.1-build-12>? [yes | no]
*******************************************************************************
yes
*******************************************************************************
/home/gpadmin/greenplum-cc-web-1.3.0.1-build-12 does not exist.
Create /home/gpadmin/greenplum-cc-web-1.3.0.1-build-12 ? [ yes | no ]
(Selecting no will exit the installer)
*******************************************************************************
Yes
......
- 初始化环境变量\修改权限
[gpadmin@master ~]$ source /home/gpadmin/greenplum-cc-web/gpcc_path.sh
[gpadmin@master ~]$ chown -R gpadmin:gpadmin greenplum-cc-web
[gpadmin@master ~]$ chmod -R 755 greenplum-cc-web
[gpadmin@master ~]$ chmod -R 755 greenplum-cc-web-1.3.0.1-build-12
[gpadmin@master ~]$ chown -R gpadmin:gpadmin greenplum-cc-web-1.3.0.1-build-12
- 在所有节点安装
[gpadmin@master ~]$ gpccinstall -f /soft/allhosts
- 查看版本
[gpadmin@master ~]$ gpcmdr --version
gpcmdr.py version 1.3.0.1 build 12
lighttpd version: lighttpd/1.4.35
6.9.3. 设置环境变量
1) 编辑.bashrc
[gpadmin@master ~]$ vi /home/gpadmin/.bashrc
添加以下2行:
GPPERFMONHOME=/home/gpadmin/greenplum-cc-web-1.3.0.1-build-12
source $GPPERFMONHOME/gpcc_path.sh
2) 初始化环境变量
[gpadmin@master ~]$ source /home/gpadmin/.bashrc
3) 拷贝环境变量
[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave1:/home/gpadmin/
.bashrc 100% 315 0.3KB/s 00:00
[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave2:/home/gpadmin/
.bashrc 100% 315 0.3KB/s 00:00
[gpadmin@master ~]$ scp /home/gpadmin/.bashrc slave3:/home/gpadmin/
.bashrc 100% 315 0.3KB/s 00:00
......其他slave
4) 启动GP数据库
[gpadmin@master ~]$ gpstart -rfa
5) GP数据库实例起来后,就可以开始执行gpcmdr --setup(根据实际情况设置,)
[gpadmin@master ~]$ gpcmdr --setup
以下输入项,请根据红色字体输入
#gp监控实例名,用于启停监控时指定
Please enter a new instance name:
> draogn
#监控是否和GP master同节点,N指同节点
Is the master host for the GreenplumDatabase remote? Yy|Nn (default=N):
> N
#登录GP监控页面展示的名字
What would you like to use for the displayname for this instance:
> dragon
What port does the Greenplum Database use?(default=5432):
>回车
......
What port would you like the web server touse for this instance? (default=28080):
>回车
Do you want to enable SSL for the Web APIYy|Nn (default=N):
> 回车
......
Do you want to enable ipV6 for the Web APIYy|Nn (default=N):
>回车
Do you want to enable Cross Site RequestForgery Protection for the Web API Yy|Nn (default=N):
>回车
......
#是否将GP监控实例拷贝到standby master节点(冗余备份的目的)
Do you want to copy the instance to astandby master host Yy|Nn (default=Y):
>N
#打印登录网址
The web UI for this instance is availableathttps://master:28080/
#打印出启动GP监控命令
You can now start the web UI for thisinstance by running: gpcmdr --start dragon
......
6) 启动GP监控
[gpadmin@master ~]$gpcmdr --start dragon
7) 使用浏览器访问http://master服务器的IP:28080
默认帐号:gpmon
默认密码:gpadmin
浙公网安备 33010602011771号