hortonworks2.5.3 install step log

1.创建本地YUM源,
下载TAR。GZ HDP,HDP-UTILS,AMBARI介质
安装HTTPD,在/VAR/WWW/HTML/下创建三个相应的目录,把以上解压的三个目录链接过来
在三个目录中执行命令,createrepo ./
至此,本地YUM源创建完毕。

cd /etc/yum.repos.d/

cat ambari.repo

[ambari-2.x]
name=Ambari 2.x
baseurl=http://localhost/ambari/
gpgcheck=0
enabled=1
 
[HDP-UTILS-1.x]
name=Hortonworks Data Platform Utils Version - HDP-UTILS-1.x
baseurl=http://localhost/hdp-utils
gpgcheck=0
enabled=1

[HDP]
name=hdp2.5.x
baseurl=http://localhost/hdp
gpgcheck=0
enabled=1


2.首先安装AMBARI
yum install ambari-server -y

设置AMBARI
ambari-server setup

ambari-server start

3.localhost:8080
fqdn:
包含HOSTNAME:DOMAINNAME
vi /etc/hosts
127.0.0.1 student.org

ambari-server setup --jdbc-db=mysql --jdbc-driver=/usr/share/java/mysql-connector-java.jar
必须执行这一句,它会把JDBC的JAR包复制到AMBARI的CLASSPATH,这样你在HIVE配置MYSQL METASTORE的时候才能测试连接成功。

我想实现的效果是这样的,使用AMBARI快速部署开发和生产的大数据环境,在本机上先多次完成模拟测试,使用本机的DOCKER来构建三台机器,然后使用AMBARI快速安装理解AMBARI是如何来管理HDP的组件的,原理是什么?

能否让其来管理APACHE或者CDH的组件?这样就方便了 yum localinstall ambari-server.*** -y

 

2.setup the ambari server
ambari-server setup
yum install mysql-connector-java

create user/pwd for ambari user;

CREATE USER 'ambari'@'%' IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%';
CREATE USER 'ambari'@'localhost' IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'localhost';
CREATE USER 'ambari'@'%' IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON *.* TO 'ambari'@'%';
FLUSH PRIVILEGES;

cd /var/lib/ambari-server/resources/
http://docs.hortonworks.com/HDPDocuments/Ambari-2.4.2.0/bk_ambari-reference/content/using_ambari_with_mysql.html

3.ambari-server start

 如果启动失败,就去查看其中的日志,在安装的过程中,也可以直接tail -f /var/log/ambari-server/ambari-server.log这样的好处时,可以直接看到任务进行的细节,及时发现问题。

 4
注意ambari,自动创建了一个用户组hadoop,和hdfs,hive,spark等用户,如果你想使用你本机的某个用户来访问hadoop,

你需要把这个用户加入到hadoop组。

查看本机用户组: cat /etc/group |grep hadoop

添加用户到某个组: gpasswd -a userName groupName

 

posted on 2017-01-03 10:58  tneduts  阅读(286)  评论(0编辑  收藏  举报

导航