准备工作:
1)安装了伪分布式hadoop:参照http://blog.csdn.net/zolalad/article/details/11472207
2)修改已安装好的hadoop配置文件:
a)修改hdfs-site.xml
安装HBase
写在前面,需注意:在root用户下配置,所以在启动前需要进行下面操作,确保将hbase相关文件付给了hadoop用户
cd /opt/hbase
ls -alh --查看各文件的用户
chown -R hadoop:hadoop hbase/ --如果有的文件用户是root,则需将该文件赋给hadoop用户
如果在后面启动步骤报错,权限不够,请确认/opt/hbase/logs文件是属于hadoop用户
解压与安装
export HBASE_MANAGES_ZK=true
export JAVA_HOME=/usr/program/jdk1.6.0_13
2)配置hbase/conf/hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<!-- 下面路径一定要跟hadoop中core-site.xml中fs.default.name中的路径相同,否则会出错。-->
<value>hdfs://localhost:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value> <!--表明是否是完全分布式hbase集群 -->
</property>
<property>
<name>hbase.localhost</name>
<value>hdfs://localhost:60000</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/home/${user.name}/tmp</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>localhost</value> <!--主机名是localhost,可通过hostname查看-->
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/${user.name}/zookeeper</value>
</property>
<property>
<name>dfs.replication</name>
<value>true</value>
<description>The replication countfor HLog HFile storage. Should not be greater than HDFS datanode count.
</description>
</property>
1.首先启动hadoop集群:jps查看namenode和datanode的服务是否正常启动
2.启动hbase:同样通过jps查看,注意在master(即HMater)节点上有HMaster和HRegionServer、HQuorumPeer三个服务项(后两者是因为将namenode也作为了一个HRegionServers),在datanode(即HRegionServer)中查看需要启动的是HQuorumPeer和HRegionServer
3.整个集群正常启动后,
cd /opt/hbase/bin
http://localhost:60010/master.jsp (http://master:60010/master-status)通过WEB页面来管理查看HBase数据库

export HBASE_HOME=/opt/hbase
export HADOOP_CLASSPATH=$HASOOP_CLASSPATH:$HBASE_HOME/hbase-0.94.2.jar:$HBASE_HOME/hbase-0.94.2-tests.jar:$HBASE_HOME/conf:$HBASE_HOME/lib/zookeeper-3.4.3.jar:$HBASE_HOME/lib/protobuf-java-2.4.0a.jar
关闭后重启hadoop。
浙公网安备 33010602011771号