1. 版本:
jdk > 1.8
hadoop-2.7.7
hbase-2.0.5
2. 把hbase安装包上传到集群中任一服务器中并解压
tar -zxvf hbase-2.0.5-bin.tar.gz
3. 修改hbase-env.sh配置文件
hbase的配置文件在HBASE_HOME/conf下
# 加入JAVA_HOME
export JAVA_HOME=/opt/jdk1.8.0_144
# 指定不使用自带的zookeeper
qexportHBASE_MANAGES_ZK=false
4. 修改hbase-site.xml配置文件
<configuration>
<!--指定hbase的数据在hdfs上存放的位置-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://CRM-frame-0001:9800/hbase</value>
</property>
<!--指定hbase集群为分布式集群-->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!--指定zookeeper集群-->
<property>
<name>hbase.zookeeper.quorum</name>
<value>
CRM-frame-0001:2181,
CRM-frame-0002:2181,
CRM-frame-0003:2181
</value>
</property>
</configuration>
5. 新建backup-masters文件,并做修改
vi backup-masters
# 添加备用hbase-master
CRM-frame-0002
6. 修改regionservers配置文件,加入RegionServer节点列表
# 默认有一行localhost,删除
CRM-frame-0001
CRM-frame-0002
CRM-frame-0003
7. 把hadoop的配置文件core-site.xml和hdfs-site.xml复制到hbase的配置文件目录下
cp /app/hadoop-2.7.7/etc/hadoop/core-site.xml ./
cp /app/hadoop-2.7.7/etc/hadoop/hdfs-site.xml ./
8. 把hbase安装目录分发给其他节点
scp -r /app/hbase-2.0.5 CRM-frame-0002:/app/
scp -r /app/hbase-2.0.5 CRM-frame-0003:/app/
9. 在全部节点的环境变量配置文件中加入HBASE_HOME
export HBASE_HOME=/app/hbase-2.0.5
export PATH=$PATH:$HBASE_HOME/bin
10. 启动集群
(1) 首先启动zookeeper集群(zk已启动可忽略)
(2) 然后启动HDFS集群(hadoop已启动可忽略)
(3) 最后启动hbase集群
start-hbase.sh
11. 测试
(1) 查看进程启动情况
如果有节点相应的进程没有启动,那么可以手动启动
hbase-daemon.sh start master
hbase-daemon.sh start regionserver
(2) 访问WEB页面进行验证
10.21.14.164:16010
(3) 测试是否可以进入hbase命令行
./hbase shell