Linux环境下Hadoop集群中HBase的安装与配置指南

需积分: 49 9 下载量 112 浏览量 更新于2024-09-09 收藏 3.91MB DOCX 举报
"Hbase安装与配置的详细步骤以及Hadoop生态系统的相互作用" 在Hadoop生态系统中,HBase是一个重要的组件,它作为一个分布式数据库运行在Hadoop集群的HDFS之上。HDFS为HBase提供了高可用的底层存储,确保数据的持久化,而Hadoop的MapReduce则赋予HBase强大的计算能力。HBase自身则为整个集群提供了高效的数据存储和处理解决方案。 在开始HBase的安装和配置前,确保集群环境已经准备就绪,特别是系统时间同步。所有节点的时间必须保持一致,因为HBase依赖系统时间来生成时间戳,这是数据单元的重要属性。如果时间不一致,可能导致HBase无法正常启动。可以通过`sudo date –s "12SEPT201710:28:00"`这样的命令来同步系统时间。 接下来,我们关注Zookeeper的安装和配置。Zookeeper是HBase运行不可或缺的部分,它作为分布式协调服务,负责集群的同步和协调。首先,解压缩Zookeeper的安装包,通常放在集群Master节点的用户主目录下。然后,通过`tar –xzf zookeeper-3.4.5.tar.gz`命令解压,并用`mv`命令重命名目录。接着,进入`conf`目录,编辑`zoo_sample.cfg`文件,调整配置参数,如`tickTime`和`initLimit`,这些参数影响着Zookeeper的心跳机制和集群间的通信效率。 `tickTime`是Zookeeper的基本时间单位,所有其他时间设置都是它的倍数。它应该适中,过大可能导致超时时间增加,过小则可能使session过早超时并增加网络负载。`initLimit`则是Follower服务器与Leader建立连接时允许的最大心跳间隔数,超过这个限制,Zookeeper会认为连接失败。 HBase的安装通常包括下载HBase的二进制包,解压,配置环境变量,修改`hbase-site.xml`以定义HBase集群的相关属性,如Zookeeper的地址等。此外,还需要配置`hbase-env.sh`以设置JVM参数,例如堆大小和GC策略。 在所有节点上完成这些步骤后,启动Zookeeper,然后启动HBase。监控日志以确保所有服务都正常运行。一旦HBase集群启动成功,就可以开始测试和使用HBase的功能,如创建表,插入数据,进行查询等。 HBase的安装和配置涉及到多个层面,包括Hadoop集群的环境准备,Zookeeper的部署和配置,以及HBase自身的设置。理解这些步骤和背后的原理对于管理和优化HBase集群至关重要。在实际操作中,还需要注意网络、硬件资源和安全性的考虑,以确保HBase能够稳定、高效地服务于大数据处理需求。
2015-11-24 上传
Hbase的安装与配置 1、前提:要有装好的hdfs分布式文件系统和zookeeper集群 2、各台linux机器上传hbase安装包:hbase-0.98.12.1-hadoop2-bin.tar.gz 3、解压jar包:tar -zxvf hbase-0.98.12.1-hadoop2-bin.tar.gz 4、把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下: cd root/hadoop/etc/hadoop scp -r hdfs-site.xml /root/hbase-0.98.12.1-hadoop2/conf/ scp -r core-site.xml /root/hbase-0.98.12.1-hadoop2/conf/ 4、配置hbase集群,要修改3个文件(首先zk集群已经安装好了) 5、修改hbase-env.sh export JAVA_HOME=/usr/java/jdk1.7.0_xxx (1)、告诉hbase使用外部的zk export HBASE_MANAGES_ZK=false 6、修改vim hbase-site.xml <property> <name>hbase.rootdir</name> <value>hdfs://namenade/hbase</value>//this is your real nodename. </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/opt/zookeeper</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>node11,node12,node13</value> </property> 7、修改vim regionservers (指定regionserver) Node11 node12 node13 8、指定 standby 的hbase的副节点,注意:该文件不存在,需要创建 vim backup-masters Node12 9、拷贝hbase到其他节点或机器 Cd /root/hbase-0.98.12.1-hadoop2 scp -r conf node12:/root/hbase-0.98.12.1-hadoop2/ scp -r conf node13:/root/hbase-0.98.12.1-hadoop2/ 10、设置私钥并同步时间。 11、启动所有的hbase (1)、分别启动zk /home/zookeeper-xxx/bin/./zkServer.sh start (2)、启动hdfs集群 /root/hadoop/sbin/./start-dfs.sh (3)、启动hbase,在主节点上运行: /root/hbase-0.98.12.1-hadoop2/bin/./start-hbase.sh 12、通过浏览器访问hbase管理页面 Node11:60010 Node12:60010 Node11:50070 Node12:50070 13、为保证集群的可靠性,要启动多个HMaster hbase-daemon.sh start master

org.apache.hadoop.hbase.DoNotRetryIOException: Unable to load configured region split policy 'org.apache.phoenix.schema.MetaDataSplitPolicy' for table 'SYSTEM.CATALOG' Set hbase.table.sanity.checks to false at conf or table descriptor if you want to bypass sanity checks at org.apache.hadoop.hbase.util.TableDescriptorChecker.warnOrThrowExceptionForFailure(TableDescriptorChecker.java:296) at org.apache.hadoop.hbase.util.TableDescriptorChecker.sanityCheck(TableDescriptorChecker.java:109) at org.apache.hadoop.hbase.master.HMaster.createTable(HMaster.java:2025) at org.apache.hadoop.hbase.master.MasterRpcServices.createTable(MasterRpcServices.java:657) at org.apache.hadoop.hbase.shaded.protobuf.generated.MasterProtos$MasterService$2.callBlockingMethod(MasterProtos.java) at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:413) at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:133) at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:338) at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:318) org.apache.hadoop.hbase.DoNotRetryIOException: Unable to load configured region split policy 'org.apache.phoenix.schema.MetaDataSplitPolicy' for table 'SYSTEM.CATALOG' Set hbase.table.sanity.checks to false at conf or table descriptor if you want to bypass sanity checks at org.apache.hadoop.hbase.util.TableDescriptorChecker.warnOrThrowExceptionForFailure(TableDescriptorChecker.java:296) at org.apache.hadoop.hbase.util.TableDescriptorChecker.sanityCheck(TableDescriptorChecker.java:109) at org.apache.hadoop.hbase.master.HMaster.createTable(HMaster.java:2025) at org.apache.hadoop.hbase.master.MasterRpcServices.createTable(MasterRpcServices.java:657) at org.apache.hadoop.hbase.shaded.protobuf.generated.MasterProtos$MasterService$2.callBlockingMethod(MasterProtos.java) at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:413) at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:133) at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:338) at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:318)

2023-07-14 上传