Apache HBase HadoopCompat API中英对照版文档发布

版权申诉
0 下载量 79 浏览量 更新于2024-10-04 收藏 620KB ZIP 举报
资源摘要信息:"HBase Hadoop Compat 1.2.12 API文档-中英对照版.zip" Apache HBase是一个开源的非关系型分布式数据库(NoSQL),它是Apache Software Foundation的项目之一,建立在Hadoop文件系统(HDFS)之上。HBase借鉴了谷歌Bigtable的设计,提供了海量数据的存储和实时访问能力。Hadoop是一个由Apache基金会开发的开源框架,它允许通过简单的编程模型来处理大规模数据集的存储和分析问题。 文档中提到的“hbase-hadoop-compat-1.2.12.jar”是一个兼容包,它确保了HBase的某些版本可以与Hadoop的不同版本兼容。在分布式环境中,各个组件之间的兼容性是非常关键的,以保证数据的一致性和处理的高效性。 在描述中提及的其他jar包文件包括: - hbase-hadoop-compat-1.2.12-javadoc.jar,这个文件包含了Java文档注释,是API的参考手册,用于查看和理解HBase API的用途和方法。 - hbase-hadoop-compat-1.2.12-sources.jar,这个文件包含了HBase代码的源文件,开发者可以通过它来理解和调试HBase的源代码。 - hbase-hadoop-compat-1.2.12.pom,这是Maven的项目对象模型文件(POM),提供了项目的信息和配置细节,它能够帮助开发者使用Maven来管理构建过程,添加依赖等。 关于Maven坐标(org.apache.hbase:hbase-hadoop-compat:1.2.12)的说明,坐标是Maven中用于唯一标识一个项目组(groupId)、项目名(artifactId)和版本号(version)的标识符,这使得在Maven仓库中可以精确地定位到特定的项目。 此外,资源中还特别强调了“中英对照文档”的特点,这样的文档适合在学习技术的同时提升英语水平,非常适合非英语母语的技术人员。 使用方法部分说明了如何利用该资源。首先需要解压文件,解压后会得到一个或多个文件夹或文件。按照描述,解压后需要在文件中找到“index.html”文件,并通过浏览器打开它。通常,这会打开一个基于Web的界面,让你能够通过标准的网页浏览方式查看API文档内容。这种查阅方式对于开发者来说非常方便,可以快速搜索、跳转到指定的类或方法,以及查看方法的详细说明、参数、返回类型和异常信息等。 最后,描述中提到了“人性化翻译”,意味着文档中的代码实例和结构保持原样,而注释和说明则经过了精确翻译。这样既保证了原文档结构的一致性,也提高了英文技术文档的可读性,尤其是对中文读者而言。这可以确保无论是开发人员还是英语学习者,都能在学习HBase技术的同时,提高对技术英文资料的理解能力。 综上,提供的资源是一个全面的HBase Hadoop兼容包,包含了API文档、源代码、Maven依赖信息等,非常适合想要深入学习HBase以及Hadoop兼容性知识的开发者和技术人员使用。

23/07/23 16:19:48 ERROR AsyncProcess: Failed to get region location org.apache.hadoop.hbase.DoNotRetryIOException: java.lang.NoClassDefFoundError: Could not initialize class org.apache.hadoop.hbase.util.ByteStringer at org.apache.hadoop.hbase.client.RpcRetryingCaller.translateException(RpcRetryingCaller.java:241) at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithoutRetries(RpcRetryingCaller.java:214) at org.apache.hadoop.hbase.client.ScannerCallableWithReplicas$RetryingRPC.call(ScannerCallableWithReplicas.java:364) at org.apache.hadoop.hbase.client.ScannerCallableWithReplicas$RetryingRPC.call(ScannerCallableWithReplicas.java:338) at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:137) at org.apache.hadoop.hbase.client.ResultBoundedCompletionService$QueueingFuture.run(ResultBoundedCompletionService.java:65) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748) Caused by: java.lang.NoClassDefFoundError: Could not initialize class org.apache.hadoop.hbase.util.ByteStringer at org.apache.hadoop.hbase.protobuf.RequestConverter.buildRegionSpecifier(RequestConverter.java:1041) at org.apache.hadoop.hbase.protobuf.RequestConverter.buildScanRequest(RequestConverter.java:492) at org.apache.hadoop.hbase.client.ClientSmallReversedScanner$SmallReversedScannerCallable.call(ClientSmallReversedScanner.java:291) at org.apache.hadoop.hbase.client.ClientSmallReversedScanner$SmallReversedScannerCallable.call(ClientSmallReversedScanner.java:276) at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithoutRetries(RpcRetryingCaller.java:212) ... 7 more

294 浏览量

org.apache.hadoop.hbase.DoNotRetryIOException: Unable to load configured region split policy 'org.apache.phoenix.schema.MetaDataSplitPolicy' for table 'SYSTEM.CATALOG' Set hbase.table.sanity.checks to false at conf or table descriptor if you want to bypass sanity checks at org.apache.hadoop.hbase.util.TableDescriptorChecker.warnOrThrowExceptionForFailure(TableDescriptorChecker.java:296) at org.apache.hadoop.hbase.util.TableDescriptorChecker.sanityCheck(TableDescriptorChecker.java:109) at org.apache.hadoop.hbase.master.HMaster.createTable(HMaster.java:2025) at org.apache.hadoop.hbase.master.MasterRpcServices.createTable(MasterRpcServices.java:657) at org.apache.hadoop.hbase.shaded.protobuf.generated.MasterProtos$MasterService$2.callBlockingMethod(MasterProtos.java) at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:413) at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:133) at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:338) at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:318) org.apache.hadoop.hbase.DoNotRetryIOException: Unable to load configured region split policy 'org.apache.phoenix.schema.MetaDataSplitPolicy' for table 'SYSTEM.CATALOG' Set hbase.table.sanity.checks to false at conf or table descriptor if you want to bypass sanity checks at org.apache.hadoop.hbase.util.TableDescriptorChecker.warnOrThrowExceptionForFailure(TableDescriptorChecker.java:296) at org.apache.hadoop.hbase.util.TableDescriptorChecker.sanityCheck(TableDescriptorChecker.java:109) at org.apache.hadoop.hbase.master.HMaster.createTable(HMaster.java:2025) at org.apache.hadoop.hbase.master.MasterRpcServices.createTable(MasterRpcServices.java:657) at org.apache.hadoop.hbase.shaded.protobuf.generated.MasterProtos$MasterService$2.callBlockingMethod(MasterProtos.java) at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:413) at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:133) at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:338) at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:318)

380 浏览量