Apache HBase配置

《Apache HBase配置》要点:
本文介绍了Apache HBase配置,希望对您有用。如果有疑问,可以联系我们。

Apache HBase使用与Apache Hadoop相同的配置系统.所有配置文件都位于conf /目录中,该目录需要为集群中的每个节点坚持同步.

HBase配置文件阐明

  • 备份主机

  • 默认情况下不存在.一个纯文本文件,列出主机应启动备份主过程的主机,每行一个主机.

  • hadoop-metrics2-hbase.properties

  • 用于连接HBase Hadoop的Metrics2框架.有关Metrics2的更多信息,请参阅Hadoop Wiki条目.默认情况下仅包括已注释的示例.

  • hbase-env.cmd和hbase-env.sh

  • 用于Windows和Linux / Unix环境的脚本,用于为HBase设置工作环境,包括Java,Java选项和其他环境变量的位置.该文件包括许多注释的示例,以提供指导.

  • hbase-policy.xml中

  • RPC服务器用于对客户端哀求进行授权决策的默认策略配置文件.仅在启用HBase 安全性的情况下使用.

  • hbase-site.xml

  • 主HBase配置文件.此文件指定覆盖HBase的默认配置的配置选项.您可以查看(但不要编纂)docs / hbase-default.xml中的默认配置文件.您还可以在HBase Web UI 的HBase Configuration选项卡中查看集群的整个有效配置(缺省和覆盖).

  • log4j.properties

  • 用于HBase日志记录的配置文件log4j.

  • 区域服务器

  • 包括应在HBase集群中运行RegionServer的主机列表的纯文本文件.默认情况下,此文件包括单个条目localhost.它应该包括主机名或IP地址的列表,每行一个,并且应该包括localhost如果您的集群中的每个节点在其接口上运行一个localhostRegionServer.


检查XML有效性当您编辑XML时,最好使用支持XML的编辑器来确保您的语法是正确的,并且XML格式正确.您还可以使用该xmllint实用程序检查XML是否格式正确.默认情况下,xmllint返回并将XML打印到标准输出.要检查良好的结构,并且只有打印输出,如果错误存在,请使用命令xmllint -noout filename.xml.

保持配置在群集中同步在分布式模式下运行时,在对HBase配置进行编辑后,请确保将conf /目录的内容复制到集群的所有节点.HBase不会为你做这个.使用rsync,scp或另一种平安机制将配置文件复制到节点.对于大多数配置,服务器需要重新启动以接收更改异常是动态配置.将在下面描述.

4.基本先决条件

本节列出所需的服务和一些必须的系统配置.

表2. Java

HBase版本JDK 6JDK 7JDK 8
2.0不支持不支持
1.3不支持
1.2不支持
1.1不支持运行JDK 8将工作,但没有很好的测试.
1.0不支持运行JDK 8将工作,但没有很好的测试.
0.98使用JDK 8运行但没有很好的测试.使用JDK 8构建将需要删除类的已弃用的remove()办法,PoolMap并正在考虑中.有关JDK 8支持的更多信息,请参阅 HBASE-7608.
0.94N / A

在HBase 0.98.5及更高版本中,必须JAVA_HOME在集群的每个节点上设置.hbase-env.sh提供了一个方便的机制来做到这一点.

操作系统实用程序

  • ssh

  • HBase广泛使用平安Shell(ssh)命令和实用程序在集群节点之间进行通信.集群中的每个服务器必须运行ssh,以便可以管理Hadoop和HBase后台驻留程序.您必须能够使用共享密钥而不是密码,通过SSH(包括本地节点)从主服务器以及任何备份主服务器连接到所有节点.您可以在“ 过程:配置无密码SSH访问 ” 中查看Linux或Unix系统中此类设置的基本方法.如果集群节点使用OS X,请参阅Hadoop wiki上的“ SSH:设置远程桌面和启用自助登录 ”一节.

  • DNS

  • HBase使用本地主机名自行申报其IP地址.正向和反向DNS解析必须在0.92.0之前的HBase版本中工作.在Hadoop的DNS检查器工具,可以用来验证DNS在群集上正常工作.项目README文件提供有关使用的详细说明.

  • 环回IP

  • 在hbase-0.96.0之前,HBase只使用IP地址127.0.0.1来引用localhost,并且这不能被配置.有关详细信息,请参阅环回IP.

  • NTP

  • 群集节点上的时钟应该同步.少量的变化是可以接受的,但更大的偏斜量可能导致不稳定和意想不到的行为.时间同步是在集群中看到无法解释的问题的首要检查之一.建议在集群上运行网络时间协议(NTP)服务或另一个时间同步机制,而且所有节点都查看同一服务以进行时间同步.请参阅基本NTP配置在Linux文档项目(TLDP)设置NTP.

  • 文件和进程数量限制(ulimit)

  • Apache HBase是一个数据库.它必要能够一次打开大量的文件.许多Linux发行版限制了允许单个用户打开的文件数1024(或者256在较旧版本的OS X上).您可以ulimit -n在运行HBase的用户登录时通过运行该命令在服务器上检查此限制.如果限制太低,可能会遇到一些问题,请参阅“疑难解答”部分.您也可能会注意到以下错误:

    2010-04-06 03:04:37,542 INFO org.apache.hadoop.hdfs.DFSClient:Exception increateBlockOutputStream java.io.EOFException 2010-04-06 03:04:37,542 INFO org.apache.hadoop.hdfs.DFSClient:放弃块blk_-6935524980745310745_1391901

    建议将ulimit提高到至少10,000,但更可能是10,240,因为该值通常用1024的倍数表现.每个ColumnFamily都至少有一个StoreFile,如果该区域有负载,则可能有多于六个StoreFiles.所需打开文件的数量取决于ColumnFamilies的数量和区域数量.以下是计算RegionServer上打开文件的可能数量的粗略公式.

    计算打开文件的可能数

    (StoreFiles per ColumnFamily)x(每个RegionServer的区域)

    例如,假设一个模式每个区域有3个ColumnFamilies,每个ColumnFamily平均有3个StoreFiles,并且每个RegionServer有100个区域,JVM将打开3 * 3 * 100 = 900文件描述符,而不是打开JAR文件,配置文件和其他文件.打开文件不必要很多资源,允许用户打开太多文件的风险极小.

    另一个相关设置是允许用户一次运行的进程数.在Linux和Unix中,使用ulimit -u命令设置进程数.这不该该与nproc命令混淆,该命令控制给定用户可用的CPU的数量.在负载下,ulimit -u太低可能导致OutOfMemoryError异常.请参阅杰克·莱文的主要HDFS问题线程在hbase用户邮件列表,从2011年.

    为运行HBase进程的用户配置最大文件描述符和进程数是操作系统配置,而不是HBase配置.确保为实际运行HBase的用户变动设置也很重要.要查看哪个用户启动HBase和该用户的ulimit配置,请查看该实例的HBase日志的第一行.对hadoop集群有用的读设置配置是Aaron Kimball的配置参数:你可以忽略什么?

    示例5. ulimitUbuntu上的设置

    要在Ubuntu上配置ulimit设置,请编纂/etc/security/limits.conf,它是一个由四列组成的以空格分隔的文件.有关此文件格式的详细信息,请参阅limits.conf的手册页.在以下示例中,第一行为使用用户名hadoop的操作系统用户将打开文件(nofile)的软限制和硬限制设置为32768.第二行将同一用户的进程数设置为32000.

    hadoop - nofile 32768 hadoop - nproc 32000

    仅当可插入认证模块(PAM)环境指向使用这些设置时,才应用这些设置.要配置PAM以使用这些限制,请确保/etc/pam.d/common-session文件包括以下行:

    session required pam_limits.so
  • Linux Shell

  • HBase附带的所有shell脚本都依赖于GNU Bash shell.

  • 视窗

  • 在HBase 0.96之前,在Microsoft Windows上运行HBase的测试有限.对于生产系统不建议在Windows节点上运行.

4.1.Hadoop

下表总结了每个版本的HBase支持的Hadoop的版本.基于HBase的版本,您应该选择最得当的Hadoop版本.您可以使用Apache Hadoop或供应商的Hadoop发行版.这里不作区分.有关Hadoop供应商的信息,请参阅Hadoop wiki.


建议使用Hadoop 2.x.Hadoop 2.x更快,并且包含短路读取等功能,这将有助于提高您的HBase随机读取配置文件.Hadoop 2.x还包含重要的错误修复,将提高您的整体HBase体验.HBase 0.98下降对Hadoop 1.0的支持,不推荐使用Hadoop 1.1+,而HBase 1.0将不支持Hadoop 1.x.

使用以下图例解释此表:

Hadoop版本支持矩阵

  • “S”=支持

  • “X”=不支持

  • “NT”=未测试


HBase-0.94.xHBase-0.98.x(不保举支持Hadoop 1.1+).HBase-1.0.x(不支持Hadoop 1.x)HBase-1.1.xHBase-1.2.xHBase-1.3.xHBase-2.0.x
Hadoop-1.0.xXXXXXXX
Hadoop-1.1.xSNTXXXXX
Hadoop-0.23.xSXXXXXX
Hadoop-2.0.x-alphaNTXXXXXX
Hadoop-2.1.0-betaNTXXXXXX
Hadoop-2.2.0NTSNTNTXXX
Hadoop-2.3.xNTSNTNTXXX
Hadoop-2.4.xNTSSSSSX
Hadoop-2.5.xNTSSSSSX
Hadoop-2.6.0XXXXXXX
Hadoop-2.6.1 +NTNTNTNTSSS
Hadoop-2.7.0XXXXXXX
Hadoop-2.7.1 +NTNTNTNTSSS

Hadoop Pre-2.6.1和JDK 1.8 Kerberos当在Kerberos环境中使用2.6.1之前的Hadoop版本和JDK 1.8时,HBase服务器可能会失败并由于Kerberos keytab重新登录错误而中止.晚期版本的JDK 1.7(1.7.0_80)也有问题.有关其他详细信息,请参阅HADOOP-10786.在这种情况下,请考虑升级到Hadoop 2.6.1+.

Hadoop 2.6.x基于2.6.X的线的Hadoop发行版必须有 HADOOP-11710应用,如果你打算在一个HDFS加密区之上运行HBase的.否则将导致集群故障和数据丢失.此修补程序存在于Apache Hadoop 2.6.1+版本中.

Hadoop 2.7.xHadoop版本2.7.0未经测试或支持,因为Hadoop PMC已将该版本显式标记为不稳定.

替换与HBase捆绑的Hadoop!因为HBase依赖于Hadoop,它将Hadoop jar的一个实例捆绑在其lib目录下.捆绑的jar仅用于独立模式.在分布式模式下,至关重要的是,您的集群上的Hadoop版本与HBase下的版本相匹配.将HBase lib目录中找到的hadoop jar替换为您的群集上运行的hadoop jar,以避免版本不匹配问题.确保在集群中的任何地方替换HBase中的jar.Hadoop版本不匹配问题有各种表现,但往往都看起来像它挂了.

4.1.1.Apache HBase 0.94与Hadoop 2

要使0.94.x在Hadoop 2.2.0上运行,您必要在pom.xml中更改hadoop 2和protobuf版本:这里是一个与pom.xml更改的差异:

$ svn diff pom.xml Index: pom.xml =================================================================== --- pom.xml (revision 1545157) +++ pom.xml (working copy) @@ -1034,7 +1034,7 @@ <slf4j.version>1.4.3</slf4j.version> <log4j.version>1.2.16</log4j.version> <mockito-all.version>1.8.5</mockito-all.version> - <protobuf.version>2.4.0a</protobuf.version> + <protobuf.version>2.5.0</protobuf.version> <stax-api.version>1.0.1</stax-api.version> <thrift.version>0.8.0</thrift.version> <zookeeper.version>3.4.5</zookeeper.version> @@ -2241,7 +2241,7 @@ </property> </activation> <properties> - <hadoop.version>2.0.0-alpha</hadoop.version> + <hadoop.version>2.2.0</hadoop.version> <slf4j.version>1.6.1</slf4j.version> </properties> <dependencies>

下一步是重新生成Protobuf文件并假设Protobuf已经安装:

  • 使用命令行转到HBase根文件夹;

  • 键入以下命令:

    $ protoc -Isrc/main/protobuf --java_out=src/main/java src/main/protobuf/hbase.proto
    $ protoc -Isrc/main/protobuf --java_out=src/main/java src/main/protobuf/ErrorHandling.proto

通过运行类似以下命令来构建hadoop 2配置文件:

$ mvn clean install assembly:single -Dhadoop.profile = 2.0 -DskipTests

4.1.2.Apache HBase 0.92和0.94

HBase 0.92和0.94版本可以与Hadoop版本(0.20.205,0.22.x,1.0.x和1.1.x)一起使用.HBase-0.94还可以使用Hadoop-0.23.x和2.x,但是您可能必需使用特定的maven配置文件重新编译代码(参见顶级pom.xml)

4.1.3.Apache HBase 0.96

从Apache HBase 0.96.x开始,至少需要Apache Hadoop 1.0.x.强烈鼓励Hadoop 2(更快,但也有赞助MTTR的修复).我们将不再在较旧的Hadoops上正常运行,例如0.20.205或branch-0.20-append.如果您无法升级Hadoop,请不要移动到Apache HBase 0.96.x.参见HBase,mail#dev - DISCUSS:hbase要求至少hadoop 1.0.0在hbase 0.96.0?

4.1.4.Hadoop版本0.20.x - 1.x

不要将年夜于2.2.0的Hadoop版本用于年夜于1.0的HBase版本.如果您使用的是旧版本的HBase for Hadoop相关信息,请查看发行文档.

4.1.5.Apache Hbase平安Hadoop

Apache HBase将在任何并入Hadoop平安功能的Hadoop 0.20.x上运行,只要您像上面建议的那样,并用平安版本替换HBase附带的Hadoop jar.如果要阅读有关如何设置Secure HBase的更多信息,请参阅hbase.secure.configuration.

4.1.6. dfs.datanode.max.transfer.threads

HDFS DataNode具有在任何时间将要服务的文件数量的上限.在执行任何加载之前,请确保您已配置Hadoop的conf / hdfs-site.xml,将dfs.datanode.max.transfer.threads值设置为至少以下值:

<property> <name>dfs.datanode.max.transfer.threads</name> <value>4096</value> </property>

进行上述配置后,请务必重新启动HDFS.

没有这个配置就会造成奇怪的故障.一种表示形式是关于缺失区块的投诉.例如:

10/12/08 20:10:31 INFO hdfs.DFSClient:无法获取块 blk_XXXXXXXXXXXXXXXXXXXXXX_YYYYYYYY来自任何节点:java.io.IOException:没有活动节点 包括当前块.将从namenode获取新的块位置并重试...

另请参见casestudies.max.transfer.threads并注意,此属性以前称为dfs.datanode.max.xcievers(例如Hadoop HDFS:由Xciever欺骗).

4.2.ZooKeeper要求

从HBase 1.0.0起,需要ZooKeeper 3.4.x.HBase利用multi只有从Zookeeper 3.4.0可用的功能.该hbase.zookeeper.useMulti配置属性默认为true在HBase的1.0.0.参考HBASE-12241(当服务器复制队列中断时复制时regionServer崩溃)和HBASE-6775(当HBASE-6710 0.92 / 0.94兼容性修复时使用ZK.multi)作为配景.该属性已弃用,并且在HBase 2.0中始终启用useMulti.

本日的学习就到这里,明天我们将学习

HBase运行模式:自力和分布式

《Apache HBase配置》是否对您有启发,欢迎查看更多与《Apache HBase配置》相关教程,学精学透。编程之家PHP学院为您提供精彩教程。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


可以认为OpenFeign是Feign的增强版,不同的是OpenFeign支持Spring MVC注解。OpenFeign和Feign底层都内置了Ribbon负载均衡组件,在导入OpenFeign依赖后无需专门导入Ribbon依赖,用做客户端负载均衡,去调用注册中心服务。
为进一步规范小程序交易生态、提升用户购物体验、满足用户在有交易的小程序中便捷查看订单信息的诉求,自2022年12月31日起,对于有“选择商品/服务-下单-支付”功能的小程序,需按照平台制定的规范,在小程序内设置订单中心页。开发者可通过小程序代码提审环节,或通过「设置-基础设置-小程序订单中心path设置」模块设置订单中心页path。1、 新注册或有版本迭代需求的小程序,可在提审时通过参数配置该商家小程序的订单中心页path。2、无版本迭代需求的小程序,可在小程序订单中心path设置入口进行设置。
云原生之使用Docker部署Dashdot服务器仪表盘
本文主要描述TensorFlow之回归模型的基本原理
1.漏洞描述Apache Druid 是一个集时间序列数据库、数据仓库和全文检索系统特点于一体的分析性数据平台。Apache Druid对用户指定的HTTP InputSource没有做限制,并且Apache Druid默认管理页面是不需要认证即可访问的,可以通过将文件URL传递给HTTP InputSource来绕过。因此未经授权的远程攻击者可以通过构造恶意参数读取服务器上的任意文件,造成服务器敏感性信息泄露。2.影响版本Apache Druid &lt;= 0.21.13...
内部类(当作类中的一个普通成员变量,只不过此成员变量是class的类型):一个Java文件中可以包含多个class,但是只能有一个public class 如果一个类定义在另一个类的内部,此时可以称之为内部类使用:创建内部类的时候,跟之前的方法不一样,需要在内部类的前面添加外部类来进行修饰 OuterClass.InnerClass innerclass = new OuterClass().new InnerClass();特点:1.内部类可以方便的访问外部类的私有属性...
本文通过解读国密的相关内容与标准,呈现了当下国内技术环境中对于国密功能支持的现状。并从 API 网关 Apache APISIX 的角度,带来有关国密的探索与功能呈现。作者:罗泽轩,Apache APISIX PMC什么是国密顾名思义,国密就是国产化的密码算法。在我们日常开发过程中会接触到各种各样的密码算法,如 RSA、SHA256 等等。为了达到更高的安全等级,许多大公司和国家会制定自己的密码算法。国密就是这样一组由中国国家密码管理局制定的密码算法。在国际形势越发复杂多变的今天,密码算法的国产化
CENTOS环境Apache最新版本httpd-2.4.54编译安装
Apache HTTPD是一款HTTP服务器,它可以通过mod_php来运行PHP网页。影响版本:Apache 2.4.0~2.4.29 存在一个解析漏洞;在解析PHP时,将被按照PHP后缀进行解析,导致绕过一些服务器的安全策略。我们查看一下配置:读取配置文件,前三行的意思是把以 结尾的文件当成 文件执行。问题就在它使用的是 符号匹配的,我们都知道这个符号在正则表达式中的意思是匹配字符串的末尾,是会匹配换行符的,那么漏洞就这样产生了。 进入容器里,打开index.php,发现如果文件后缀名为 php、
apache Hop现在好像用的人很少, 我就自己写一个问题收集的帖子吧, 后面在遇到什么问题都会在该文章上同步更新
2.启动容器ps:注意端口占用,当前部署在 8080 端口上了,确保宿主机端口未被占用,不行就换其他端口ps:用户名和密码都是 admin,一会用于登录,其他随便填5.下载一个官方提供的样例数据库【可跳过】ps:此步国内无法访问,一般下载不了,能下的就下,不能下的跳过就行了,一会配置自己的数据库7.访问登录页面ps:注意端口是上面自己配置的端口,账号密码是 admin依次点击 Settings → Database Connections点击 DATABASE 就可以配置自己的数据库了
String类的常用方法1. String类的两种实例化方式1 . 直接赋值,在堆上分配空间。String str = "hello";2 . 传统方法。通过构造方法实例化String类对象String str1 = new String("Hello");2.采用String类提供的equals方法。public boolean equals(String anotherString):成员方法 str1.equals(anotherString);eg:publi
下载下载地址http://free.safedog.cn下载的setup:安装点击下面的图标开始安装:可能会提示:尝试先打开小皮面板的Apache服务:再安装安全狗:填入服务名:如果服务名乱写的话,会提示“Apache服务名在此机器上查询不到。”我干脆关闭了这个页面,直接继续安装了。安装完成后,需要进行注册一个账户,最后看到这样的界面:查看配置:...
一、问题描述一组生产者进程和一组消费者进程共享一个初始为空、大小n的缓冲区,只有缓冲区没满时,生产者才能把资源放入缓冲区,否则必须等待;只有缓冲区不为空时,消费者才能从中取出资源,否则必须等待。由于缓冲区是临界资源,它只允许一个生产者放入资源,或一个消费者从中取出资源。二、问题分析(1)、关系分析。生产者和消费者对缓冲区互斥访问是互斥关系,同时生产者和消费者又是一个相互协作的关系,只有生产者生产之后,消费者只能才能消费,它们还是同步关系。(2)、整理思路。只有生产生产者和消费者进程,正好是这两个进程
依赖注入的英文名是Dependency Injection,简称DI。事实上这并不是什么新兴的名词,而是软件工程学当中比较古老的概念了。如果要说对于依赖注入最知名的应用,大概就是Java中的Spring框架了。Spring在刚开始其实就是一个用于处理依赖注入的框架,后来才慢慢变成了一个功能更加广泛的综合型框架。我在学生时代学习Spring时产生了和绝大多数开发者一样的疑惑,就是为什么我们要使用依赖注入呢?现在的我或许可以给出更好的答案了,一言以蔽之:解耦。耦合度过高可能会是你的项目中一个比较
<dependency><groupId>org.apache.velocity</groupId><artifactId>velocity-engine-core</artifactId><version>使用人数最多的版本</version></dependency>importorg.apache.velocity.Template;importorg.apache.velo
Java Swing皮肤包前言:一.皮肤包分享二.皮肤包的使用1.先新建一个项目。2.导入皮肤包1.先导入我们刚刚下载的jar文件,右键项目demo即可2.如果右键没有这个选项,记得调为下图模式3.点击下图蓝色圆圈处4.找到刚刚下载的jar文件,点击打开即可5.我们看一下效果,是不是比原生的好看前言:因为Java Swing自身皮肤包不是很好看,甚至有点丑,怎么让你的界面更加好看,这里就需要用到皮肤包,我发现了一个还不错的皮肤包,让你的界面美观了几个等级。废话不多说。一.皮肤包分享百度网盘分享链接:
一、前言在做Java项目开发过程中,涉及到一些数据库服务连接配置、缓存服务器连接配置等,通常情况下我们会将这些不太变动的配置信息存储在以 .properties 结尾的配置文件中。当对应的服务器地址或者账号密码信息有所变动时,我们只需要修改一下配置文件中的信息即可。同时为了让Java程序可以读取 .properties配置文件中的值,Java的JDK中提供了java.util.Properties类可以实现读取配置文件。二、Properties类Properties 类位于 java.util.Pro
Mybatis环境JDK1.8Mysql5.7maven 3.6.1IDEA回顾JDBCMysqlJava基础MavenJunitSSM框架:配置文件的最好的方式:看官网文档Mybatis1、Mybatis简介1.1 什么是Mybatis如何获得Mybatismaven仓库:中文文档:https://mybatis.org/mybatis-3/zh/index.htmlGithub:1.2 持久化数据持久化持久化就是将程序的数据在持久状态和瞬时状态转