自定义HBase负载均衡器MyCustomBalancer实现步骤与代码解析

目录

1.HBase默认负载均衡策略

1.1 负载均衡总体流程

1.2 不能触发负载均衡的情况

1.3 负载均衡算法

2.自定义的 HBase 负载均衡器的步骤

3.MyCustomBalancer的代码细节 

3.1 balanceCluster 方法的作用

3.2balanceCluster 对数据的影响

3.3监控HBase的性能指标

3.3.1 指标介绍

3.3.2 新建 run_canary.sh 的脚本

3.3.3 cron 作业定期执行脚本 

3.3.4 解析 Canary 输出

4.注意事项

5.相关资料 


1.HBase默认负载均衡策略

HBase通过Region的数量实现负载均衡,即通过hbase.master.loadbalancer.class实现自定义负载均衡算法。下面将为大家剖析HBase负载均衡的相关内容以及性能指标。

1.1 负载均衡总体流程

1.2 不能触发负载均衡的情况

HBase系统负载均衡是一个周期性的操作,通过负载均衡来均匀分配Region到各个RegionServer上,通过hbase.balancer.period属性来控制负载均衡的时间间隔,默认是5分钟。触发负载均衡操作是有条件的,但是如果发生以下情况则不会触发负载均衡操作:

  • 负载均衡自动操作balance_switch关闭,即:balance_switch false;
  • HBase Master节点正在初始化操作;
  • HBase集群中正在执行RIT,即Region正在迁移中;
  • HBase集群正在处理离线的RegionServer;

1.3 负载均衡算法

HBase执行负载均衡操作的时候,如何判断各个RegionServer节点上的Region个数是否均衡,这里通过以下步骤来判断

  1. 计算均衡值的区间范围,通过总Region个数以及RegionServer节点个数,算出平均Region个数,然后在此基础上计算最小值和最大值;
  2. 遍历超过Region最大值的RegionServer节点,将该节点上的Region值迁移出去,直到该节点的Region个数小于等于最大值的Region;
  3. 遍历低于Region最小值的RegionServer节点,分配集群中的Region到这些RegionServer上,直到大于等于最小值的Region;
  4. 负责上述操作,直到集群中所有的RegionServer上的Region个数在最小值与最大值之间,集群才算到达负载均衡,之后,即使再次手动执行均衡命令,HBase底层逻辑判断会执行忽略操作 

2.自定义的 HBase 负载均衡器的步骤

集群规模大了以后需要更多细粒度的监控和负载均衡,这个时候需要考虑自定义的 HBase 负载均衡器。要使自定义的 HBase 负载均衡器 MyCustomBalancer 生效,需要进行几个步骤:

  1. 编译和打包:首先,您需要将 MyCustomBalancer 类编译并打包成一个 JAR 文件。这个 JAR 文件应该包含您自定义的负载均衡器类以及可能的任何依赖。

  2. 部署 JAR 文件:将编译好的 JAR 文件放置在 HBase 集群中的所有节点上。通常,这意味着需要将 JAR 文件放置在每个节点的 HBase lib 目录下(例如 /path/to/hbase/lib/)。

  3. 更新 HBase 配置:在 HBase 的配置文件 hbase-site.xml 中指定您的自定义负载均衡器类。这告诉 HBase 使用您的负载均衡器而不是默认的。在每个 HBase 节点的配置文件中添加以下配置:

    <property>
      <name>hbase.master.loadbalancer.class</name>
      <value>your.package.MyCustomBalancer</value>
    </property>
    

    请确保 <value> 中的值匹配您的自定义负载均衡器类的完全限定名。

  4. 重启 HBase 集群:更改配置文件后,您需要重启 HBase 集群,以便更改生效。这通常涉及重启 HBase Master 和所有的 RegionServer。

  5. 验证:重启 HBase 服务后,验证自定义负载均衡器是否正在使用。您可以通过查看 HBase Master 的日志来确认是否已成功加载自定义负载均衡器。

3.MyCustomBalancer的代码细节 

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.ServerName;
import org.apache.hadoop.hbase.client.RegionInfo;
import org.apache.hadoop.hbase.master.LoadBalancer;
import org.apache.hadoop.hbase.master.balancer.BaseLoadBalancer;

import java.util.ArrayList;
import java.util.List;
import java.util.Map;

public class MyCustomBalancer extends BaseLoadBalancer {
    

    private CanaryDataCollector dataCollector = new CanaryDataCollector();


    @Override
    public void setConf(Configuration conf) {
        super.setConf(conf != null ? conf : HBaseConfiguration.create());
    }

    @Override
    public void initialize() throws HBaseIOException {
        // 初始化,可以在这里实现一些监控逻辑
    }

    @Override
    public List<RegionPlan> balanceCluster(Map<ServerName,List<RegionInfo>> clusterState) {

        // 1. 从 Canary 数据收集器获取延时数据
        Map<RegionInfo,Long> regionDelays = dataCollector.getRegionDelays();


        // 2. 分析和决策
        List<RegionPlan> plans = new ArrayList<>();
        if (需要负载均衡) {
            // 3. 计算出最优的Region迁移方案
            for (Map.Entry<ServerName,List<RegionInfo>> entry : clusterState.entrySet()) {
                ServerName server = entry.getKey();
                List<RegionInfo> regions = entry.getValue();

                for (RegionInfo region : regions) {
                    // 假设逻辑:如果一个 RegionServer 上的 Region 数量超过某个阈值,则迁移一部分 Regions
                     Long delay = regionDelays.get(region);
                     // 如果延时超过阈值,生成迁移计划
                     if (delay != null && delay > THRESHOLD) {
                      
                         // 选择一个目标 ServerName 并创建 RegionPlan
                         ServerName targetServer = ...; // 选择一个目标服务器
                         RegionPlan plan = new RegionPlan(region,server,targetServer);
                         plans.add(plan);
                       }

                    }
                }
            }
        }
        return plans;
    }

    private boolean 需要负载均衡() {
        // 实现监控和分析逻辑
        // 比如基于 Regions 的大小、读写负载等因素进行判断
        return true; // 示例代码
    }
}

3.1 balanceCluster 方法的作用

  1. 分析集群状态balanceCluster 方法分析当前集群的状态,包括每个 RegionServer 上托管的 Region 数量、Region 的大小、读写负载等。

  2. 决定 Region 迁移:基于分析的结果,balanceCluster 决定是否有必要进行 Region 迁移,以及如何迁移。例如,如果一个 RegionServer 承载的负载过重,方法可能决定将一些 Region 迁移到负载较轻的 RegionServer 上。

  3. 生成迁移计划balanceCluster 生成一个 Region 迁移计划,该计划由一系列的 RegionPlan 对象组成。每个 RegionPlan 指定了一个 Region 从一个 RegionServer 迁移到另一个 RegionServer。

3.2balanceCluster 对数据的影响

  • 不影响数据完整性:负载均衡过程中,Region 中存储的数据不会受到影响。HBase 保证了在迁移过程中数据的完整性和一致性。

  • 可能暂时影响可用性:在 Region 迁移过程中,被迁移的 Region 可能会暂时不可用。这意味着对这些 Region 的读写操作可能会在迁移期间受到影响。

  • 不直接修改数据balanceCluster 方法本身不会修改 Region 中的数据。它只是决定 Region 应该在哪些 RegionServer 之间移动。

3.3 监控HBase的性能指标

3.3.1 指标介绍

HBase系统为了反应集群内部处理请求所耗费的时间提供一个工具类即

org.apache.hadoop.hbase.tool.Canary

如果不知道使用方法,通过help命令来查看具体的用法,操作命令: 

hbase org.apache.hadoop.hbase.tool.Canary -help

3.3.2 新建 run_canary.sh 的脚本

#!/bin/bash
# run_canary.sh

# 运行 Canary 工具并将输出重定向到日志文件
hbase org.apache.hadoop.hbase.tool.Canary > /path/to/canary_output.log 2>&1

3.3.3 cron 作业定期执行脚本 

# 编辑 crontab
crontab -e

# 添加一行来每小时运行一次脚本
0 * * * * /path/to/run_canary.sh

3.3.4 解析 Canary 输出

import java.io.BufferedReader;
import java.io.FileReader;
import java.util.HashMap;
import java.util.Map;

public class CanaryDataCollector {

    public Map<RegionInfo,Long> getRegionDelays() {
        Map<RegionInfo,Long> regionDelays = new HashMap<>();
        String line;

        try (BufferedReader br = new BufferedReader(new FileReader("/path/to/canary_output.log"))) {
            while ((line = br.readLine()) != null) {
                // 解析每一行来提取 Region 信息和延时
                // 假设你有一种方法来从一行文本中解析出 RegionInfo 和延时
                RegionInfo regionInfo = ...; // 解析 Region 信息
                Long delay = ...; // 解析延时
                regionDelays.put(regionInfo,delay);
            }
        } catch (Exception e) {
            e.printStackTrace();
        }
        return regionDelays;
    }
}

4.注意事项

请注意,自定义负载均衡器的开发和部署是一个高级操作,需要对 HBase 有深入的理解。在进行这些更改之前,请确保在一个测试环境中进行充分的测试,以避免在生产环境中意外影响集群的稳定性和性能。自定义负载均衡器的行为可能会根据负载、数据分布和集群配置的不同而大不相同。

5.相关资料 

Apache HBase 负载均衡机制-云社区-华为云

深度剖析HBase负载均衡和性能指标 - 墨天轮

原文地址:https://blog.csdn.net/lzhcoder/article/details/135475609

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


文章浏览阅读301次。你可以使用Thrift客户端来测试HBase Thrift服务。例如,在Python中,你可以使用。请确保你的HBase伪集群已正确配置并且Thrift服务已经启动。这将在你的伪集群中启动HBase Thrift服务。库或者直接使用Thrift接口。进入HBase的安装目录,找到。请根据需要进行相应的配置。这将停止Thrift服务。_hbase 单机 thrift 配置
文章浏览阅读565次。hive和hbase数据迁移_hive转hbase
文章浏览阅读707次。基于单机版安装HBase,前置条件为Hadoop安装完成,安装Hadoop可以参考链接,Hadoop单机安装。地址:https://dlcdn.apache.org/hbase/2.4.13/hbase-2.4.13-src.tar.gz2.解压缩文件3.进入到conf目录下4.修改配置文件 hbase-env.sh示例:示例:6.修改配置文件 hbase-site.xml示例:8.访问页面访问你所以在服务器的16010端口,查看页面以上就是单机版安装HBase的内容,后续_hbase 2.4.13下载
文章浏览阅读301次。linux集群搭建-HBase_linux中在/home目录下创建目录hbase
文章浏览阅读933次。中没有库的概念,说一个数据说的是哪一个名称空间下的那一张表下的哪一个行键的哪一个列族下面的哪一个列对应的是这个数据。注意:put数据需要指定往哪个命名空间的哪个表的哪个rowKey的哪个列族的哪个列中put数据,put的值是什么。注意:put数据需要指定往哪个命名空间的哪个表的哪个rowKey的哪个列族的哪个列中put数据,put的值是什么。注意:put数据需要指定往哪个命名空间的哪个表的哪个rowKey的哪个列族的哪个列中put数据,put的值是什么。操作Hbase系统DDL,对名称空间等进行操作。_hbase中报错undefined method for main:object
文章浏览阅读1k次,点赞16次,收藏21次。整理和梳理日常hbase的监控核心指标,作为经验沉淀_hbase 对应promethus指标名
文章浏览阅读1.5k次,点赞45次,收藏20次。今天把之前学习Hbase的入门基础知识笔记翻出来了,为了不忘记也是帮助身边的小伙伴,我把他又整理了下放了出来给大家,希望对HBASE一知半解的小伙伴,能够对Hbase有一个清晰的认识,好了废话不多说,进入正题。以上内容就是初的识HBase 入门知识,包含了hbase的由来,特性,物理存储,逻辑存储模型,以及优缺点,应用场景这些内容,相信后面在使用或更深入的研究Hbase打下了良好的基础,后面的更深入的学习内容,看计划安排在后面的文章中进行更新。
文章浏览阅读655次。HDFS,适合运行在通用硬件上的分布式文件系统,是一个高度容错性的系统,适合部署在廉价的机器上。Hbase,是一个分布式的、面向列的开源数据库,适合于非结构化数据存储。MapReduce,一种编程模型,方便编程人员在不会分布式并行编程的情况下,将自己的程序运行在分布式系统上。Chukwa,是一个开源的用于监控大型分布式系统的数据收集系统。_开源非结构化数据存储
文章浏览阅读1.9k次。mongodb和hbase的区别和应用场景_hbase和mongodb的区别
文章浏览阅读1.2k次。Hbase入门篇01---基本概念和部署教程_hbase教程
文章浏览阅读1.6k次,点赞19次,收藏25次。hbase相关内容
文章浏览阅读942次,点赞16次,收藏20次。在hbase1.x中transition是令广大大数据运维人员头疼的一个话题,因为,region 的状态转移涉及到了三个核心组件,分别为:hbase master,zookeeper和hbase 的regionserver,这三个组件中的某一个region的状态都是一致的情况下,这个region 才算是正常,状态转移过程及其复杂,hbase 集群很容易出现RIT。好消息是,hbase2.x中有个工具HBCK2,这个工具可不是简单的hbase1.x中hbck 的升级,变化有点大,详细变化请参考帮助文档(
文章浏览阅读1k次。在HBase中,Region分裂是一种自动的机制,用于在Region大小达到一定阈值时将其分裂成两个Region,以便更好地管理数据。HBase中的Region大小是可以配置的,通过设置HBase表的最小和最大Region大小来控制。需要注意的是,禁止Region分裂后,当表的大小达到一定阈值时,数据将不再分裂成新的Region,因此需要根据实际需求进行调整。需要注意的是,禁止Region分裂后,当表的大小达到一定阈值时,数据将不再分裂成新的Region,因此需要根据实际需求进行调整。_hbase region大小
文章浏览阅读737次。可以看出,HBase作为数据仓库的一种补充,可以用于存储和管理大量数据,以便快速地分析和查询。是一种基于数据库的形式,用于存储和管理大量数据,以便快速地分析和查询。例如,可以使用HBase存储一些用户行为数据,然后进行分析,以便更好地了解用户行为和需求。其次,需要配置HBase相关的环境变量,例如JAVA_HOME、HBASE_HOME等。HBase可以用于存储结构化和非结构化数据,包括文本、图像、视频等。例如,可以使用HBase存储一些传感器数据,然后进行实时分析和处理。一、HBase集群环境搭建。_用hbase 搭建数仓
文章浏览阅读1.9k次。Data。_springboot整合hbase
文章浏览阅读880次,点赞23次,收藏20次。etc/abrt下的两个文件,分别是:abrt-action-save-package-data.conf 和 abrt.conf,修改内容如下。我们后面排查的时候去查看/run/cloudera-scm-agent/process/2325-hbase-REGIONSERVER下是否有。发现有个hs_err_pid15967.log JVM生成的错误日志,那么把这个日志下载查看,返现日志这么写的。接下来就等下一次hbase的节点挂了之后查看转储文件,转储文件在/var/sqool/abrt下。_regionserver 退出 没有错误日志
文章浏览阅读1.7k次。以下命令都需要在Hbase Shell中运行:Hbase信息status:服务器状态version:版本表操作查看所有表:list表基本信息:describe "表名称"查看表是否存在:exists '表名称'创建表:create '表名称', '列族1', '列族2', '列族3'删除表:首先禁用表:disable '表名称'然后删除表:drop '表名称'修改表:表数据操作查看所有数据:scan "表名称"..._hbase sehll怎么看登录的是哪个hbase
文章浏览阅读885次,点赞18次,收藏21次。在HBase中执行查询操作通常使用HBase Shell或编程语言API(如Java或Python)来执行。使用编程语言API,您可以使用相应的HBase客户端库来执行查询操作。这是一个简单的Java代码示例,演示了如何使用HBase Java API进行单行查询。这些示例仅为基本查询操作,HBase Shell还提供其他高级查询功能,如按时间戳过滤,使用正则表达式进行查询等。请注意,这只是HBase查询的基本示例,您可以根据实际需求和HBase的数据模型进行更复杂的查询操作。
文章浏览阅读7.3k次,点赞7次,收藏28次。找到hbase的bin目录并进入,执行启动hbase hmaster命令。问题原因 hmaster挂了 ,需要重新启动hmaster才行。hbase shell输入命令出现如下问题。_keepererrorcode = nonode for /hbase/master
文章浏览阅读1.3k次。三次信息化浪潮。_大数据应用开发技术笔记