high-availability专题提供high-availability的最新资讯内容,帮你更好的了解high-availability。
试图通过同时关闭任务管理器以及作业管理器和纱线节点管理器来测试高可用性,我认为纱线会自动将
我有一个包含数百个水平扩展服务器的应用程序,它使用 redis 发布/订阅,并且运行良好。 redis 服
我正在使用 hbase-2.2.3 来设置一个具有 3 个节点的小型集群。 (hadoop和HBase都是HA模式) <pre><code>node1:
我对 docker 和 docker swarm 相当陌生。 最近我收到了一个商业客户的请求,该客户有 3 台运行 cPanel/WHM
我有两个相同的 linux 服务器通过 nginx 提供相同的内容。我想通过keepalived通过故障转移获得高可用性,
我了解Kafka中领导者和数据复制的概念,但我不明白为什么消费者和生产者在从分区写入/读取时总是被
我正在尝试将我的非 HA 名称节点移至 HA。按照 Apache Hadoop 文档为 JournalNode 设置所有配置后,我能够启动
想要在 K8s(本地)中设置高可用的 Moodle。我将 Bitnami Moodle 与舵图一起使用。 成功安装 Moodle 后,
在数据复制 > 1 的集群场景中,为什么我们必须始终从分区的 master/leader 消费,而不是能够从包含该 maste
在有镜像队列的集群场景中,消费者有没有办法从镜像队列/从节点消费/获取数据,而不是总是接触到主
我有一个 Scala 代码,现在可以通过单个名称节点(非 HA)连接到 HDFS。 Namenode、location、conf.location 和 Ker
我正在寻找始终位于可用性组上的两台服务器之间的同步性能(以秒为单位)。 我尝试使用这个:
为了实现高可用性,我们在不同 Azure 区域的不同存储帐户下创建了两个 blob 容器。 这样,如果应
我正在测试 <a href="https://github.com/zalando/postgres-operator" rel="nofollow noreferrer">Zalando PostgreSQL Operator</a>,我部
我正在使用 keepalived 构建高可用性设置,其中每个服务器都有自己的一组 docker,根据它是在 BACKUP 还是 M
我希望能够让 Entity Framework 自动升级数据库,但是我还需要允许旧版本连接到现有数据库,以便我可以
我在使用 HAProxy 时遇到了这个奇怪的问题。 我正在尝试使用浏览器中的 HAProxy IP 访问使用 NGinx 的 W
我们有 WSO2 SP 的 HA 设置 - 我们部署了一些在 MQTT 上发布数据的应用程序。在被动节点发生故障的情况下
我们目前正在整合公司的内部 SQL 资产,我们已经构建了一组集群服务器,这些服务器将容纳多个 SQL Serv
设置: 3 个 rabbitmq 节点集群(通过 docker),位于 ha-proxy 之后。 版本: <ul> <li>RabbitMQ:3.8.11</li>