如何进行LogDevice与Apache Pulsar之间的对比

如何进行LogDevice与Apache Pulsar之间的对比,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。

Facebook 已经发布开源 LogDevice。考虑到 LogDevice 目标用例之间的相似性,自然会有人问到 LogDevice 与 Apache Pulsar 之间是否也有相似之处。本文将对这一问题进行解答。对比 LogDevice 和 Pulsar 并不简单,LogDevice 的操作级别要比 Pulsar 低。LogDevice 与 Twitter 的 DistributedLog 更相似。二者都只关注日志原语,而不关注 schema 管理、多租户、光标管理等高级功能。这些高级功能将留给用户基于 LogDevice 去实现。下面将讨论 LogDevice 和 Pulsar 中都有的基本元素:分布式日志。

架构

LogDevice 向用户显示一个日志原语。写入客户端将 entry 写入 sequencer 节点。该节点将日志序列号(LSN)分配给所有 entry,然后将 entry 写入已经分配给日志的较大节点集的一个子集(副本集)。LogDevice 的 sequencer 类似于 Pulsar 中的 broker,在 Pulsar 中,由 broker 分配消息 ID 并发送消息到 Apache BookKeeper 进行存储。

LogDevice 和 Pulsar 在架构方面有许多相同之处,比如它们都将计算与存储分离。与单片架构相比,这种架构具有以下优势:

•单个日志可以无限增长•出现节点故障时,可以进行无缝恢复•集群扩展简单•读写具有独立可扩展性

比较 Pulsar 和 Kafka:基于分片的架构如何提升整体性能、延展性与弹性[2]一文中详细说明了这种架构的优势。Pulsar 和 LogDevice 都具备这些优势。

LogDevice 和 Pulsar 读取数据的方式有所不同。在 Pulsar 中,读客户端在 broker 上订阅 topic,并从 broker 上接收消息;而在 LogDevice 中,读客户端直接与存储节点相连。

像 LogDevice 这样直接从存储节点读取数据,允许读操作有更大程度的扇出。也就是说,由于读取器不需要访问同一节点,系统可以在单个 topic 上支持更多读取器。

但是,在需要保证日志的一致性时,直接从存储节点读取数据会加长延迟。如果写入器没有确认写入的 entry,读取器无法读取该 entry。从存储节点读取数据时,需要以某种方式通知存储节点 entry 已经被复制到足够多的节点上,并将 ack 发送到写入器,在此之前 entry 不可读。

在 Pulsar 中,客户端通过 broker 进行读写。这种读写方式在延迟和性能上都有优势。由于在同一个节点上进行读写,所以在将 entry ack 发送到写入器时,该 entry 立即可读。Pulsar 通过在 broker 上控制读写,得以支持更复杂的订阅模型,如共享订阅、Failover 订阅[3]等。

一致性、多副本、Failover

LogDevice 和 Pulsar 采用相似的技术实现全局顺序广播协议(TOAB)[4]。将日志分为不同 epoch,每个节点(leader)可以决定该 epoch 中 entry 的序列号,并且相应机制保证不会写入以前的 epoch。

LogDevice 和 Pulsar 都使用 ZooKeeper 决定 leader。

在 LogDevice 中,leader 也称作 sequencer。每个日志都有一个 sequencer,每个 sequencer 都被(从 ZookKeeper)分配了一个“epoch”号。LSN 由 epoch 和一个局部单调递增组件组成,sequencer 决定每个 entry 的 LSN,并将 epoch 中的 entry 转发到一组存储节点上。当足够多的存储节点 ack entry 时,sequencer 将 ack 发送到发起写请求的客户端。在 sequencer 出现故障时,就会有新的 sequencer 获取新的 epoch,并可以立即服务于写入操作。在后台启动一个“封闭”前一个 epoch 的操作,则会禁止从新 epoch 进行读取的操作,直到前一个 epoch 被封。“封闭”操作涉及从节点集向足够多的存储节点通知新 epoch 的存在,因此写入操作就不会有足够多的 ack 来向客户端 ack 写入操作。

对于 Pulsar 来说,epoch 就是 BookKeeper ledger。每个 topic 都有 BookKeeper ledger 列表,这些列表组成了 topic 的全部日志。当一个 Pulsar broker 崩溃时,另一个 broker 会接管这一 topic,由此保证封闭前一个 broker 中的 ledger,创建自己的 ledger,并将其添加至 topic 的 ledger 列表中。最后三个操作涉及到了 ZooKeeper。一旦更新了 topic 的 ledger 列表,broker 就可以开始为 topic 上的读写提供支持。所有向 topic 写入的数据在被 ack 并且对读取器可见之前都会持久化到 BookKeeper ledger 上,存储在一组存储节点中。

对于 LogDevice 和 Pulsar(采用 BookKeeper)来说,entry 持久化只需要一个 entry 命中一个节点子集,因此在有缓慢的或故障的存储节点时,可以保持低延迟的写入。

在检测到 leader 出现故障时,LogDevice 可以在发现故障后很快地提供写服务,只需要两次往返 ZooKeeper 来选择一个 sequencer。在 Pulsar 中,再次写入前,需要先恢复之前的 ledger,恢复操作包括与一些存储节点对话、向 ZooKeeper 进行新的写入等。另外,在 Pulsar 中,可以同时恢复读写,而在 LogDevice 中,读取之前,必须进行“封闭”操作,类似于 ledger 的恢复操作。

我们猜测 LogDevice 不允许在上一个 epoch “封闭”之前写入,因其读操作不协调,与性能无关。不管是否封闭前一个 epoch,检测到 sequencer 发生故障会占用恢复时间。允许写入前的封闭操作需要 sequencer 与读取器进行协调,这样收效甚微,但却会增加复杂性。在 Pulsar 中,由于是在 broker 上进行读取,在写入前恢复之前的 ledger 就很容易。

存储

LogDevice 存储节点将 entry 存储在 RocksDB 中。Entry 存储在按时间顺序排列的列族集合中,entry 由日志 ID 和 entry 的 LSN 组合进行键控。简单来说,每个存储节点都有许多按时间顺序排列的 RocksDB 实例,只向最新的 RocksDB 实例写入。这些 RocksDB 实例尽量确保只进行少量压缩,以避免写入放大。

Pulsar 存储节点(BookKeeper)上有一个日志、一个 entry 日志和一个索引。日志有专用磁盘。当向 bookie 写入 entry 时,其实是在向日志磁盘写入,并向写入器 ack。然后,将 entry 放入一个暂存区域,当此区域内有足够多的 entry 时,就通过 ledger ID 和 entry ID 进行存储,flush 到 entry 日志。此时,entry 日志中的每条 entry 都已写入索引,索引正是一个 RocksDB 实例。

在有许多并发活跃日志时,LogDevice 和 Pulsar 存储层都可以实现低延迟写入。将多个日志的 entry 交叉放在几个文件中,可以最小化随机写入。这样对旋转磁盘的影响较大,在旋转磁盘上写入多个文件意味着磁头必须物理移动多次,但即使在固态磁盘上,优先顺序写入比随机写入在性能上有更多优势。

但是,交错写入也意味着要进行更多读取。

日志系统中的读取通常分为两类,追尾读和追赶读。对于追尾读,LogDevice 和 Pulsar 都不太可能命中磁盘,因为所需数据在某种程度上仍然应该存储在内存缓存中;而追赶读最终都会命中磁盘。吞吐量通常比追赶读延迟更重要,LogDevice 和 Pulsar 的设计都与此相符。

虽然大多数读取应该是连续的,但是 LogDevice 需要读取许多 SST 文件来进行追赶读。因为 RocksDB 在将 entry flush 到磁盘前会按键排序。这样就会分不清楚是否在同一磁盘读写。如果是,追赶读可能会影响系统的写入性能。

RocksDB 允许配置多个路径,将旧 SST 文件与新 SST 文件分开存储。

由于 Pulsar 将写入的关键路径保存在单独的磁盘上,读取操作完全独立。读取通常也是有序的,因为 entry 日志中的数据在 flush 到磁盘前按照 ledger 和 entry ID 排序。

LogDevice 尽量避免压缩,因此会放大写入。这对于日志系统说得通,因为不需要读取写入的大部分数据,但会影响数据保留。不能删除单个日志,因此系统中所有日志的保存时间都必须由保留时间决定。集群内的所有日志都不能永久保存,有些甚至只能保存几个小时。

在 Pulsar 中,要从存储节点删除日志,就需要先从索引中删除。因此,索引会经常压缩,但是由于 entry 数据本身不在索引中,这也影响不大。存储节点监听索引引用每个 entry 日志的百分比。一旦一个 entry 日志低于某个阈值,则复制活跃数据到新的“压缩” entry 日志中,更新索引,并删除原 entry 日志。

LogDevice 是对分布式日志空间的有趣补充。Pulsar 不仅是分布式日志系统,更是一个完整的消息平台,因此不能将 LogDevice 直接与 Pulsar 进行比较,但很高兴看到 LogDevice 团队决定采用与 Pulsar 类似的架构。现在 LogDevice 已经开源,十分期待它的使用。

看完上述内容,你们掌握如何进行LogDevice与Apache Pulsar之间的对比的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注编程之家行业资讯频道,感谢各位的阅读!

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


可以认为OpenFeign是Feign的增强版,不同的是OpenFeign支持Spring MVC注解。OpenFeign和Feign底层都内置了Ribbon负载均衡组件,在导入OpenFeign依赖后无需专门导入Ribbon依赖,用做客户端负载均衡,去调用注册中心服务。
为进一步规范小程序交易生态、提升用户购物体验、满足用户在有交易的小程序中便捷查看订单信息的诉求,自2022年12月31日起,对于有“选择商品/服务-下单-支付”功能的小程序,需按照平台制定的规范,在小程序内设置订单中心页。开发者可通过小程序代码提审环节,或通过「设置-基础设置-小程序订单中心path设置」模块设置订单中心页path。1、 新注册或有版本迭代需求的小程序,可在提审时通过参数配置该商家小程序的订单中心页path。2、无版本迭代需求的小程序,可在小程序订单中心path设置入口进行设置。
云原生之使用Docker部署Dashdot服务器仪表盘
本文主要描述TensorFlow之回归模型的基本原理
1.漏洞描述Apache Druid 是一个集时间序列数据库、数据仓库和全文检索系统特点于一体的分析性数据平台。Apache Druid对用户指定的HTTP InputSource没有做限制,并且Apache Druid默认管理页面是不需要认证即可访问的,可以通过将文件URL传递给HTTP InputSource来绕过。因此未经授权的远程攻击者可以通过构造恶意参数读取服务器上的任意文件,造成服务器敏感性信息泄露。2.影响版本Apache Druid <= 0.21.13...
内部类(当作类中的一个普通成员变量,只不过此成员变量是class的类型):一个Java文件中可以包含多个class,但是只能有一个public class 如果一个类定义在另一个类的内部,此时可以称之为内部类使用:创建内部类的时候,跟之前的方法不一样,需要在内部类的前面添加外部类来进行修饰 OuterClass.InnerClass innerclass = new OuterClass().new InnerClass();特点:1.内部类可以方便的访问外部类的私有属性...
本文通过解读国密的相关内容与标准,呈现了当下国内技术环境中对于国密功能支持的现状。并从 API 网关 Apache APISIX 的角度,带来有关国密的探索与功能呈现。作者:罗泽轩,Apache APISIX PMC什么是国密顾名思义,国密就是国产化的密码算法。在我们日常开发过程中会接触到各种各样的密码算法,如 RSA、SHA256 等等。为了达到更高的安全等级,许多大公司和国家会制定自己的密码算法。国密就是这样一组由中国国家密码管理局制定的密码算法。在国际形势越发复杂多变的今天,密码算法的国产化
CENTOS环境Apache最新版本httpd-2.4.54编译安装
Apache HTTPD是一款HTTP服务器,它可以通过mod_php来运行PHP网页。影响版本:Apache 2.4.0~2.4.29 存在一个解析漏洞;在解析PHP时,将被按照PHP后缀进行解析,导致绕过一些服务器的安全策略。我们查看一下配置:读取配置文件,前三行的意思是把以 结尾的文件当成 文件执行。问题就在它使用的是 符号匹配的,我们都知道这个符号在正则表达式中的意思是匹配字符串的末尾,是会匹配换行符的,那么漏洞就这样产生了。 进入容器里,打开index.php,发现如果文件后缀名为 php、
apache Hop现在好像用的人很少, 我就自己写一个问题收集的帖子吧, 后面在遇到什么问题都会在该文章上同步更新
2.启动容器ps:注意端口占用,当前部署在 8080 端口上了,确保宿主机端口未被占用,不行就换其他端口ps:用户名和密码都是 admin,一会用于登录,其他随便填5.下载一个官方提供的样例数据库【可跳过】ps:此步国内无法访问,一般下载不了,能下的就下,不能下的跳过就行了,一会配置自己的数据库7.访问登录页面ps:注意端口是上面自己配置的端口,账号密码是 admin依次点击 Settings → Database Connections点击 DATABASE 就可以配置自己的数据库了
String类的常用方法1. String类的两种实例化方式1 . 直接赋值,在堆上分配空间。String str = "hello";2 . 传统方法。通过构造方法实例化String类对象String str1 = new String("Hello");2.采用String类提供的equals方法。public boolean equals(String anotherString):成员方法 str1.equals(anotherString);eg:publi
下载下载地址http://free.safedog.cn下载的setup:安装点击下面的图标开始安装:可能会提示:尝试先打开小皮面板的Apache服务:再安装安全狗:填入服务名:如果服务名乱写的话,会提示“Apache服务名在此机器上查询不到。”我干脆关闭了这个页面,直接继续安装了。安装完成后,需要进行注册一个账户,最后看到这样的界面:查看配置:...
一、问题描述一组生产者进程和一组消费者进程共享一个初始为空、大小n的缓冲区,只有缓冲区没满时,生产者才能把资源放入缓冲区,否则必须等待;只有缓冲区不为空时,消费者才能从中取出资源,否则必须等待。由于缓冲区是临界资源,它只允许一个生产者放入资源,或一个消费者从中取出资源。二、问题分析(1)、关系分析。生产者和消费者对缓冲区互斥访问是互斥关系,同时生产者和消费者又是一个相互协作的关系,只有生产者生产之后,消费者只能才能消费,它们还是同步关系。(2)、整理思路。只有生产生产者和消费者进程,正好是这两个进程
依赖注入的英文名是Dependency Injection,简称DI。事实上这并不是什么新兴的名词,而是软件工程学当中比较古老的概念了。如果要说对于依赖注入最知名的应用,大概就是Java中的Spring框架了。Spring在刚开始其实就是一个用于处理依赖注入的框架,后来才慢慢变成了一个功能更加广泛的综合型框架。我在学生时代学习Spring时产生了和绝大多数开发者一样的疑惑,就是为什么我们要使用依赖注入呢?现在的我或许可以给出更好的答案了,一言以蔽之:解耦。耦合度过高可能会是你的项目中一个比较
<dependency><groupId>org.apache.velocity</groupId><artifactId>velocity-engine-core</artifactId><version>使用人数最多的版本</version></dependency>importorg.apache.velocity.Template;importorg.apache.velo
Java Swing皮肤包前言:一.皮肤包分享二.皮肤包的使用1.先新建一个项目。2.导入皮肤包1.先导入我们刚刚下载的jar文件,右键项目demo即可2.如果右键没有这个选项,记得调为下图模式3.点击下图蓝色圆圈处4.找到刚刚下载的jar文件,点击打开即可5.我们看一下效果,是不是比原生的好看前言:因为Java Swing自身皮肤包不是很好看,甚至有点丑,怎么让你的界面更加好看,这里就需要用到皮肤包,我发现了一个还不错的皮肤包,让你的界面美观了几个等级。废话不多说。一.皮肤包分享百度网盘分享链接:
一、前言在做Java项目开发过程中,涉及到一些数据库服务连接配置、缓存服务器连接配置等,通常情况下我们会将这些不太变动的配置信息存储在以 .properties 结尾的配置文件中。当对应的服务器地址或者账号密码信息有所变动时,我们只需要修改一下配置文件中的信息即可。同时为了让Java程序可以读取 .properties配置文件中的值,Java的JDK中提供了java.util.Properties类可以实现读取配置文件。二、Properties类Properties 类位于 java.util.Pro
Mybatis环境JDK1.8Mysql5.7maven 3.6.1IDEA回顾JDBCMysqlJava基础MavenJunitSSM框架:配置文件的最好的方式:看官网文档Mybatis1、Mybatis简介1.1 什么是Mybatis如何获得Mybatismaven仓库:中文文档:https://mybatis.org/mybatis-3/zh/index.htmlGithub:1.2 持久化数据持久化持久化就是将程序的数据在持久状态和瞬时状态转