如何解决有没有一种方法可以限制使用Kafka Streams在一个实例上管理的聚合的数量?
我想知道是否有人知道一个好的解决方案,用于指定应在Kafka Streams应用程序的一个实例上管理的最大聚合数。例如。此数字为200,则在收到导致创建聚集#201的新密钥后,应删除一些较旧的聚集。就我而言,更换政策并不重要。因此,应将200个可用汇总中的一些汇总设置为null。
不幸的是,Kafka流中仅内置了基于时间的保留。但是也许有一个很好的解决方法,根据聚合的数量来限制实例上的内存。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。