如何解决Kafka Connect是否可以使用来自单独的受Kafka化的Kafka实例的数据,然后路由到Splunk?
我的管道是:
Kerberized Kafka -> Logstash(托管在其他服务器上)-> Splunk 。
我可以用 Kafka Connect 替换 Logstash 组件吗?
您能否指向我参考资源/指南,在其中可以使用 Kerkaized Kafka 作为我的 Kafka connect (单独托管)的来源?
从文档中,我了解到,如果 Kafka Connect 与 Kafka 托管在同一群集中,则完全有可能。但是我现在没有那个选择,因为我们的Kafka集群是多租户的,因此没有被批准用于集群中的其他进程。
解决方法
Kerberos密钥表通常不是特定于机器/ JVM的,因此,是的,Kafka Connect的配置应该与Logstash非常相似,因为它们都是使用本机Kafka协议的JVM进程。
无论如何,您都不应在代理上运行Connect
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。