apache-kafka专题提供apache-kafka的最新资讯内容,帮你更好的了解apache-kafka。
我怎样才能将kafka msg键用作s3连接器中的分区标准,或者 我如何获取密钥并将其也存储在s3对象中 谢谢!
我需要将消息从Google Pub / Sub主题发布到运行在本地基础结构上的Kafka。我偶然发现了这个链接。 <a
我有一个非常基本的主题,保留期为1分钟。我用以下方法创建它: <pre><code>kafka-topics --zookeeper $zhost -
我从logstash连接到kafka。使用gssapi auth将kafka设置为sasl_ssl。下面是logstash的配置。 <pre><code>bootstrap_server
在Mac上,使用以下命令运行独立的Kafka Connect文件流源连接器。并且我在worker.properties文件中设置了<strong>
我正在为我的项目编写Java Avro Producer代码。我已经为所有需要传递的字段注册了一个Avro模式。 我
我已经在kubernetes上部署了strimzi kafka,并且在本地也安装了kube。但是每次我想在kafka中创建一个新主题时
我想根据条件将主题<strong> TOPIC_1 </strong>的某些数据(日志)从Kafka <strong>集群A </strong>复制到另一个Kafka
我正在尝试使用kafka主题中的avro消息。我没有该消息的架构。下面是我的代码段。 <pre><code>public CthKaf
给出一个Python应用程序,该应用程序在无限循环中轮询Kafka主题,并在处理收到的Kafka消息后将结果上传
我已经下载了二进制Kafka文件,然后下载了conector的Jar文件。然后指定连接器jar的路径,并配置连接到mong
我正在尝试使用Spark结构化流从Kafka读取数据。 (CDH 6.3.2(带有一个节点的概念证明版本)带有Spark 2.4.0
我有python flask应用程序,可在kafka中推送任务以使用浮士德进行处理。 我正在执行<code>send_data</code>之类
在pyspark 2.3.1中使用kafka结构化流式传输时,火花提交失败 但是pyspark命令中可以使用相同的代码,
我正在使用kafka-client版本0.10.2.2,总共有10个kafka使用者线程。在重新平衡期间,4/10成功加入了该组,在
我已经部署了一个应用程序的两个实例。这两个应用程序运行相同的代码,并且使用相同的主题。 <pr
我只有一个kafka代理,并且正在使用kafka-node在nodeJS中实现kafka。我想创建一个包含3个分区的主题。在执
<h1> Kafka监听器</h1> <pre><code> @KafkaListener(id = ProductTopicConstants.GET_PRODUCT, topics = ProductTopicConstants.GET_PRODUCT,
我正在从Kafka看书,但消费者挂了电话: <pre><code>def produce(num, producer, topic_name): print(&#34;hello2&#34;)
我正在尝试将kafka中的Avro消息反序列化为从Avro Schema生成的POJO。我正在使用KafkaAvroDeserializer进行此转换