我在使用FlinkKafkaConnector时遇到困难。
尽管我已经导入了<code>org.apache.flink.streaming.connectors.kafka.FlinkK
我有一个简单的Flink Scala流媒体作业,该作业连接到Kafka主题并映射其主题
<em> org.apache.avro.generic.Ge
我想修改jobGraph,例如<code>getVertices(), ColocationGroup()</code>,并尝试执行以下操作:
<pre><code> val s = St
我是Flink的新手。我的flink应用程序(1.10.0)使用hdfs在k8s上运行。似乎存在内存泄漏问题,因为当我检查
我正在尝试设置一个简单的游乐场环境以使用Flink Python Table API。我最终试图编写的Jobs会从Kafka或Kenesis队
我有一个收藏,例如<code>val m = ConcurrentMap()</code>,通常我可以使用以它为参数的方法,并且不同的线程
我是Flink的新手,我想将Kafka流数据存储到Cassandra中。我已经将String转换为POJO。我的POJO如下,
<pre><cod
我们有一个来自数据库表的文件路径列表,其中包含创建时的时间戳。试图弄清楚我们如何使用db中的文
我正在尝试使用以下方法从flink kafkaconsumer流数据:
<a href="https://ci.apache.org/projects/flink/flink-docs-stable/dev/c
我正在使用Kafka,Flink。 Flink从Kafka读取的我的消息然后执行一些业务逻辑到DB,并将其发送到Third API(例
在Apache Flink中使用允许的延迟有什么好处?
例如:为什么不使用水印(乱序10个单位)代替水印(乱序5
在我们的情况下(Flink 1.10),我们想从检查点/保存点还原状态,但是为了还原旧的状态序列化程序,我
在上一个问题(<a href="https://stackoverflow.com/questions/63196196/causes-of-cpu-load-on-the-machine-increase-when-flink-run-more
我想写一个Flink流运算符,每个键维护1500-2000个映射,每个映射可能包含100,000个〜100B的元素。大多数记
请帮助我,我有两个问题:<br/>
我从Apache Kafka json消息中阅读,(然后我有步骤:反序列化为POJO,filter
如何为有状态过程功能创建单元测试。我有这样的东西:
<pre><code> private static SingleOutputStreamOperator<
如何在flink中将累加值转换为累加值(某些键被视为用户,然后累加值成为两个相邻键的累加值),然后
我们正在使用Flink 1.9.1版本。我们想获取在特定期间内特定子任务处理的记录数。记录数给出了到那时为
我无法使用Kinesis Data Analytics在Apache Flink中编译和运行联接代码。遵循文档并进行一些研究后,我的代码
如何使用独立应用程序(本地执行环境或小型集群)实现flink保存点。
我在flink-config.yaml文件中配置了保