flink-streaming专题提供flink-streaming的最新资讯内容,帮你更好的了解flink-streaming。
我在使用FlinkKafkaConnector时遇到困难。 尽管我已经导入了<code>org.apache.flink.streaming.connectors.kafka.FlinkK
我有一个简单的Flink Scala流媒体作业,该作业连接到Kafka主题并映射其主题 <em> org.apache.avro.generic.Ge
我想修改jobGraph,例如<code>getVertices(), ColocationGroup()</code>,并尝试执行以下操作: <pre><code> val s = St
我是Flink的新手。我的flink应用程序(1.10.0)使用hdfs在k8s上运行。似乎存在内存泄漏问题,因为当我检查
我正在尝试设置一个简单的游乐场环境以使用Flink Python Table API。我最终试图编写的Jobs会从Kafka或Kenesis队
我有一个收藏,例如<code>val m = ConcurrentMap()</code>,通常我可以使用以它为参数的方法,并且不同的线程
我是Flink的新手,我想将Kafka流数据存储到Cassandra中。我已经将String转换为POJO。我的POJO如下, <pre><cod
我们有一个来自数据库表的文件路径列表,其中包含创建时的时间戳。试图弄清楚我们如何使用db中的文
我正在尝试使用以下方法从flink kafkaconsumer流数据: <a href="https://ci.apache.org/projects/flink/flink-docs-stable/dev/c
我正在使用Kafka,Flink。 Flink从Kafka读取的我的消息然后执行一些业务逻辑到DB,并将其发送到Third API(例
在Apache Flink中使用允许的延迟有什么好处? 例如:为什么不使用水印(乱序10个单位)代替水印(乱序5
在我们的情况下(Flink 1.10),我们想从检查点/保存点还原状态,但是为了还原旧的状态序列化程序,我
在上一个问题(<a href="https://stackoverflow.com/questions/63196196/causes-of-cpu-load-on-the-machine-increase-when-flink-run-more
我想写一个Flink流运算符,每个键维护1500-2000个映射,每个映射可能包含100,000个〜100B的元素。大多数记
请帮助我,我有两个问题:<br/> 我从Apache Kafka json消息中阅读,(然后我有步骤:反序列化为POJO,filter
如何为有状态过程功能创建单元测试。我有这样的东西: <pre><code> private static SingleOutputStreamOperator&lt;
如何在flink中将累加值转换为累加值(某些键被视为用户,然后累加值成为两个相邻键的累加值),然后
我们正在使用Flink 1.9.1版本。我们想获取在特定期间内特定子任务处理的记录数。记录数给出了到那时为
我无法使用Kinesis Data Analytics在Apache Flink中编译和运行联接代码。遵循文档并进行一些研究后,我的代码
如何使用独立应用程序(本地执行环境或小型集群)实现flink保存点。 我在flink-config.yaml文件中配置了保