apache-flink专题提供apache-flink的最新资讯内容,帮你更好的了解apache-flink。
这是我的Flink SQL <pre class="lang-sql prettyprint-override"><code>SELECT t.reportCode FROM query_record_info as t LEFT JOIN cre
我在使用FlinkKafkaConnector时遇到困难。 尽管我已经导入了<code>org.apache.flink.streaming.connectors.kafka.FlinkK
我有一个简单的Flink Scala流媒体作业,该作业连接到Kafka主题并映射其主题 <em> org.apache.avro.generic.Ge
我想修改jobGraph,例如<code>getVertices(), ColocationGroup()</code>,并尝试执行以下操作: <pre><code> val s = St
flink流处理非常新。这是我的要求: 在最近20秒内收到2个或更多元素时提醒用户。如果在20秒内收到少
我将Kafka值设置为String,并将POJO设置如下, <pre><code>{&#34;name&#34;:&#34;John&#34;,&#34;timeStamp&#34;:&#34;2020-08-
我是Flink的新手。我的flink应用程序(1.10.0)使用hdfs在k8s上运行。似乎存在内存泄漏问题,因为当我检查
我正在尝试设置一个简单的游乐场环境以使用Flink Python Table API。我最终试图编写的Jobs会从Kafka或Kenesis队
在某些操作员中使用Flink <code>Iterable</code>。我对此有以下问题: 为什么使用Iterable而不是List?是否因为
我有一个收藏,例如<code>val m = ConcurrentMap()</code>,通常我可以使用以它为参数的方法,并且不同的线程
我正在尝试将Flink连接到Druid。 但是,我不知道该怎么做。 在此<a href="https://ci.apache.org/projects
我正在IntelliJ中创建和测试机器学习模型,该模型将对流中的传入数据进行分类。我正在Scala(2.11.8)中
我是Flink的新手,我想将Kafka流数据存储到Cassandra中。我已经将String转换为POJO。我的POJO如下, <pre><cod
我的目标是为Flink 1.10中的流处理模块提供一个接口。管道在其他运算符中包含一个AggregateFunction。所有
我们有一个来自数据库表的文件路径列表,其中包含创建时的时间戳。试图弄清楚我们如何使用db中的文
我正在尝试使用以下方法从flink kafkaconsumer流数据: <a href="https://ci.apache.org/projects/flink/flink-docs-stable/dev/c
我正在使用Kafka,Flink。 Flink从Kafka读取的我的消息然后执行一些业务逻辑到DB,并将其发送到Third API(例
我有以下POJO课, <pre><code>import com.datastax.driver.mapping.annotations.Column; import com.datastax.driver.mapping.annotatio
我想在此处添加一些代码,并从Flink中输出protobuf数据。 我正在使用Flink的Apache Kafka连接器,以便将
在Apache Flink中使用允许的延迟有什么好处? 例如:为什么不使用水印(乱序10个单位)代替水印(乱序5