flink-sql专题提供flink-sql的最新资讯内容,帮你更好的了解flink-sql。
Spark中有一个函数<a href="https://spark.apache.org/docs/1.6.2/api/java/org/apache/spark/sql/functions.html#input_file_name()" rel=
我正在围绕Flink SQL构建一种包装。我用<code>StreamTableEnvironment.sqlUpdate</code>用一堆用户指定的SQL语句构造
我对Flink的行为有疑问。以下是我的代码段。如您所见,某些服务正在提供Flink将要逐一执行的sql标准列
我有一个依赖于Table API的Flink应用程序。我确实有创建表的Kafka主题。然后,我们维护一个S3对象以获取IP
<strong>我的环境:</strong> <div class="s-table-container"> <table class="s-table"> <头> <tr> <th>组件</th> <th>版本</th> <
我对 Flink 比较陌生,今天在 Flink 1.11.3 会话集群上使用 Flink SQL 时遇到了一个问题。 <h2>问题</h2> 我
我希望我的 <code>Flink SQL Client</code> 从 Kafka 读取数据<br/> 而kafka产生的数据是<code>Timestamp</code>style,<br/> 但
当我们在 Flink SQL CLI 中选择任何表作为 SQL Server 数据库表的源时,为什么 Flink 作业在从数据库表中获取
我在 Kafka 中有 Avro 格式的消息。这些必须转换为表并使用 SQL 进行选择,然后转换为流,最后汇入。 有
我将 Flink 1.11.3 与 SQL API 和 Blink planner 一起使用。我在流模式下工作并使用文件系统连接器和 CSV 格式使
我使用的是 Flink 1.12.0,并使用以下代码处理批处理数据。 我想显示表格的内容。当我调用 <code>prin
我有以下代码想将datagen生成的数据写入文件,但是当我运行应用程序时,没有创建目标目录,也没有写
我正在尝试将记录从包含大量记录的大表复制到另一个进行了一些转换的表中。我从 Github 搜索并得到了
我有两个想要做区间连接的流,事件类型是定义如下的case类,tradeDate的类型是<code>java.sql.Timestamp</code></p
我使用的是 Flink 1.12.0,我正在阅读 <a href="https://ci.apache.org/projects/flink/flink-docs-stable/dev/table/streaming/joins.
我使用以下简单代码来说明文件系统连接器的行为。 我有两个观察结果要询问并确认。 <ol> <li>如
我写了一个小程序来试验 Flink SQL。我正在将 <code>DataStream</code> 转换为 <code>Table</code> 并尝试从该表中读
我正在阅读以下文档。 看起来 hive 连接器同时支持流写入和流读取。 <code>filesystem</code> 连接器支持流写
亲爱的, 我在<strong>Flink客户端</strong>上查询hive表,返回结果<strong>全部为NULL</strong>。这个hive表是
我有一个关于 <a href="https://github.com/ververica/flink-cdc-connectors" rel="nofollow noreferrer">CDC-connector from Ververica</a>