如何解决从 Glue 作业的 Glue 数据目录访问 Aurora Postgres 物化视图
我有一个 Aurora Serverless 实例,它的数据加载到 3 个表(标准和 jsonb 数据类型的混合)。我们目前使用传统视图,其中一些深层嵌套的元素与其他列一起显示以进行聚合等。
我们有两个要发送到 Redshift 的物化视图。 Aurora Postgres 和 Redshift 都在 Glue Catalog 中,虽然我可以将 Postgres 视图视为可选表,但爬虫不会选择物化视图。
目前正在探索两种使数据红移的方法。
- 输出到镶木地板并使用复制加载
- 将物化视图指向指定 redshift 的 jdbc sink。
如果有人做过类似的用例,就需要什么可能是最有效的方法的建议。
问题:
- 在选项 1 中,我是否能够处理增量负载?
- 即使通过 Glue,JDBC (Aurora Postgres) 到 JDBC (Redshift) 事务是否也支持书签?
- 是否有更好的方法(除了我正在考虑的选项)将数据从 Aurora Postgres Serverless (10.14) 移动到 Redshift。
预先感谢您提供的任何指导。
解决方法
选择了选项 2。在任何情况下,Redshift 复制/加载过程都会将带有清单的 csv 写入 S3,因此复制毫无意义。
关于问题:
-
不适用
-
作业书签确实有效。但是有一些问题 - 确保 Glue Pyspark 作业中存在与 RDS 和 Redshift 的连接,IAM 自引用规则到位并识别唯一的行 [我选择了基础表的主键作为我的附加列物化视图]用作书签。
-
使用核心表的主键可以在维护周期内提高修剪物化视图的效率。只需使用
aws glue get-job-bookmark --job-name yourjobname
从 cli 检索最新书签,然后在 mv 的 where 子句中将其作为where id >= idinbookmark
conn = glueContext.extract_jdbc_conf("yourGlueCatalogdBConnection")
connection_options_source = { "url": conn['url'] + "/yourdB","dbtable": "table in dB","user": conn['user'],"password": conn['password'],"jobBookmarkKeys":["unique identifier from source table"],"jobBookmarkKeysSortOrder":"asc"}
datasource0 = glueContext.create_dynamic_frame.from_options(connection_type="postgresql",connection_options=connection_options_source,transformation_ctx="datasource0")
就是这样,伙计们
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。