微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

比较PySpark中的文件

如何解决比较PySpark中的文件

我正在使用PySpark,我需要比较两个文件内容-进行diffcheck。 所以我将测试分为2:

  1. 我正在使用文件间的连接列,并检查记录是否相同
  2. 我要从每个文件提取唯一列,并保存它们(以进行手动测试)

第一步是通过

joined_columns = set(tbl1.columns).intersection(set(tbl2.columns))
joined_columns_str = str(joined_columns)[1:-1].replace("'","")

tbl1_set = spark.sql("SELECT " + joined_columns_str + " FROM tbl1")
tbl2_set = spark.sql("SELECT " + joined_columns_str + " FROM tbl2")

sql = "SELECT * FROM tbl1_set " \
          "EXCEPT " \
          "SELECT * FROM tbl2_set "
different_records = spark.sql(sql)

但是,在这文件中,我有map列-因此出现此错误

org.apache.spark.sql.AnalysisException: Cannot have map type columns in DataFrame which calls set operations(intersect,except,etc.)

有人知道如何解决它,只获得不相同的记录吗? 我曾考虑过使用udf,但只有在引用特定字段时,才在“ select *”上找不到如何使用它的方法

任何帮助将不胜感激。

谢谢!

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。