如何解决比较PySpark中的文件
我正在使用PySpark,我需要比较两个文件的内容-进行diffcheck。 所以我将测试分为2:
第一步是通过
joined_columns = set(tbl1.columns).intersection(set(tbl2.columns))
joined_columns_str = str(joined_columns)[1:-1].replace("'","")
tbl1_set = spark.sql("SELECT " + joined_columns_str + " FROM tbl1")
tbl2_set = spark.sql("SELECT " + joined_columns_str + " FROM tbl2")
sql = "SELECT * FROM tbl1_set " \
"EXCEPT " \
"SELECT * FROM tbl2_set "
different_records = spark.sql(sql)
org.apache.spark.sql.AnalysisException: Cannot have map type columns in DataFrame which calls set operations(intersect,except,etc.)
有人知道如何解决它,只获得不相同的记录吗? 我曾考虑过使用udf,但只有在引用特定字段时,才在“ select *”上找不到如何使用它的方法。
任何帮助将不胜感激。
谢谢!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。