我需要比较我的spark应用程序中的两个数据帧.我通过了以下帖子.
How to obtain the difference between two DataFrames?
但是,我不明白为什么这个方法在最佳答案中
df1.unionAll(df2).except(df1.intersect(df2))
比问题中的更好
df1.except(df2).union(df2.except(df1))
谁能解释一下?
根据我的理解,后者使用两个较小的数据集,以前使用大型数据集.是因为后者作为联盟的一部分而独特吗?即使这样,如果两个数据帧更可能是具有相同记录的情况,我们在后一种情况下处理一个小数据集.
解决方法:
首先要做的事情 – 自Spark版本2起,unionAll已被弃用.请使用union,就像在第二个代码段中所做的那样.
其次,在问题的答案中,你引用的是没有信息,第一段代码更好.我准备了这样一个场景.对我来说,第一个是31秒,第二个是18秒.在我的情况下,df1有大约300万行和df2~1百万行,每行5列.
如果我们现在分析第一个查询的优化逻辑执行计划:
== Optimized Logical Plan ==
GlobalLimit 21
+- LocalLimit 21
+- Aggregate [_c0#10, _c1#11, _c2#12, _c3#13, _c4#14], [cast(_c0#10 as string) AS _c0#67, cast(_c1#11 as string) AS _c1#68, cast(_c2#12 as string) AS _c2#69, cast(_c3#13 as string) AS _c3#70, cast(_c4#14 as string) AS _c4#71]
+- Join LeftAnti, (((((_c0#10 <=> _c0#52) && (_c1#11 <=> _c1#53)) && (_c2#12 <=> _c2#54)) && (_c3#13 <=> _c3#55)) && (_c4#14 <=> _c4#56))
:- Union
: :- Relation[_c0#10,_c1#11,_c2#12,_c3#13,_c4#14] csv
: +- Project [_c0#30, _c1#31, _c2#32, _c3#33, cast(_c4#34 as double) AS _c4#40]
: +- Relation[_c0#30,_c1#31,_c2#32,_c3#33,_c4#34] csv
+- Aggregate [_c0#52, _c1#53, _c2#54, _c3#55, _c4#56], [_c0#52, _c1#53, _c2#54, _c3#55, _c4#56]
+- Join LeftSemi, (((((_c0#52 <=> _c0#30) && (_c1#53 <=> _c1#31)) && (_c2#54 <=> _c2#32)) && (_c3#55 <=> _c3#33)) && (_c4#56 <=> _c4#46))
:- Relation[_c0#52,_c1#53,_c2#54,_c3#55,_c4#56] csv
+- Project [_c0#30, _c1#31, _c2#32, _c3#33, cast(_c4#34 as double) AS _c4#46]
+- Relation[_c0#30,_c1#31,_c2#32,_c3#33,_c4#34] csv
我们可以看到,并发运行Union和Join(交集),这是非常昂贵的,尤其是Union,而对于第二个查询:
== Optimized Logical Plan ==
GlobalLimit 21
+- LocalLimit 21
+- Union
:- LocalLimit 21
: +- Aggregate [_c0#10, _c1#11, _c2#12, _c3#13, _c4#14], [cast(_c0#10 as string) AS _c0#120, cast(_c1#11 as string) AS _c1#121, cast(_c2#12 as string) AS _c2#122, cast(_c3#13 as string) AS _c3#123, cast(_c4#14 as string) AS _c4#124]
: +- Join LeftAnti, (((((_c0#10 <=> _c0#30) && (_c1#11 <=> _c1#31)) && (_c2#12 <=> _c2#32)) && (_c3#13 <=> _c3#33)) && (_c4#14 <=> _c4#98))
: :- Relation[_c0#10,_c1#11,_c2#12,_c3#13,_c4#14] csv
: +- Project [_c0#30, _c1#31, _c2#32, _c3#33, cast(_c4#34 as double) AS _c4#98]
: +- Relation[_c0#30,_c1#31,_c2#32,_c3#33,_c4#34] csv
+- LocalLimit 21
+- Aggregate [_c0#30, _c1#31, _c2#32, _c3#33, _c4#104], [cast(_c0#30 as string) AS _c0#130, cast(_c1#31 as string) AS _c1#131, cast(_c2#32 as string) AS _c2#132, cast(_c3#33 as string) AS _c3#133, cast(_c4#104 as string) AS _c4#134]
+- Join LeftAnti, (((((_c0#30 <=> _c0#10) && (_c1#31 <=> _c1#11)) && (_c2#32 <=> _c2#12)) && (_c3#33 <=> _c3#13)) && (_c4#104 <=> _c4#14))
:- Project [_c0#30, _c1#31, _c2#32, _c3#33, cast(_c4#34 as double) AS _c4#104]
: +- Relation[_c0#30,_c1#31,_c2#32,_c3#33,_c4#34] csv
+- Relation[_c0#10,_c1#11,_c2#12,_c3#13,_c4#14] csv
有两个LeftAnti同时运行(相对称赞).这样占用的空间更少,效率更高.这可以在SparkUI中看到:
在第一种情况下,阶段7 – 联盟是最昂贵的,而在第二种情况下阶段42和41(上面)相对更快.
原文地址:https://codeday.me/bug/20190522/1152474.html
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。