如何解决Spark SQL-获取前一小时数据的条件
我正在编写一个针对最近一小时数据的Spark SQL查询。
我以前运行此查询来获取前一天的结果,但是由于我的Lambda函数处理负荷大,所以我需要更频繁地安排此查询。
这是我上一次查询中的相关条件。
WHERE time >= date_sub(CAST(current_timestamp() as DATE),1)
任何关于如何构造Spark SQL条件以仅获取最后一个小时的数据的知识都将受到赞赏。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。