如何解决sparklyr :: spark_write_jdbc不接受Spark数据帧吗?
我正在Databricks内部工作,试图使用sparklyr函数spark_write_jdbc将数据帧写入SQL Server表。服务器名称/驱动程序等正确无误,并且可以正常工作,因为我已在代码前面成功使用了sparklyr :: spark_read_jdbc()。
根据文档(here),spark_write_jdbc应该接受一个Spark数据框。
我使用SparkR :: createDataFrame()将我正在使用的数据帧转换为Spark数据帧。
以下是相关代码:
events_long_test <- SparkR::createDataFrame(events_long,schema = NULL,samplingRatio = 1,numPartitions = NULL)
sparklyr::spark_write_jdbc(events_long_test,name ="who_status_long_test",options = list(url = url,user = user,driver = "com.microsoft.sqlserver.jdbc.SQLServerDriver",password = pw,dbtable = "who_status_long_test"))
但是,当我运行它时,它给了我以下错误:
UseMethod(“ spark_write_jdbc”)中的错误:UseMethod(“ spark_write_jdbc”)中的错误: 没有将适用于“ spark_write_jdbc”的适用方法应用于“ SparkDataFrame”类的对象
我到处搜索,找不到其他人询问此错误。当文档说可以使用此功能时,为什么会说此功能不能与Spark Dataframe一起使用?
感谢您的帮助。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。