ElasticSearch -- Spark读写ES

介绍

Elasticsearch提供了对Spark的支持,可以将ES中的索引加载为RDD或DataFrame。
官网地址:https://www.elastic.co/guide/en/elasticsearch/hadoop/7.17/spark.html#spark-sql-versions

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在使用elasticsearch-spark插件之前,需要在项目中添加依赖:

<dependency>
   <groupId>org.elasticsearch</groupId>
    <artifactId>elasticsearch-spark-30_2.12</artifactId>
    <version>7.17.5</version>
</dependency>

读取es

加载为rdd

val spark: SparkSession = SparkSession
      .builder().appName("SinkCk")
      .master("local[4]").config("spark.driver.host", "localhost")

      /**
       * 当读取为rdd时需要在创建spark session 时就指定如下三个参数,
       * 当读取为dataframe时不需要初始传入,只需在读取时动态传入即可
       */
      .config("es.nodes", "node01")
      .config("es.port", "9200")
      .config("pushdown", "true")
      //      .config("es.index.auto.create",true)
      .getOrCreate()
      
 val rdd = spark.sparkContext.esJsonRDD("icourt_compliance_online",
      """
        |{
        |  "query": {
        |    "match": {"_id": "df2773d689de18192bb39eceb1a924db"}
        |  }
        |}
        |""".stripMargin)
    rdd.foreach(println)

spark.clouse()

Spark从ES加载出来的数据是JSON String类型的RDD,根据请求体的结构就可以取出来具体的数据。

加载为dataframe

方式一:

val spark: SparkSession = SparkSession
      .builder().appName("SinkCk")
      .master("local[4]").config("spark.driver.host", "localhost")
      .getOrCreate()
      
 val options = Map("es.nodes" -> "node01",
      "es.port" -> "9200", "pushdown" -> "true",
      //spark和es非同一网段时增加该配置
      "es.nodes.wan.only" -> "true",
      //并发更新时, 如果更新在同一条记录则会冲突,增加该配置
      "es.update.retry.on.conflict" -> "3",
      //决定spark会生成多少个partition对应执行的task
      "es.input.max.docs.per.partition" -> "5000000")

val inputDF = spark.read.format("org.elasticsearch.spark.sql")
      .options(options).load("icourt_compliance_online")
      .where("cid = 'df2773d689de18192bb39eceb1a924db'")
      .select("cid", "compliance_id", "ds_source", "status", "notice_main_body", "source_url", "title")
    inputDF.printSchema()
    inputDF.show()
spark.clouse()

方式二:无需在sparkSession初始化时配置es,在写入时配置即可

val inputDF = spark.esDF("icourt_compliance_online", "cid = 'df2773d689de18192bb39eceb1a924db'", options)
inputDF.printSchema()
inputDF.show()
spark.clouse()

写入

以rdd写

  def rddWrite2Es(spark: SparkSession) = {
    val numbers = Map("one" -> 1, "two" -> 2, "three" -> 3)
    val airports = Map("arrival" -> "Otopeni", "SFO" -> "San Fran")
    spark.sparkContext
      .makeRDD(Seq(numbers, airports))
      .saveToEs("spark_es_demo")
  }

以dataframe写

方式一:

  def dataframeWrite2Es(spark: SparkSession) = {
    import spark.implicits._
    val df = Seq((1, "a", 2), (1, "a", 2), (1, "b", 3))
      .toDF("id", "category", "num")
    df.saveToEs("spark_es_demo")
  }

方式二:无需在sparkSession初始化时配置es,在写入时配置即可

  def dataframeWrite2Es(spark: SparkSession) = {
    import spark.implicits._
    val df = Seq((1, "a", 2), (1, "a", 2), (1, "b", 3))
      .toDF("id", "category", "num")
    val options = Map("es.nodes" -> "node01", "es.port" -> "9200",
      //并发更新时, 如果更新在同一条记录则会冲突,增加该配置
      "es.update.retry.on.conflict" -> "3")
    df.write.format("org.elasticsearch.spark.sql")
      .options(options).mode(SaveMode.Append)
      .save("spark_es_demo")
  }

structured streaming写

df
  .writeStream
  .outputMode(OutputMode.Append())
  .format("es")
  .option("checkpointLocation", "hdfs://hadoop:8020/checkpoint/test01")
  .options(options)
  .start("streaming_2_es")
  .awaitTermination()

注意

  1. 写入es时索引是自动创建的,也可以在创建sparkSession时设置不自动创建: SparkSession.builder().config("es.index.auto.create",false),如果已写入时已存在相关索引,则会进行mapping融合(不同mapping融合为一个mapping),或者也可以删除原索引:curl -XDELETE "http://localhost:9200/index"
  2. 插入数据时_id是自动生成的,如果需要以数据中某字段作为_id,则在创建sparkSession时设置es.mapping.id:SparkSession.builder().config("es.mapping.id","id")
  3. 分片数和备份数默认都是1,这个是可以随时修改更新的(可使用官方给的kibana工具)

一些配置

在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


学习编程是顺着互联网的发展潮流,是一件好事。新手如何学习编程?其实不难,不过在学习编程之前你得先了解你的目的是什么?这个很重要,因为目的决定你的发展方向、决定你的发展速度。
IT行业是什么工作做什么?IT行业的工作有:产品策划类、页面设计类、前端与移动、开发与测试、营销推广类、数据运营类、运营维护类、游戏相关类等,根据不同的分类下面有细分了不同的岗位。
女生学Java好就业吗?女生适合学Java编程吗?目前有不少女生学习Java开发,但要结合自身的情况,先了解自己适不适合去学习Java,不要盲目的选择不适合自己的Java培训班进行学习。只要肯下功夫钻研,多看、多想、多练
Can’t connect to local MySQL server through socket \'/var/lib/mysql/mysql.sock问题 1.进入mysql路径
oracle基本命令 一、登录操作 1.管理员登录 # 管理员登录 sqlplus / as sysdba 2.普通用户登录
一、背景 因为项目中需要通北京网络,所以需要连vpn,但是服务器有时候会断掉,所以写个shell脚本每五分钟去判断是否连接,于是就有下面的shell脚本。
BETWEEN 操作符选取介于两个值之间的数据范围内的值。这些值可以是数值、文本或者日期。
假如你已经使用过苹果开发者中心上架app,你肯定知道在苹果开发者中心的web界面,无法直接提交ipa文件,而是需要使用第三方工具,将ipa文件上传到构建版本,开...
下面的 SQL 语句指定了两个别名,一个是 name 列的别名,一个是 country 列的别名。**提示:**如果列名称包含空格,要求使用双引号或方括号:
在使用H5混合开发的app打包后,需要将ipa文件上传到appstore进行发布,就需要去苹果开发者中心进行发布。​
+----+--------------+---------------------------+-------+---------+
数组的声明并不是声明一个个单独的变量,比如 number0、number1、...、number99,而是声明一个数组变量,比如 numbers,然后使用 nu...
第一步:到appuploader官网下载辅助工具和iCloud驱动,使用前面创建的AppID登录。
如需删除表中的列,请使用下面的语法(请注意,某些数据库系统不允许这种在数据库表中删除列的方式):
前不久在制作win11pe,制作了一版,1.26GB,太大了,不满意,想再裁剪下,发现这次dism mount正常,commit或discard巨慢,以前都很快...
赛门铁克各个版本概览:https://knowledge.broadcom.com/external/article?legacyId=tech163829
实测Python 3.6.6用pip 21.3.1,再高就报错了,Python 3.10.7用pip 22.3.1是可以的
Broadcom Corporation (博通公司,股票代号AVGO)是全球领先的有线和无线通信半导体公司。其产品实现向家庭、 办公室和移动环境以及在这些环境...
发现个问题,server2016上安装了c4d这些版本,低版本的正常显示窗格,但红色圈出的高版本c4d打开后不显示窗格,
TAT:https://cloud.tencent.com/document/product/1340