Apache Spark大数据分析入门一

《Apache Spark大数据分析入门(一)》要点:
本文介绍了Apache Spark大数据分析入门(一),希望对您有用。如果有疑问,可以联系我们。

Apache Spark的出现让普通人也具备了大数据及实时数据分析能力.鉴于此,本文通过动手实战操作演示带领大家快速地入门学习Spark.本文是Apache Spark入门系列教程(共四部门)的第一部门.

全文共包含四个部分:

  • 第一部分:Spark入门,介绍如何使用Shell及RDDs
  • 第二部分:介绍Spark SQL、Dataframes及如何结合Spark与Cassandra一起使用
  • 第三部分:介绍Spark MLlib和Spark Streaming
  • 第四部分:介绍Spark Graphx图计算

本篇讲解的就是第一部分

关于全部摘要和提纲部分,请登录我们的网站 Apache Spark QuickStart for real-time data-analytics进行拜访.

Spark 概述

Apache Spark是一个正在快速成长的开源集群计算系统,正在快速的成长.Apache Spark生态系统中的包和框架日益丰富,使得Spark能够进行高级数据分析.Apache Spark的快速成功得益于它的强大功能和易于使用性.相比于传统的MapReduce大数据分析,Spark效率更高、运行时速度更快.Apache Spark 提供了内存中的分布式计算能力,具有Java、 Scala、Python、R四种编程语言的API编程接口.Spark生态系统如下图所示:

Apache Spark大数据分析入门(一)

整个生态系统构建在Spark内核引擎之上,内核使得Spark具备快速的内存计算能力,也使得其API支持Java、Scala,、Python、R四种编程语言.Streaming具备实时流数据的处理能力.Spark SQL使得用户使用他们最擅长的语言查询结构化数据,DataFrame位于Spark SQL的核心,DataFrame将数据保留为行的集合,对应行中的各列都被命名,通过使用DataFrame,可以非常方便地查询、绘制和过滤数据.MLlib为Spark中的机器学习框架.Graphx为图计算框架,提供结构化数据的图计算能力.以上便是整个生态系统的概况.

Apache Spark的发展历史

  • 最初由加州伯克利大学(UC Berkeley) AMP lab实验室开发并于2010年开源,目前已经成为阿帕奇软件基金会(Apache Software Foundation)的顶级项目.
  • 已经有12,500次代码提交,这些提交来自630个源码贡献者(参见 Apache Spark Github repo)
  • 大部分代码使用 Scala语言编写.
  • Apache Spark的Google兴趣搜索量( Google search interests)最近呈井喷式的增长,这表明其关注度之高(Google广告词工具显示:仅七月就有多达108,000次搜索,比Microservices的搜索量多十倍)

Apache Spark大数据分析入门(一)

  • 部分Spark的源码贡献者(distributors)分别来自IBM、Oracle、DataStax、BlueData、Cloudera……
  • 构建在Spark上的应用包含:Qlik、Talen、Tresata、atscale、platfora……
  • 使用Spark的公司有: VerizonVerizon、NBC、Yahoo、Spotify……

大家对Apache Spark如此感兴趣的原因是它使得普通的开发具备Hadoop的数据处理能力.较之于Hadoop,Spark的集群配置比Hadoop集群的配置更简单,运行速度更快且更容易编程.Spark使得大多数的开发人员具备了大数据和实时数据分析能力.鉴于此,鉴于此,本文通过动手实战操作演示带领大家快速地入门学习Apache Spark.

下载Spark并河演示如何使用交互式Shell命令行

动手实验Apache Spark的最好方式是使用交互式Shell命令行,Spark目前有Python Shell和Scala Shell两种交互式命令行.

可以从 这里下载Apache Spark,下载时选择最近预编译好的版本以便能够立即运行shell.

tar -xvzf ~/spark-1.5.0-bin-hadoop2.4.tgz

运行Python Shell

cd spark-1.5.0-bin-hadoop2.4./bin/pyspark

在本节中不会使用Python Shell进行演示.

Scala交互式命令行由于运行在JVM上,能够使用java库.

运行Scala Shell

cd spark-1.5.0-bin-hadoop2.4./bin/spark-shell

执行完上述命令行,你可以看到下列输出:

Scala Shell欢迎信息

Welcome to      ____              __     / __/__  ___ _____/ /__    _\ \/ _ \/ _ `/ __/  '_/   /___/ .__/\_,_/_/ /_/\_\   version 1.5.0      /_/Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM,Java 1.8.0_25)Type in expressions to have them evaluated.Type :help for more information.15/08/24 21:58:29 INFO SparkContext: Running Spark version 1.5.0

下面是一些简单的练习以便赞助使用shell.也许你现在不能理解我们做的是什么,但在后面我们会对此进行详细分析.在Scala Shell中,执行下列操作:

在Spark中使用README 文件创建textFileRDD

val textFile = sc.textFile("README.md")

获取textFile RDD的第一个元素

textFile.firstres3: String = # Apache Spark

对textFile RDD中的数据进行过滤操作,返回所有包括“Spark”关键字的行,操作完成后会返回一个新的RDD,操作完成后可以对返回的RDD的行进行计数

筛选出包含Spark关键字的RDD然后进行行计数

val linesWithSpark = textFile.filter(line => line.contains("Spark"))linesWithSpark.countres10: Long = 19

要找出RDD linesWithSpark单词出现最多的行,可以使用下列操作.使用map办法,将RDD中的各行映射成一个数,然后再使用reduce办法找出包含单词数最多的行.

找出RDD textFile 中包括单词数最多的行

textFile.map(line => line.split(" ").size).reduce((a,b) => if (a > b) a else b)res11: Int = 14

返回结果注解第14行单词数最多.

也可以引入其它java包,例如 Math.max办法,因为map和reduce办法接受scala函数字面量作为参数.

在scala shell中引入Java办法

import java.lang.MathtextFile.map(line => line.split(" ").size).reduce((a,b) => Math.max(a,b))res12: Int = 14

我们可以很容易地将数据缓存到内存当中.

将RDD linesWithSpark 缓存,然后进行行计数

linesWithSpark.cacheres13: linesWithSpark.type = MapPartitionsRDD[8] at filter at <console>:23linesWithSpark.countres15: Long = 19

上面简要地给大家演示的了如何使用Spark交互式命令行.

弹性分布式数据集(RDDs)

Spark在集群中可以并行地执行任务,并行度由Spark中的主要组件之一——RDD决定.弹性分布式数据集(Resilient distributed data,RDD)是一种数据表现方式,RDD中的数据被分区存储在集群中(碎片化的数据存储方式),正是由于数据的分区存储使得任务可以并行执行.分区数量越多,并行越高.下图给出了RDD的表现:

想像每列均为一个分区(partition ),你可以非常便利地将分区数据分配给集群中的各个节点.

为创建RDD,可以从外部存储中读取数据,例如从Cassandra、Amazon简单存储服务(Amazon Simple Storage Service)、HDFS或其它Hadoop支持的输入数据格式中读取.也可以通过读取文件、数组或JSON格式的数据来创建RDD.另一方面,如果对于应用来说,数据是本地化的,此时你仅需要使用parallelize办法便可以将Spark的特性作用于相应数据,并通过Apache Spark集群对数据进行并行化分析.为验证这一点,我们使用Scala Spark Shell进行演示:

通过单词列表集合创建RDD thingsRDD

val thingsRDD = sc.parallelize(List("spoon","fork","plate","cup","bottle"))thingsRDD: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[11] at parallelize at <console>:24

计算RDD thingsRDD 中单的个数

thingsRDD.countres16: Long = 5

运行Spark时,需要创建Spark Context.使用Spark Shell交互式命令行时,Spark Context会自动创建.当调用Spark Context 对象的parallelize 办法后,我们会得到一个经过分区的RDD,这些数据将被分发到集群的各个节点上.

使用RDD我们能够做什么?

对RDD,既可以进行数据转换,也可以对进行action操作.这意味着使用transformation可以改变数据格式、进行数据查询或数据过滤操作等,使用action操作,可以触发数据的改变、抽取数据、收集数据甚至进行计数.

例如,我们可以使用Spark中的文本文件README.md创建一个RDD textFile,文件中包括了若干文本行,将该文本文件读入RDD textFile时,其中的文本行数据将被分区以便能够分发到集群中并被并行化操作.

根据README.md文件创建RDD textFile

val textFile = sc.textFile("README.md")

行计数

textFile.countres17: Long = 98

README.md 文件中有98行数据.

得到的结果如下图所示:

然后,我们可以将所有包括Spark关键字的行筛选出来,完成操作后会生成一个新的RDDlinesWithSpark:

创建一个过滤后的RDD linesWithSpark

val linesWithSpark = textFile.filter(line => line.contains("Spark"))

在前一幅图中,我们给出了 textFile RDD的表现,下面的图为RDD linesWithSpark的表现:

值得注意的是,Spark还存在键值对RDD(Pair RDD),这种RDD的数据格式为键/值对数据(key/value paired data).例如下表中的数据,它表现水果与颜色的对应关系:

Apache Spark大数据分析入门(一)

对表中的数据使用groupByKey转换操作将得到下列结果:

groupByKey 转换操作

pairRDD.groupByKeyBanana [Yellow]Apple [Red,Green]      Kiwi [Green]Figs [Black]

该转换操作只将键为Apple,值为Red和Green的数据进行了分组.这些是到目前为止给出的转换操作例子.

当得到一个经过过滤操作后的RDD,可以collect/materialize相应的数据并使其流向应用程序,这是action操作的例子.经过此操作后,RDD中所有数据将消失,但我们仍然可以在RDD的数据上进行某些操作,因为它们仍然在内存当中.

Collect 或 materializelinesWithSpark RDD中的数据

linesWithSpark.collect

值得一提的是每次进行Spark action操作时,例如count action操作,Spark将重新启动所有的转换操作,计算将运行到最后一个转换操作,然后count操作返回计算结果,这种运行方式速度会较慢.为办理该问题和提高程序运行速度,可以将RDD的数据缓存到内存当中,这种方式的话,当你反复运行action操作时,能够避免每次计算都从头开始,直接从缓存到内存中的RDD得到相应的结果.

缓存RDDlinesWithSpark

linesWithSpark.cache

如果你想将RDD linesWithSpark从缓存中清除,可以使用unpersist办法.

将linesWithSpark从内存中删除

linesWithSpark.unpersist

如果不手动删除的话,在内存空间紧张的情况下,Spark会采用最近最久未使用(least recently used logic,LRU)调度算法删除缓存在内存中最久的RDD.

下面总结一下Spark从开始到结果的运行过程:

  • 创建某种数据类型的RDD
  • 对RDD中的数据进行转换操作,例如过滤操作
  • 在必要重用的情况下,对转换后或过滤后的RDD进行缓存
  • 在RDD上进行action操作,例如提取数据、计数、存储数据到Cassandra等.

下面给出的是RDD的部分转换操作清单:

  • filter
  • map
  • sample
  • union
  • groupbykey
  • sortbykey
  • combineByKey
  • subtractByKey
  • mapValues
  • Keys
  • Values

下面给出的是RDD的部门action操作清单:

  • collect
  • count
  • first
  • countbykey
  • saveAsTextFile
  • reduce
  • take(n)
  • countBykey
  • collectAsMap
  • lookup(key)

关于RDD所有的操作清单和描述,可以参考 Spark documentation

结束语

本文介绍了Apache Spark,一个正在快速成长、开源的集群计算系统.我们给大家展示了部分能够进行高级数据分析的Apache Spark库和框架.对 Apache Spark为什么会如此成功的原因进行了简要分析,具体表示为 Apache Spark的强大功能和易用性.给大家演示了 Apache Spark提供的内存、分布式计算环境,并演示了其易用性及易掌握性.

在本系列教程的第二部门,我们对Spark进行更深入的介绍.

欢迎参与《Apache Spark大数据分析入门(一)》讨论,分享您的想法,编程之家PHP学院为您提供专业教程。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


可以认为OpenFeign是Feign的增强版,不同的是OpenFeign支持Spring MVC注解。OpenFeign和Feign底层都内置了Ribbon负载均衡组件,在导入OpenFeign依赖后无需专门导入Ribbon依赖,用做客户端负载均衡,去调用注册中心服务。
为进一步规范小程序交易生态、提升用户购物体验、满足用户在有交易的小程序中便捷查看订单信息的诉求,自2022年12月31日起,对于有“选择商品/服务-下单-支付”功能的小程序,需按照平台制定的规范,在小程序内设置订单中心页。开发者可通过小程序代码提审环节,或通过「设置-基础设置-小程序订单中心path设置」模块设置订单中心页path。1、 新注册或有版本迭代需求的小程序,可在提审时通过参数配置该商家小程序的订单中心页path。2、无版本迭代需求的小程序,可在小程序订单中心path设置入口进行设置。
云原生之使用Docker部署Dashdot服务器仪表盘
本文主要描述TensorFlow之回归模型的基本原理
1.漏洞描述Apache Druid 是一个集时间序列数据库、数据仓库和全文检索系统特点于一体的分析性数据平台。Apache Druid对用户指定的HTTP InputSource没有做限制,并且Apache Druid默认管理页面是不需要认证即可访问的,可以通过将文件URL传递给HTTP InputSource来绕过。因此未经授权的远程攻击者可以通过构造恶意参数读取服务器上的任意文件,造成服务器敏感性信息泄露。2.影响版本Apache Druid &lt;= 0.21.13...
内部类(当作类中的一个普通成员变量,只不过此成员变量是class的类型):一个Java文件中可以包含多个class,但是只能有一个public class 如果一个类定义在另一个类的内部,此时可以称之为内部类使用:创建内部类的时候,跟之前的方法不一样,需要在内部类的前面添加外部类来进行修饰 OuterClass.InnerClass innerclass = new OuterClass().new InnerClass();特点:1.内部类可以方便的访问外部类的私有属性...
本文通过解读国密的相关内容与标准,呈现了当下国内技术环境中对于国密功能支持的现状。并从 API 网关 Apache APISIX 的角度,带来有关国密的探索与功能呈现。作者:罗泽轩,Apache APISIX PMC什么是国密顾名思义,国密就是国产化的密码算法。在我们日常开发过程中会接触到各种各样的密码算法,如 RSA、SHA256 等等。为了达到更高的安全等级,许多大公司和国家会制定自己的密码算法。国密就是这样一组由中国国家密码管理局制定的密码算法。在国际形势越发复杂多变的今天,密码算法的国产化
CENTOS环境Apache最新版本httpd-2.4.54编译安装
Apache HTTPD是一款HTTP服务器,它可以通过mod_php来运行PHP网页。影响版本:Apache 2.4.0~2.4.29 存在一个解析漏洞;在解析PHP时,将被按照PHP后缀进行解析,导致绕过一些服务器的安全策略。我们查看一下配置:读取配置文件,前三行的意思是把以 结尾的文件当成 文件执行。问题就在它使用的是 符号匹配的,我们都知道这个符号在正则表达式中的意思是匹配字符串的末尾,是会匹配换行符的,那么漏洞就这样产生了。 进入容器里,打开index.php,发现如果文件后缀名为 php、
apache Hop现在好像用的人很少, 我就自己写一个问题收集的帖子吧, 后面在遇到什么问题都会在该文章上同步更新
2.启动容器ps:注意端口占用,当前部署在 8080 端口上了,确保宿主机端口未被占用,不行就换其他端口ps:用户名和密码都是 admin,一会用于登录,其他随便填5.下载一个官方提供的样例数据库【可跳过】ps:此步国内无法访问,一般下载不了,能下的就下,不能下的跳过就行了,一会配置自己的数据库7.访问登录页面ps:注意端口是上面自己配置的端口,账号密码是 admin依次点击 Settings → Database Connections点击 DATABASE 就可以配置自己的数据库了
String类的常用方法1. String类的两种实例化方式1 . 直接赋值,在堆上分配空间。String str = "hello";2 . 传统方法。通过构造方法实例化String类对象String str1 = new String("Hello");2.采用String类提供的equals方法。public boolean equals(String anotherString):成员方法 str1.equals(anotherString);eg:publi
下载下载地址http://free.safedog.cn下载的setup:安装点击下面的图标开始安装:可能会提示:尝试先打开小皮面板的Apache服务:再安装安全狗:填入服务名:如果服务名乱写的话,会提示“Apache服务名在此机器上查询不到。”我干脆关闭了这个页面,直接继续安装了。安装完成后,需要进行注册一个账户,最后看到这样的界面:查看配置:...
一、问题描述一组生产者进程和一组消费者进程共享一个初始为空、大小n的缓冲区,只有缓冲区没满时,生产者才能把资源放入缓冲区,否则必须等待;只有缓冲区不为空时,消费者才能从中取出资源,否则必须等待。由于缓冲区是临界资源,它只允许一个生产者放入资源,或一个消费者从中取出资源。二、问题分析(1)、关系分析。生产者和消费者对缓冲区互斥访问是互斥关系,同时生产者和消费者又是一个相互协作的关系,只有生产者生产之后,消费者只能才能消费,它们还是同步关系。(2)、整理思路。只有生产生产者和消费者进程,正好是这两个进程
依赖注入的英文名是Dependency Injection,简称DI。事实上这并不是什么新兴的名词,而是软件工程学当中比较古老的概念了。如果要说对于依赖注入最知名的应用,大概就是Java中的Spring框架了。Spring在刚开始其实就是一个用于处理依赖注入的框架,后来才慢慢变成了一个功能更加广泛的综合型框架。我在学生时代学习Spring时产生了和绝大多数开发者一样的疑惑,就是为什么我们要使用依赖注入呢?现在的我或许可以给出更好的答案了,一言以蔽之:解耦。耦合度过高可能会是你的项目中一个比较
<dependency><groupId>org.apache.velocity</groupId><artifactId>velocity-engine-core</artifactId><version>使用人数最多的版本</version></dependency>importorg.apache.velocity.Template;importorg.apache.velo
Java Swing皮肤包前言:一.皮肤包分享二.皮肤包的使用1.先新建一个项目。2.导入皮肤包1.先导入我们刚刚下载的jar文件,右键项目demo即可2.如果右键没有这个选项,记得调为下图模式3.点击下图蓝色圆圈处4.找到刚刚下载的jar文件,点击打开即可5.我们看一下效果,是不是比原生的好看前言:因为Java Swing自身皮肤包不是很好看,甚至有点丑,怎么让你的界面更加好看,这里就需要用到皮肤包,我发现了一个还不错的皮肤包,让你的界面美观了几个等级。废话不多说。一.皮肤包分享百度网盘分享链接:
一、前言在做Java项目开发过程中,涉及到一些数据库服务连接配置、缓存服务器连接配置等,通常情况下我们会将这些不太变动的配置信息存储在以 .properties 结尾的配置文件中。当对应的服务器地址或者账号密码信息有所变动时,我们只需要修改一下配置文件中的信息即可。同时为了让Java程序可以读取 .properties配置文件中的值,Java的JDK中提供了java.util.Properties类可以实现读取配置文件。二、Properties类Properties 类位于 java.util.Pro
Mybatis环境JDK1.8Mysql5.7maven 3.6.1IDEA回顾JDBCMysqlJava基础MavenJunitSSM框架:配置文件的最好的方式:看官网文档Mybatis1、Mybatis简介1.1 什么是Mybatis如何获得Mybatismaven仓库:中文文档:https://mybatis.org/mybatis-3/zh/index.htmlGithub:1.2 持久化数据持久化持久化就是将程序的数据在持久状态和瞬时状态转