学完了Hadoop,我总结了这些重点


  

  

  

  

一、Hadoop 组成

  

  

Hadoop解决两件事:

  1. 海量数据的存储
  2. 海量数据的计算

在这里插入图片描述


  

  

Hadoop1.x 、2.x 、3.x 的区别

  

Hadoop1.x时期,Hadoop中的MapReduce同时处理业务逻辑运算和资源的调度,耦合性较大(低耦合才好,高内聚低耦合嘛)。

Hadoop2.x时期,增加了Yarn。Yarn只负责资源的调度,MapReduce只负责运算。

Hadoop3.x在组成上没有变化

  
  

  

HDFS架构概述

  

Hadoop Distributed File System,简称 HDFS,是一个分布式文件系统。主要解决海量数据的存储问题。

  
(1)NameNode(NN):存储文件的元数据,如文件名文件目录结构文件属性(生成时间、副本数、文件权限),和每个文件的块列表块所在的DataNode等。

(2)DataNode(DN):在本地文件系统存储文件块数据,以及块数据的校验和

(3)SecondaryNameNode(2NN):每隔一段时间对NameNode元数据进行备份

  
  

  

MapReduce架构概述

  

MapReduce是一个分布式运算程序的编程框架,核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个Hadoop集群上。

  
MapReduce 将计算过程分为两个阶段:Map 和 Reduce

  1. Map 阶段并行处理输入数据
  2. Reduce 阶段对 Map 阶段处理的结果进行汇总

  
  

  

YARN架构概述

  

Yet Another Resource Negotiator,简称 YARN ,是另一种资源协调者,是Hadoop的资源管理器。

  
(1)ResourceManager(RM):整个集群资源(内存、CPU等)的老大(管理者)。

(2)NodeManager(NM):单个节点服务器资源老大(管理者)。

(3)ApplicationMaster(AM):单个任务运行的老大(管理者)。

(4)Container :容器,相当于一台独立的服务器,里面封装了任务运行所需要的资源,如内存、CPU、磁盘、网络等

  

说明:

  1. 客户端可以有多个(集群支持多客户端访问)
  2. 集群上可以运行多个ApplicationMaster(运行多个任务)
  3. 每个NodeManager上可以有多个Container(数量由服务器配置决定)

  

  

  

  

二、常用端口号

  

企业大都在用 Hadoop2.x ,但 3.x 是个趋势,所以 额额 都要会。

  

端口名称 Hadoop2.x Hadoop3.x
NameNode 内部通信端口 8020 / 9000 8020 / 9000 / 9820
NameNode 对用户的查询端口 50070 9870
Yarn 查看任务运行情况端口 8088 8088
历史服务器通信端口 19888 19888

  

  

  

  

三、常用的配置文件

  

Hadoop2.x :core-site.xml 、hdfs-site.xml 、mapred-site.xml 、yarn-site.xml 、slaves

Hadoop3.x :core-site.xml 、hdfs-site.xml 、mapred-site.xml 、yarn-site.xml 、workers

  

  

  

  

四、HDFS

  
  

  

HDFS文件块大小

  

HDFS中的文件在物理上是分块存储的(Block),块的大小可以通过配置参数(dfs.blocksize)来规定,默认大小在 Hadoop2.x / 3.x 版本中是128M,1.x版本中是64M 。(中小公司一般128M)

在这里插入图片描述

  

思考:为什么块的大小不能设置太小,也不能设置太大?

(1)HDFS的块设置太小会增加寻址时间,程序一直在找块的开始位置。

(2)如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时,会非常慢。(另外,块设置的太大还叫啥分布式存储呀,没意义了)

  
总结:HDFS块大小的设置主要取决于磁盘传输速率。

  
  

  

HDFS的Shell操作

  

我在 HDFS的Shell操作 这篇文章里详细写了,这里就不多说了。

  
  

  

HDFS的读写流程

  
  

HDFS的写数据流程

  

在这里插入图片描述


  

(1)客户端通过 Distributed FileSystem 模块向 NameNode 请求上传文件,NameNode检查权限(每个文件都有所属的用户、用户组);目标文件是否已存在,父目录是否存在。

(2)NameNode 向客户端回答是否可以上传。

(3)客户端请求第一个 Block 上传到哪几个 DataNode 服务器上。

(4)NameNode 返回3个 DataNode 节点,分别为DN1、DN2、DN3,表示采用这三个节点存储数据。

(5)客户端通过 FSDataOutputStream 模块请求DN1上传数据,DN1收到请求会继续调用DN2,然后DN2调用DN3,将这个通信管道建立完成。

(6)DN1、DN2、DN3逐级应答客户端。

(7)客户端开始往DN1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,DN1收到一个Packet就会传给DN2,DN2传给DN3;DN1 每传一个packet会放入一个应答队列等待应答。(防止发送失败,备份了一份下次还可以重发)

(8)当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-7步)。

  

  

HDFS的读数据流程

  

在这里插入图片描述

  

(1)客户端通过 DistributedFileSystem 向 NameNode 请求下载文件,NameNode 通过查询元数据,找到文件块所在的 DataNode 地址。

(2)挑选一台 DataNode服务器(考虑:就近原则,负载均衡),请求读取数据。

(3)DataNode 开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)。

(4)客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。

  

  

  

  

五、MapReduce

  
  

在这里插入图片描述

  

一、输入数据接口:InputFormat

  (1)默认使用的实现类是:TextInputFormat    输入kv:key 偏移量 ;v 一行内容。
      TextInputFormat的功能逻辑是:一次读一行文本,然后将该行的起始偏移量作为key,行内容作为value返回。

  (2)处理小文件是:CombineTextInputFormat,把多个小文件合并到一起统一切片,提高处理效率。

  

二、逻辑处理接口:Mapper

用户根据业务需求实现其中三个方法:setup() 初始化 、map() 用户的业务逻辑 、clearup() 关闭资源

  

三、分区:Partitioner

  (1)默认分区 HashPartitioner,按照 key的 hash值%numReduceTask 个数进行分区。

  (2)如果业务上有特别的需求,可以自定义分区。

  

四、排序:Comparable

  (1)部分排序:每个输出的文件内部有序。但多个文件整体上是无序的。

  (2)全排序:一个reduce,对所有数据进行排序。(企业中慎用,所有数据进入一个reduce,容易撑爆)

  (3)二次排序:自定义排序范畴,实现 writableComparable 接口,重写 compareTo 方法。

  (4)当我们用自定义的对象作为key来输出时,就必须要实现writableComparable接口,重写其中的compareTo()方法。

  

五、合并:Combiner

Combiner合并可以提高程序执行效率,减少IO传输。但是使用时必须不能影响原有的业务处理结果。

使用前提:不影响最终的业务逻辑。(求和可以,求平均值不行)
好处:提前预聚合map —— 也是解决数据倾斜的办法。(mapTask个数多,每个都分担一点,减小了所有数据全部传入一个Reduce的压力,所以能在map阶段处理的尽量在map阶段早处理)

  

六、逻辑处理接口:Reducer

用户根据业务需求实现其中三个方法:setup() 初始化 、reduce() 用户的业务逻辑 、clearup() 关闭资源

  

七、输出数据接口:OutputFormat

  (1)默认实现类是 TextOutputFormat ,按行输出到文件。功能逻辑是:将每一个KV对,向目标文本文件输出一行。

  (2)用户还可以自定义OutputFormat。

  

  

  

  

六、Yarn

  
  

Yarn工作机制

  

在这里插入图片描述

  

(0)MR(MapReduce)程序提交到客户端所在的节点。

(1)YarnRunner向ResourceManager申请一个Application。

(2)RM将该应用程序的资源路径返回给YarnRunner。

(3)该程序将运行所需资源提交到HDFS上。

(4)程序资源提交完毕后,申请运行mrAppMaster。

(5)RM将用户的请求初始化成一个Task。

(6)其中一个NodeManager领取到Task任务。

(7)该NodeManager创建容器Container,并产生MRAppmaster。

(8)Container从HDFS上拷贝资源到本地。

(9)MRAppmaster向RM申请运行MapTask资源。

(10)RM将运行MapTask任务分配给另外两个NodeManager,它们分别领取任务并创建容器(有几个切片就开启几个Container容器)。

(11)MR向两个接收到任务的NodeManager发送程序启动脚本,这两个NodeManager分别启动MapTask,MapTask对数据分区排序。

(12)MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask程序。

(13)ReduceTask向MapTask获取相应分区的数据。

(14)程序运行完毕后,MR会向RM申请注销自己,同时相关的MapReduce的资源也释放掉。

  
  

Yarn调度器

  

(1)调度器有三种:

    FIFO(先进先出)、Capacity Scheduler(容量调度器)和Fair Sceduler(公平调度器)。

    Apache 默认的资源调度器是 容量调度器;
    CDH 默认的资源调度器是 公平调度器。

    容量和公平调度器默认都是只有一个default队列,一个default队列在生产环境中不能满足并发要求,所以要创建多队列。

  

(2)每个调度器特点:

    FIFO调度器:支持单队列 、先进先出。生产环境不会用。
    容量调度器:支持多队列,保证先进入的任务优先执行。
    公平调度器:支持多队列,保证队列里的每个任务公平享有队列资源。 资源不够时可以按照缺额分配。

  

(3)在生产环境下怎么选择?

    中小公司:对并发度要求不高,集群服务器资源不太充裕,选择容量。
    大厂:对并发度要求比较高,选择公平,要求服务器性能必须OK;

  

(4)在生产环境怎么创建多队列? —— 调度器默认就1个default队列,不能满足生产要求

  1. 按照框架(小企业):hive /spark/ flink 每个框架的任务放入指定的队列(企业用的不是特别多)

  2. 按照业务模块(中大企业):登录注册、购物车、下单、业务部门1、业务部门2

业务部门1(重要)→ 业务部门2(比较重要)→ 下单(一般)→ 购物车(一般)→ 登录注册(次要)

  

(5)创建多队列的好处?

  1. 降低风险:防止员工不小心写递归死循环代码,把所有资源全部耗尽,导致整个集群瘫痪。

  2. 降级使用:实现任务的降级使用,特殊时期(双11、618)保证重要的任务队列资源充足。

原文地址:https://blog.csdn.net/qq_56952363

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


文章浏览阅读5.3k次,点赞10次,收藏39次。本章详细写了mysql的安装,环境的搭建以及安装时常见的问题和解决办法。_mysql安装及配置超详细教程
文章浏览阅读1.8k次,点赞50次,收藏31次。本篇文章讲解Spark编程基础这门课程的期末大作业,主要围绕Hadoop基本操作、RDD编程、SparkSQL和SparkStreaming编程展开。_直接将第4题的计算结果保存到/user/root/lisi目录中lisipi文件里。
文章浏览阅读7.8k次,点赞9次,收藏34次。ES查询常用语法目录1. ElasticSearch之查询返回结果各字段含义2. match 查询3. term查询4. terms 查询5. range 范围6. 布尔查询6.1 filter加快查询效率的原因7. boosting query(提高查询)8. dis_max(最佳匹配查询)9. 分页10. 聚合查询【内含实际的demo】_es查询语法
文章浏览阅读928次,点赞27次,收藏18次。
文章浏览阅读1.1k次,点赞24次,收藏24次。作用描述分布式协调和一致性协调多个节点的活动,确保一致性和顺序。实现一致性、领导选举、集群管理等功能,确保系统的稳定和可靠性。高可用性和容错性Zookeeper是高可用的分布式系统,通过多个节点提供服务,容忍节点故障并自动进行主从切换。作为其他分布式系统的高可用组件,提供稳定的分布式协调和管理服务,保证系统的连续可用性。配置管理和动态更新作为配置中心,集中管理和分发配置信息。通过订阅机制,实现对配置的动态更新,以适应系统的变化和需求的变化。分布式锁和并发控制。
文章浏览阅读1.5k次,点赞26次,收藏29次。为贯彻执行集团数字化转型的需要,该知识库将公示集团组织内各产研团队不同角色成员的职务“职级”岗位的评定标准;
文章浏览阅读1.2k次,点赞26次,收藏28次。在安装Hadoop之前,需要进行以下准备工作:确认操作系统:Hadoop可以运行在多种操作系统上,包括Linux、Windows和Mac OS等。选择适合你的操作系统,并确保操作系统版本符合Hadoop的要求。安装Java环境:Hadoop是基于Java开发的,因此需要先安装和配置Java环境。确保已经安装了符合Hadoop版本要求的Java Development Kit (JDK),并设置好JAVA_HOME环境变量。确认硬件要求:Hadoop是一个分布式系统,因此需要多台计算机组成集群。
文章浏览阅读974次,点赞19次,收藏24次。# 基于大数据的K-means广告效果分析毕业设计 基于大数据的K-means广告效果分析。
文章浏览阅读1.7k次,点赞6次,收藏10次。Hadoop入门理论
文章浏览阅读1.3w次,点赞28次,收藏232次。通过博客和文献调研整理的一些农业病虫害数据集与算法。_病虫害数据集
文章浏览阅读699次,点赞22次,收藏7次。ZooKeeper使用的是Zab(ZooKeeper Atomic Broadcast)协议,其选举过程基于一种名为Fast Leader Election(FLE)的算法进行。:每个参与选举的ZooKeeper服务器称为一个“Follower”或“Candidate”,它们都有一个唯一的标识ID(通常是一个整数),并且都知道集群中其他服务器的ID。总之,ZooKeeper的选举机制确保了在任何时刻集群中只有一个Leader存在,并通过过半原则保证了即使部分服务器宕机也能维持高可用性和一致性。
文章浏览阅读10w+次,点赞62次,收藏73次。informatica 9.x是一款好用且功能强大的数据集成平台,主要进行各类数据库的管理操作,是使用相当广泛的一款ETL工具(注: ETL就是用来描述将数据从源端经过抽取(extract)、转换(transform)、加载(load)到目的端的过程)。本文主要为大家图文详细介绍Windows10下informatica powercenter 9.6.1安装与配置步骤。文章到这里就结束了,本人是在虚拟机中装了一套win10然后在此基础上测试安装的这些软件,因为工作学习要分开嘛哈哈哈。!!!!!_informatica客户端安装教程
文章浏览阅读7.8w次,点赞245次,收藏2.9k次。111个Python数据分析实战项目,代码已跑通,数据可下载_python数据分析项目案例
文章浏览阅读1.9k次,点赞61次,收藏64次。TDH企业级一站式大数据基础平台致力于帮助企业更全面、更便捷、更智能、更安全的加速数字化转型。通过数年时间的打磨创新,已帮助数千家行业客户利用大数据平台构建核心商业系统,加速商业创新。为了让大数据技术得到更广泛的使用与应用从而创造更高的价值,依托于TDH强大的技术底座,星环科技推出TDH社区版(Transwarp Data Hub Community Edition)版本,致力于为企业用户、高校师生、科研机构以及其他专业开发人员提供更轻量、更简单、更易用的数据分析开发环境,轻松应对各类人员数据分析需求。_星环tdh没有hive
文章浏览阅读836次,点赞21次,收藏19次。
文章浏览阅读1k次,点赞21次,收藏15次。主要介绍ETL相关工作的一些概念和需求点
文章浏览阅读1.4k次。本文以Android、java为开发技术,实现了一个基于Android的博物馆线上导览系统 app。基于Android的博物馆线上导览系统 app的主要使用者分为管理员和用户,app端:首页、菜谱信息、甜品信息、交流论坛、我的,管理员:首页、个人中心、用户管理、菜谱信息管理、菜谱分类管理、甜品信息管理、甜品分类管理、宣传广告管理、交流论坛、系统管理等功能。通过这些功能模块的设计,基本上实现了整个博物馆线上导览的过程。
文章浏览阅读897次,点赞19次,收藏26次。1.背景介绍在当今的数字时代,数据已经成为企业和组织中最宝贵的资源之一。随着互联网、移动互联网和物联网等技术的发展,数据的产生和收集速度也急剧增加。这些数据包括结构化数据(如数据库、 spreadsheet 等)和非结构化数据(如文本、图像、音频、视频等)。这些数据为企业和组织提供了更多的信息和见解,从而帮助他们做出更明智的决策。业务智能(Business Intelligence,BI)...
文章浏览阅读932次,点赞22次,收藏16次。也就是说,一个类应该对自己需要耦合或调用的类知道的最少,类与类之间的关系越密切,耦合度越大,那么类的变化对其耦合的类的影响也会越大,这也是我们面向对象设计的核心原则:低耦合,高内聚。优秀的架构和产品都是一步一步迭代出来的,用户量的不断增大,业务的扩展进行不断地迭代升级,最终演化成优秀的架构。其根本思想是强调了类的松耦合,类之间的耦合越弱,越有利于复用,一个处在弱耦合的类被修改,不会波及有关系的类。缓存,从操作系统到浏览器,从数据库到消息队列,从应用软件到操作系统,从操作系统到CPU,无处不在。
文章浏览阅读937次,点赞22次,收藏23次。大数据可视化是关于数据视觉表现形式的科学技术研究[9],将数据转换为图形或图像在屏幕上显示出来,并进行各种交互处理的理论、方法和技术。将数据直观地展现出来,以帮助人们理解数据,同时找出包含在海量数据中的规律或者信息,更多的为态势监控和综合决策服务。数据可视化是大数据生态链的最后一公里,也是用户最直接感知数据的环节。数据可视化系统并不是为了展示用户的已知的数据之间的规律,而是为了帮助用户通过认知数据,有新的发现,发现这些数据所反映的实质。大数据可视化的实施是一系列数据的转换过程。