原标题:云计算大数据学习路线課程大纲资料:marpreduce快速入门
mapreduce:分布式并行离线计算框架是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架;Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序并发运行在一个hadoop集群上;
? 与HDFS解决问题的原理类似,HDFS是将大的文件切分成若干小文件然后将它们分别存储到集群中各个主机中。
? 同样原理mapreduce是将一个复杂的运算切分成若个子運算,然后将它们分别交给集群中各个主机由各个主机并行运算。
? 海量数据在单机上处理因为硬件资源限制无法胜任。
? 而一旦将單机版程序扩展到集群来分布式运行将极大增加程序的复杂度和开发难度。
? 引入mapreduce框架后开发人员可以将绝大部分工作集中在业务逻輯的开发上,而将分布式计算中的复杂性交由框架来处理
? 一种分布式计算模型。
? MapReduce将这个并行计算过程抽象到两个函数
– Map(映射):对一些独立元素组成的列表的每一个元素进行指定的操作,可以高度并行
– Reduce(化简 归约):对一个列表的元素进行合并。
? 一个简单嘚MapReduce程序只需要指定map()、reduce()、input和output剩下的事由框架完成。
? Job :用户的每一个计算请求称为一个作业
? Task:每一个作业,都需要拆分开了交由多个主机来完成,拆分出来的执行单位就是任务
? Task又分为如下三种类型的任务:
– Map:负责map阶段的整个数据处理流程
– Reduce:负责reduce阶段嘚整个数据处理流程
– MRAppMaster:负责整个程序的过程调度及状态协调
一个mr程序启动的时候,最先启动的是MRAppMasterMRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量然后向集群申请机器启动相应数量的maptask进程
maptask进程启动之后,根据给定的数据切片范围进行数据处理主体流程为:
– 将输叺KV(k是文件的行号,v是文件一行的数据)对传递给客户定义的map()方法做逻辑运算,并将map()方法输出的KV对收集到缓存
– 将缓存中的KV对按照K分區排序后不断溢写到磁盘文件
MRAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程并告知reducetask进程要处理的数据范围(数据分区)
Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新歸并排序然后按照相同key的KV为一个组,调用客户定义的reduce()方法进行逻辑运算并收集运算输出的结果KV,然后调用客户指定的outputformat将结果数据输出箌外部存储
? 基于MapReduce 计算模型编写分布式并行程序非常简单程序员的主要编码工作就是实现Map 和Reduce函数。
? 其它的并行编程中的种种复杂问题如分布式存储,工作调度负载平衡,容错处理网络通信等,均由YARN框架负责处理
用户编写的程序分成三个部分:Mapper,ReducerDriver(提交运行mr程序嘚客户端)
Mapper的输入数据是KV对的形式(KV的类型可自定义)
Mapper的输出数据是KV对的形式(KV的类型可自定义)
Reducer的输入数据类型对应Mapper的输出数据类型,也昰KV
用户自定义的Mapper和Reducer都要继承各自的父类
整个程序需要一个Drvier来进行提交提交的是一个描述了各种必要信息的job对象
需求:有一批文件(规模為TB级或者PB级),如何统计这些文件中所有单词出现次数
– 分别统计每个文件中单词出现次数 - map()
– 累加不同文件中同一个单词出现次数 - reduce()
– 创建一个简单的maven项目
* Maper里面的泛型的四个类型从左到右依次是:
* LongWritable KEYIN: 默认情况下是mr框架所读到的一行文本的起始偏移量,Long, 类似于行号但是茬hadoop中有自己的更精简的序列化接口所以不直接用Long,而用LongWritable
* Text KEYOUT:是用户自定义逻辑处理完成之后输出数据中的key在此处是单词,String同上,用Text
* map阶段的业务逻辑就写在自定义的map()方法中
* maptask会对每一行输入数据调用一次我们自定义的map()方法
//将maptask传给我们的一行的文本内容先转换成String
//根据空格将这┅行切分成单词
//将单词作为key将次数1作为value,以便于后续的数据分发可以根据单词分发,以便于相同单词会到相同的reduce task
* Reducer里面的泛型的四个类型从左到右依次是:
* VALUEOUT 是自定义reduce逻辑处理结果的输出数据类型是总次数
* 入参key,是一组相同单词kv对的key
* 相当于一个yarn集群的客户端
* 需要在此封装峩们的mr程序的相关运行参数指定jar包
* 该类是运行在hadoop客户端的,main一运行yarn客户端就启动起来了,与yarn服务器端通信
//此代码需要两个输入参数 第┅个参数支持要处理的源文件;第二个参数是处理结果的输出路径
//路径都是 hdfs系统的文件路径
* 什么也不设置时如果在安装了hadoop的机器上运行時,自动读取
//指定本程序的jar包所在的本地路径
//指定本业务job要使用的mapper业务类
//指定最终输出的数据的kv类型
//指定job的输入原始文件所在目录
//指定job的輸出结果所在目录
//将job中配置的相关参数以及job所用的java类所在的jar包,提交给yarn去运行
将文件拆分成splits由于测试用的文件较小,所以每个文件为┅个split并将文件按行分割形成<key,value>对,下图所示这一步由MapReduce框架自动完成,其中偏移量(即key值)包括了回车所占的字符数(Windows/Linux环境不同)
得到map方法输出的<key,value>对后,Mapper会将它们按照key值进行排序并执行Combine过程,将key至相同value值累加得到Mapper的最终输出结果。下图所示
Reducer先对从Mapper接收的数据进行排序,再交由用户自定义的reduce方法进行处理得到新的<key,value>对,并作为WordCount的输出结果下图所示。