MapReduce的基础知识

1. Hadoop MapReduce 是一个 分布式计算框架,用于轻松编写分布式应用程序,这些应用程序以可靠,容错的方式并行处理大型硬件集群(数千个节点)上的大量数据(多TB数据集),2. MapReduce 是一种面向海量数据处理的一种指导思想,也是一种用于对大规模数据进行分布式计算的编程模型。,• MapReduce易于编程: 它简单的实现一些接口,就可以完成一个分布式程序,• 良好的扩展性: 当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。,• 高容错性: MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的。,• 适合PB级以上海量数据的离线处理: 可以实现上千台服务器集群并发工作,提供数据处理能力。,• 实时计算性能差: MapReduce 主要应用于离线作业,无法做到秒级或者是亚秒级别的数据响应。,• 不能进行流式计算: 流式计算的输入数据是动态的,而MapReduce的输入数据集是静态的,不能动态变化。这是因为MapReduce自身的设计特点决定了数据源必须是静态的。,• 不擅长DAG(有向无环图)计算 多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce并不是不能做,而是使用后,每个MapReduce作业的输出结果都会写入到磁盘,会造成大量的磁盘IO,导致性能非常的低下。,一个完整的MapReduce程序在分布式运行时有三类实例进程: (1)MrAppMaster:负责整个程序的过程调度及状态协调。 (2)MapTask:负责Map阶段的整个数据处理流程。 (3)ReduceTask:负责Reduce阶段的整个数据处理流程。,• 用户编写的程序代码分成三个部分: Mapper、Reducer和Driver(客户端提交作业驱动程序),• 用户自定义的Mapper和Reducer都要继承各自的父类。,Mapper阶段:,1. 用户自定义的Mapper要继承自己的父类,2. Mapper的输入数据是KV对的形式(KV的类型可自定义),3. Mapper中的业务逻辑写在map()方法中,4. Mapper的输出数据是KV对的形式(KV的类型可自定义),5. map()方法(MapTask进程)对每一个<K,V>调用一次,Reducer阶段:,1. 用户自定义的Reducer要继承自己的父类,2. Reducer的输入数据类型对应Mapper的输出数据类型,也是KV,3. Reducer的业务逻辑写在reduce()方法中,4. ReduceTask进程对每一组相同k的<k,v>组调用一次reduce()方法,Driver: 描述的是提交Job对象需要的各种必要的信息。,MapReduce内置了很多默认属性,比如: 排序(key的字典序)、分组(reduce阶段key相同的为一组,一组调用一次reduce处理)等,这些都和数据的K有关,所以说kv的类型数据确定是及其重要的。,

文章版权声明

 1 原创文章作者:cmcc,如若转载,请注明出处: https://www.52hwl.com/28339.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年6月23日
下一篇 2023年7月15日