博客
关于我
理解MapReduce原理_mr
阅读量:374 次
发布时间:2019-03-05

本文共 960 字,大约阅读时间需要 3 分钟。

用自己的话概况一下

MapReduce是一个基于集群的计算平台,是一个简化分布式编程的计算框架,是一个将分布式计算抽象为Map和Reduce两个阶段的编程模型。(这句话记住了是可以用来装逼的)

基本概念–job和task

作业job是客户端要求执行的一个工作单元

– 输入数据、MapReduce程序、配置信息
任务task是MapReduce将作业拆成的小单元
– map任务和reduce任务
• Job Tracker节点(master)
– 调度task在Task Tracker上运行,协调所有作业运行
– 如果一个task失败,Job Tracker指定一个Task Tracker重新开始
• Task Tracker节点(worker)
– 执行任务,发送进度报告

分片的定义

– MapReduce把输入的数据划分成等长的小数据块,称为输入分片input split,简称分片

• 分片大小

– 分片越小,负载越平衡
– 异构时根据计算机性能分配任务个数
– 失败重启更加平衡
– 分片越小,框架开销越大

每个分片一个map任务

– 管理分配的总时间和构建map任务时间变大
– 默认HDFS块大小,128MB

• 计算数据本地化

– 在本地存有HDFS数据的节点上运行map任务
在这里插入图片描述
图解:
在这里插入图片描述

MapReduce详细过程

• 一个split(切片)起一个map任务

• map输出时会先将输出中间结果写入到buffer中 • 在buffer中对数据进行partition(分区,partition数为reduce数)和基于key的sort(排序),达到阈
值后spill到本地磁盘
• 在map任务结束之前,会对输出的多个文件进行merge(合并),合并成一个文件
• 每个reduce任务会从多个map输出中拷贝自己的partition
• reduce也会将数据先放到buffer中,达到阈值会写到磁盘
• 当数据该reduce的map输出全部拷贝完成,合并多个文件成一个文件,并保持基于key的有序
• 最后,执行reduce阶段,运行我们实现的reduce中化简逻辑,最终将结果直接输出到HDFS中

可以参考这:

https://www.jianshu.com/p/ca165beb305b

转载地址:http://varg.baihongyu.com/

你可能感兴趣的文章
Nginx配置TCP代理指南
查看>>
Nginx配置——不记录指定文件类型日志
查看>>
nginx配置一、二级域名、多域名对应(api接口、前端网站、后台管理网站)
查看>>
Nginx配置代理解决本地html进行ajax请求接口跨域问题
查看>>
nginx配置全解
查看>>
Nginx配置参数中文说明
查看>>
Nginx配置后台网关映射路径
查看>>
nginx配置域名和ip同时访问、开放多端口
查看>>
Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
查看>>
Nginx配置如何一键生成
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>