1.Mapreduce的分区和reducetask的数量

	1.分区:将相同的数据按照一定规则发送到同一个reduce中进行数据的处理。

			原则:物理类聚 人以群分



	2.reducetask的数量:

		1个reducetask最终对应1个生成的文件

		默认情况下,只有一个reducetask

	3.hashpartitioner

		(key.hashCode&Integer.maxValue)  %numReduceTask

			(13777xxxxx  	&Integer.maxValue) 	%	2

		(key.hashCode() & 2147483647) % numReduceTasks;

2.mapreduce 的排序和序列化

mapreduce使用自己的序列方式:

	使用Writable接口完成序列化操作,mr的序列化是轻量级的数据化

	实现Writable接口,就可以完成一个对象的序列化

	如果既想序列化,又想进行排序,需要实现接口 WritableCompareable

	默认情况下,虽然我们没有进行排序,但是系统会有一个默认的排序,按照key2进行字典排序

3.combiner

	数据的规约

	在map阶段处理完数据后,为了map和reduce阶段更少的传递数据,增加一个combiner阶段,减少数据。

	combiner就是map端的reduce

blockSize 128M

long minSize = Math.max(getFormatMinSplitSize(), getMinSplitSize(job));    1
long maxSize = getMaxSplitSize(job);    Long.MAX_VALUE

computeSplitSize(blockSize, minSize, maxSize);

Math.max(minSize, Math.min(maxSize, blockSize));
posted on 2019-08-04 23:13  jeasonchen001  阅读(133)  评论(0)    收藏  举报