MapReduce数据格式化

引言:

我们知道:在MapReduce程序的Map阶段,需要有满足格式的数据输入给Mapper,但源数据要么不满足数据输入格式,要么数据量太大(一个MapTask不能高效处理),所以在数据输入Mapper之前,需要根据数据的特点和业务逻辑对数据进行格式化,这一步的格式化被称为:InputFormat。

本文重点研究的几个InputFormat:

    补充:在上一篇对于任务提交的源码分析中,指出了Map阶段开启多少个节点处理Map任务是由切片数量决定的,即切片数和MapTask数量保持一致,也就是说,当MapTask为3时,那么在Map阶段,就会开启三个节点对三个切片做数据处理。这样听起来似乎是开启的节点越多,数据处理的速度越快,就好像人多力量大那样,但事实真是如此吗?还是说会出现杀鸡焉用牛刀的情况呢?

  思考:1G的数据(1024mb),启动8个MapTask使用八个节点节点做数据处理,似乎可以提高集群的并发处理能力,那1kb的数据,也启动8个MapTask,会提高集群性能么?MapTask并行任务是否越多越好呢?哪些因素影响了MapTask并行度呢?

  假设1G的数据切成按照128mb规格切片,可以切成8片,如果按照256mb规格切片,可以切成4片,显然:相同的数据,不同的切片规格,会导致切片数不同,进而导致MapTask随着切片数变化。那么这个切片规格从何而来,又如何进行设置呢?

  注意:对数据进行切片,并不是从物理上将硬盘中的数据切成片分开存储,而是生成一个job.split文件记录切片信息,在Map阶段按照此文件的规划将数据分片处理。相关的内容可查看:https://www.cnblogs.com/superlsj/p/11853436.html

一、浅谈FileInputFormat切片机制【MapReduce框架默认的切片机制】:

  

   红框内的公式决定了:默认情况下是按照Blocksize的大小进行切片的,如果目标文件存储在HDFS上,blockSize默认为128mb,在Windows文件系统上则为32mb。此外,在这种切片方式下,不管文件大小为多少,在切片时都以文件为单位单独进行切片操作,所以当出现大量小文件时,会出现大量切片,创建大量的MapTask而导致集群性能下降。所以针对不同的数据特征,改变切片大小、合并小文件等业务需求被提了出来。

一、CombineTextInputFormat的切片机制

  1、应用场景:CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中这样多个小文件可以交给一个MapTask处理

  2、虚拟存储切片最大值设置

  CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m

注意虚拟存储切片最大值设置最好根据实际的小文件大小的具体情况来设置具体的值。

  3、切片机制:生成切片过程包括:虚拟存储过程和切片过程二部分

    ①、虚拟存储过程:

      将输入目录下所有文件大小,依次和设置setMaxInputSplitSize比较如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值大于两倍,那么先以MaxInputSplitSize为尺度切割一块;当剩余数据大小超过设置的最大值且不大于最大2倍,此时将文件均分成2个虚拟存储块(防止出现小切片)

  例如setMaxInputSplitSize值为4M输入文件大小8.02M,则先逻辑上分成一个4M剩余的大小为4.02M,如果按照4M逻辑划分,就会出现0.02M的小的虚拟存储文件将剩余的4.02M文件切分成(2.01M2.01M)两个文件。

②、切片:

  a判断虚拟存储的文件大小是否等于setMaxInputSplitSize值,等于则单独形成一个切片。

  (b如果小于则跟下一个虚拟存储文件进行合并,共同形成一个切片。

③、案例:

4个小文件大小分别为1.7M5.1M3.4M以及6.8M这四个小文件,则虚拟存储之后形成6个文件块,大小分别为:1.7M,(2.55M2.55M3.4M以及(3.4M3.4M

最终会形成3个切片,大小分别为1.7+2.55M2.55+3.4M3.4+3.4M

 

  如果要使用CombineTextInputFormat,需要在Driver类中指明并且设置虚拟存储的最大值:

// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);

//虚拟存储切片最大值设置4m
CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);

  如果将最大值设置成20mb切片数为多少呢:

// 如果不设置InputFormat,它默认用的是TextInputFormat.class
job.setInputFormatClass(CombineTextInputFormat.class);

//虚拟存储切片最大值设置20m
CombineTextInputFormat.setMaxInputSplitSize(job, 20971520);

   不妨手动算一下,上面的三个切片怎么来的呢?首先第一个虚拟存储文件小于4mb,所以和下一个虚拟存储文件合并,合并后4.25mb,此时就大于4mb了,不再与下一个合并,就形成一个切片。然后是第三个虚拟存储文件2.55mb,小于4mb,所以和下一个文件合并,又形成一个切片,最终形成三个切片。倘若将最大值设置成20mb呢?首先1.7mb小于20mb,与下一个虚拟文件合并,合并后4.25mb,小于20mb,继续往下合并,最终将6个虚拟存储文件合并成了一个,形成了一个切片。

  也就是说:当需要把大量的小文件合并成一个切片交给一个MapTask处理时,就设置MaxInputSplitSize > 所有小文件大小之和。

  如果不指名使用CombineTextInputFormat,那么会默认使用TextInputFormat,最后再次提醒:虚拟存储切片最大值设置最好根据实际的小文件大小情况来设置具体的值。如果文件多为1~4mb的小文件,那么在指定虚拟存储的最大值为2mb并没有多大意义。

二、FileInputFormat及其实现类

   从P2可以看出,虽然FileInputFormat作为InputFormat接口的实现类,但我们使用的却是其子类,在默认情况下,我们使用其子类TextInputFormat,当使用TextInputFormat时,数据是一行一行送到map方法内部的,map方法使用此行在文件中的偏移量作为接收数据的key,使用此行内容作为接收数据的value。

  1、KeyValueInputFormat

  与TextInputFormat不同的是,KeyValueInputFormat使用了“其他”类型作为Key,但与TextInputFormat一样,KeyValueInputFormat也是每一行作为一条记录。但使用了分隔符,使得分隔符左边的内容作为传入map方法时的key,分隔符右边的内容作为传入map方法的value。例如

  Tom:Tom get a point

  Jack:Jack get a point

  Tom:get a point

  现在要统计二人的得分,可以采用key - value 的方法,以“:”作为分隔符,名字作为key,get a point作为value。统计get a point的意义似乎不大,只要知道谁的名字作为key出现多少次也就知道各方的得分情况了。怎么实现呢?这时候使用KeyValueInputFormat就方便多了:

  代码如下:

public class KVTextDriver {

    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        
        Configuration conf = new Configuration();
        // 设置切割符【重点】
      conf.set(KeyValueLineRecordReader.KEY_VALUE_SEPERATOR, ":");
        // 1 获取job对象
        Job job = Job.getInstance(conf);
        
        // 2 设置jar包位置,关联mapper和reducer
        job.setJarByClass(KVTextDriver.class);
        job.setMapperClass(KVTextMapper.class);
     job.setReducerClass(KVTextReducer.class);
                
        // 3 设置map输出kv类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(LongWritable.class);

        // 4 设置最终输出kv类型
        job.setOutputKeyClass(Text.class);
     job.setOutputValueClass(LongWritable.class);
        
        // 5 设置输入输出数据路径
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        
        // 设置输入格式【重点】
      job.setInputFormatClass(KeyValueTextInputFormat.class);
        
        // 6 设置输出数据路径
        FileOutputFormat.setOutputPath(job, new Path(args[1]));
        
        // 7 提交job
        job.waitForCompletion(true);
    }
}

  当设置分隔符“:”后,分隔符左边的内容作为key,右边的作为value。再设置输入格式后,map类只需要简单的将Key写回上下文就行:

public class KVTextMapper extends Mapper<Text, Text, Text, LongWritable>{
    
    // 1 设置value
    LongWritable v = new LongWritable(1);  
    
    @Override
    protected void map(Text key, Text value, Context context)
            throws IOException, InterruptedException {// 2 写出
        context.write(key, v);  
    }
}
public class KVTextReducer extends Reducer<Text, LongWritable, Text, LongWritable>{
    
    LongWritable v = new LongWritable();  
    
    @Override
    protected void reduce(Text key, Iterable<LongWritable> values,    Context context) throws IOException, InterruptedException {
        
        long sum = 0L;  

        // 1 汇总统计
        for (LongWritable value : values) {  
            sum += value.get();  
        }
         
        v.set(sum);  
         
        // 2 输出
        context.write(key, v);  
    }
}

  这样,直接将名字作为key,直接统计key的数量。

  2、NLineInputFormat

  在前面的案例中,数据处理都是一行一行的,如果要每n行作为一个单位传入map做处理,就需要使用NLineInputFormat了。

public class NLineDriver {
    
    public static void main(String[] args) throws IOException, URISyntaxException, ClassNotFoundException, InterruptedException {
        
     // 输入输出路径需要根据自己电脑上实际的输入输出路径设置
     args = new String[] { "e:/input/inputword", "e:/output1" };

        // 1 获取job对象
        Configuration configuration = new Configuration();
        Job job = Job.getInstance(configuration);
        
        // 7设置每个切片InputSplit中划分三条记录
        NLineInputFormat.setNumLinesPerSplit(job, 3);
          
        // 8使用NLineInputFormat处理记录数  
        job.setInputFormatClass(NLineInputFormat.class);  
          
        // 2设置jar包位置,关联mapper和reducer
        job.setJarByClass(NLineDriver.class);  
        job.setMapperClass(NLineMapper.class);  
        job.setReducerClass(NLineReducer.class);  
        
        // 3设置map输出kv类型
        job.setMapOutputKeyClass(Text.class);  
        job.setMapOutputValueClass(LongWritable.class);  
        
        // 4设置最终输出kv类型
        job.setOutputKeyClass(Text.class);  
        job.setOutputValueClass(LongWritable.class);  
          
        // 5设置输入输出数据路径
        FileInputFormat.setInputPaths(job, new Path(args[0]));  
        FileOutputFormat.setOutputPath(job, new Path(args[1]));  
          
        // 6提交job
        job.waitForCompletion(true);  
    }
}
public class NLineMapper extends Mapper<LongWritable, Text, Text, LongWritable>{
    
    private Text k = new Text();
    private LongWritable v = new LongWritable(1);
    
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        
        // 1 获取3行
        String line = value.toString();
        
        // 2 切割
        String[] splited = line.split(" ");
        
        // 3 循环写出
        for (int i = 0; i < splited.length; i++) {
            
           k.set(splited[i]);
            
           context.write(k, v);
        }
    }
}
public class NLineReducer extends Reducer<Text, LongWritable, Text, LongWritable>{
    
    LongWritable v = new LongWritable();
    
    @Override
    protected void reduce(Text key, Iterable<LongWritable> values,    Context context) throws IOException, InterruptedException {
        
        long sum = 0l;

        // 1 汇总
        for (LongWritable value : values) {
            sum += value.get();
        }  
        
        v.set(sum);
        
        // 2 输出
        context.write(key, v);
    }
}

  处理数据:

banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang
banzhang ni hao
xihuan hadoop banzhang banzhang ni hao
xihuan hadoop banzhang

 

https://www.cnblogs.com/superlsj/p/11853436.html

posted @ 2019-11-14 15:25  菜菜菜鸡  阅读(489)  评论(0编辑  收藏  举报