MapReduce可以分为两个阶段来处理,一个阶段为map,另一个阶段为reduce.每个阶段都有键值对的输入和输出参数,输入输出键值对的类型由程序决定,程序同样指定了两个函数,map函数和reduce函数。
1.编写Mapper程序
- package com.rickywag.hadoop;
- import org.apache.hadoop.io.IntWritable;
- import org.apache.hadoop.io.LongWritable;
- import org.apache.hadoop.io.Text;
- import org.apache.hadoop.mapreduce.Mapper;
- import java.io.IOException;
- /**
- * Mapper程序主要用于处理数据,过滤不需要的数据,把需要的程序输出到reduce程序。
- * @author Ricky
- * @since 2014/08/25
- */
- public class MaxTemperatureMapper
- extends Mapper<LongWritable, Text, Text, IntWritable> {
- private static final int MISSING = 9999;
- /**
- * map函数主要用于解析NCDC文件中每一行的年份和气温
- * @param key NCDC文件中信息行数的偏移量
- * @param value NCDC文件对应行数偏移量的信息
- * @param context 输出变量
- * @throws IOException IO异常
- * @throws InterruptedException 线程中断异常
- */
- @Override
- public void map(LongWritable key, Text value, Context context)
- throws IOException, InterruptedException {
- String line = value.toString(); //获取每一行NCDC信息
- String year = line.substring(15, 19);//获取每一行的年份
- //获取每一行的温度
- int airTemperature;
- if (line.charAt(87) == '+') { //解析int字符串不需要‘+’
- airTemperature = Integer.parseInt(line.substring(88, 92));
- } else {
- airTemperature = Integer.parseInt(line.substring(87, 92));
- }
- String quality = line.substring(92, 93);
- if (airTemperature != MISSING && quality.matches("[01459]")) {
- //输出年份,温度到reduce阶段,在输出到reduce之前,mapper会对数据进行排序和分组。
- context.write(new Text(year), new IntWritable(airTemperature));
- }
- }
- }
2.编写Reducer程序
- package com.rickywag.hadoop;
- import org.apache.hadoop.io.IntWritable;
- import org.apache.hadoop.io.Text;
- import org.apache.hadoop.mapreduce.Reducer;
- import java.io.IOException;
- /**
- * 找出一年中最高的温度
- * @author Ricky
- * @since 2014/08/25
- */
- public class MaxTemperatureReducer
- extends Reducer<Text, IntWritable, Text, IntWritable> {
- /**
- * 通过map处理过的数据,找出一年中的最高温度
- * @param key 年份
- * @param values 该年份的所有温度
- * @param context 把结果输出到下一个阶段
- * @throws IOException IO异常
- * @throws InterruptedException 线程中断异常
- */
- @Override
- public void reduce(Text key, Iterable<IntWritable> values,
- Context context)
- throws IOException, InterruptedException {
- int maxValue = Integer.MIN_VALUE;//int 类型数据的最小值
- //找出一年中的最高气温
- for (IntWritable value : values) {
- maxValue = Math.max(maxValue, value.get());
- }
- //把最高温度的年份作为key,最高的温度作为值,输出到文件中。
- context.write(key, new IntWritable(maxValue));
- }
- }
3.编写Job Object
- package com.rickywag.hadoop;
- import org.apache.hadoop.fs.Path;
- import org.apache.hadoop.io.IntWritable;
- import org.apache.hadoop.io.Text;
- import org.apache.hadoop.mapreduce.Job;
- import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
- import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
- /**
- * 控制求最大温度作业的执行
- * @author Ricky
- * @since 2014/08/25
- */
- public class MaxTemperature {
- public static void main(String[] args) throws Exception {
- /**
- * input path : NCDC数据文件在HDFS中的位置
- * output path: MapReduce处理完成后结果存放的位置(默认该路径在HDFS中不存在,若已经存在会抛异常)
- */
- if (args.length != 2) {
- System.err.println("Usage: MaxTemperature <input path> <output path>");
- System.exit(-1);
- }
- Job job = new Job();
- job.setJarByClass(MaxTemperature.class);//job会查询包涵该类的包。
- job.setJobName("Max temperature");//设置作业名称
- FileInputFormat.addInputPath(job, new Path(args[0]));//设置NCDC文件在HDFS存在的位置
- FileOutputFormat.setOutputPath(job, new Path(args[1]));//设置job运行结果存放的位置
- job.setMapperClass(MaxTemperatureMapper.class);//设置map阶段执行的代码
- job.setReducerClass(MaxTemperatureReducer.class);//设置reduce阶段执行的代码
- job.setOutputKeyClass(Text.class);//设置输出key
- job.setOutputValueClass(IntWritable.class);//设置输出的值
- System.exit(job.waitForCompletion(true) ? 0 : 1);//若作业正常执行完成,系统正常退出。
- }
- }
转载地址:http://www.rickywag.com/358.html
