MapReduce案例-数据去重
一、案例分析
1、数据去重介绍
数据去重主要是为了掌握利用并行化思想来对数据进行有意义的筛选,数据去重指去除重复数据的操作。在大数据开发中,统计大数据集上的多种数据指标,这些复杂的任务数据都会涉及数据去重。
2、案例需求以及分析
文件file1.txt
本身包含重复数据,并且与file2.txt
同样出现重复数据,现要求使用Hadoop
大数据相关技术对以上两个文件进行去重操作,并最终将结果汇总到一个文件中。
- 编写
MapReduce
程序,在Map
阶段采用Hadoop
默认作业输入方式后,将key
设置为需要去重的数据,而输出的value可以任意设置为空。 - 在Reduce阶段,不需要考虑每一个
key
有多少个value
,可以直接将输入的key
复制为输出的key
,而输出的value可以任意设置为空,这样就会使用MapReduce
默认机制对key
(也就是文件中的每行内容)自动去重。
二、MapReduce数据去重代码实现
1、准备数据文件
(1) 在虚拟机上创建文本文件
创建两个文本文件 file1.txt
、file2.txt
(2) 上传文件到HDFS指定目录
创建/dedup/input
目录,执行命令:hdfs dfs -mkdir -p /dedup/input
将两个文本文件 file2.txt
与file2.txt
,上传到HDFS
的/dedup/input
目录
2、map阶段实现
使用IntelliJ
开发工具创建Maven
项目Deduplicate
,并且新创建hal.aex.mr
包,在该路径下编写自定义Mapper
类DeduplicateMapper
,主要用于读取数据集文件将TextInputFormat
默认组件解析的类似<0,2022-11-1 a >
键值对修改为<2022-11-1 a,null>。
(1) 创建去重映射器类
创建hsl.aex.mr
包,在包里创建DeduplicateMapper
类
package hsl.aex.mr;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import java.io.IOException;
public class DeduplicateMapper extends Mapper<LongWritable,Text,Text,NullWritable>{
private static Text field = new Text();
// <0,2022-11-3 c> --> <2022-11-3 c,null>
@Override
protected void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException {
field = value;
context.write(field, NullWritable.get());
}
}
3、Reduce阶段实现
根据Map
阶段的输出结果形式,同样在hsl.aex.mr
包下,自定义Reducer
类DeduplicateReducer
,主要用于接受Map
阶段传递来的数据,根据Shuffle
工作原理,键值key
相同的数据就会被合并,因此输出数据就不会出现重复数据了。
创建去重归并器类
在hsl.aex.mr
包里创建DeduplicateReducer
类
package hsl.aex.mr;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
import java.io.IOException;
public class DeduplicateReducer extends Reducer<Text,NullWritable,Text,NullWritable>{
// <2022-11-3 c,null> <2022-11-4 d,null><2022-11-4 d,null>
@Override
protected void reduce(Text key, Iterable<NullWritable> values, Context context)
throws IOException, InterruptedException {
context.write(key, NullWritable.get());
}
}
4、Driver程序主类实现
编写MapReduce
程序运行主类DeduplicateDriver
,主要用于设置MapReduce
工作任务的相关参数,对HDFS
上/dedup/input
目录下的源文件实现去重,并将结果输入到HDFS
的/dedup/output
目录下。
创建去重驱动器类
在hsl.aex.mr
包里创建DeduplicateDriver
类
package hsl.aex.mr;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import java.net.URI;
public class DeduplicateDriver {
public static void main(String[] args) throws Exception {
// 创建配置对象
Configuration conf = new Configuration();
// 设置数据节点主机名属性
conf.set("dfs.client.use.datanode.hostname", "true");
// 获取作业实例
Job job = Job.getInstance(conf);
// 设置作业启动类
job.setJarByClass(DeduplicateDriver.class);
// 设置Mapper类
job.setMapperClass(DeduplicateMapper.class);
// 设置map任务输出键类型
job.setMapOutputKeyClass(Text.class);
// 设置map任务输出值类型
job.setMapOutputValueClass(NullWritable.class);
// 设置Reducer类
job.setReducerClass(DeduplicateReducer.class);
// 设置reduce任务输出键类型
job.setOutputKeyClass(Text.class);
// 设置reduce任务输出值类型
job.setOutputValueClass(NullWritable.class);
// 定义uri字符串
String uri = "hdfs://master:9000";
// 创建输入目录
Path inputPath = new Path(uri + "/dedup/input");
// 创建输出目录
Path outputPath = new Path(uri + "/dedup/output");
// 获取文件系统
FileSystem fs = FileSystem.get(new URI(uri), conf);
// 删除输出目录
fs.delete(outputPath, true);
// 给作业添加输入目录
FileInputFormat.addInputPath(job, inputPath);
// 给作业设置输出目录
FileOutputFormat.setOutputPath(job, outputPath);
// 等待作业完成
job.waitForCompletion(true);
// 输出统计结果
System.out.println("======统计结果======");
FileStatus[] fileStatuses = fs.listStatus(outputPath);
for (int i = 1; i < fileStatuses.length; i++) {
// 输出结果文件路径
System.out.println(fileStatuses[i].getPath());
// 获取文件输入流
FSDataInputStream in = fs.open(fileStatuses[i].getPath());
// 将结果文件显示在控制台
IOUtils.copyBytes(in, System.out, 4096, false);
}
}
}
5、运行去重驱动器类,查看结果
转载:https://blog.csdn.net/m0_72168501/article/details/128311509