您现在的位置是:主页 > 数据库技术 > 数据库技术

mapreduce多文件输出新API怎么实现

IDCBT2021-12-23服务器技术人已围观

简介本篇内容介绍了“mapreduce多文件输出新API怎么实现”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望

本篇内容介绍了“mapreduce多文件输出新API怎么实现”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

    1、针对于代码中的 MultipleOutputs.addNamedOutput(job, "errorlog",
    TextOutputFormat.class, Text.class, NullWritable.class);  方法,其实第二个参数并非是这么用的,下面看代码:

private MultipleOutputs<NullWritable, Text> multipleOutputs = null;
	@Override
	protected void reduce(IntWritable key, Iterable<Text> values,Context context)
			throws IOException, InterruptedException {
		for(Text val:values){
			multipleOutputs.write("KeySplit", NullWritable.get(), val, key.toString()+"/");
			multipleOutputs.write("AllData", NullWritable.get(), val);
		}
	}

write函数很多重载方法,之前用的是三个参数的,这个方法其实是将所有的reduce输出都输出到一个文件夹中,

这时候我们在调用MultipleOutputs.addNamedOutput()函数的时候传递的第二个参数为多个,所以会导致

-rw-r--r--   2 hadoop supergroup   10569073 2014-06-06 11:50 /test/aa/fileRequest-m-00063.lzo
-rw-r--r--   2 hadoop supergroup   10512656 2014-06-06 11:50 /test/aa/fileRequest-m-00064.lzo
-rw-r--r--   2 hadoop supergroup      68780 2014-06-06 11:51 /test/aa/firstIntoTime-m-00000.lzo
-rw-r--r--   2 hadoop supergroup      67901 2014-06-06 11:51 /test/aa/firstIntoTime-m-00001.lzo

这样的现象,而且会多输出很多没有用的空文件

那么其实write方法有一个带有四个参数的方法,最后一个参数就恰巧是传递一个目录进去,目的是针对于不同的逻辑将reduce产生的数据输出到不同的文件夹目录下。如第一段代码中的multipleOutputs.write("KeySplit", NullWritable.get(), val, key.toString()+"/");语句,最后一个参数的作用就是相将key作为文件夹,将具有相同key 的数据输出到这个文件夹中,后面跟着一个“/” 代表是当前目录下,当前目录指的肯定不是项目的当前目录,他是在执行hadoop jar 时传递的输出目录的参数,如:hadoop jar test.jar com.TestJob /input /output    

假设数据是这样的:
1    丽梅
1    小辉
2    小红
3    大华

那么将输出三个文件夹分别为
/output/1
/output/2
/output/3
其中/output/1这个文件夹中一个文件,内容为

1    丽梅
1    小辉

write函数还有其他方法,暂时还没有研究,而且针对于write方法的第一个函数也没有去研究,如果有时间,会把多文件输出详细总结一下

标签:

很赞哦! ()

本栏推荐