有个工具类逐行读文本文件,读取数据然后放入内存中。代码如下:

FSDataInputStream in = null;
BufferedReader br = null;

	FileSystem fs = FileSystem.get(new URI(somePath), new Configuration());
	in = fs.open(new Path(somePath));
	br = new BufferedReader(new InputStreamReader(in));
	
	while ((line = br.readLine()) != null) {
		counter++;
		dosomeoperation();
	}

 代码设计是既可单机执行,又可在hadoop集群中运行,可是天不遂人愿。。。

在linux单机运行时一切正常,当用于mapreduce中时总是缺少一些数据,具体查看时发现总行数比单机版的少。再测试发现在集群中时有的两行被认为是一行,这种情况全出现在前一行行尾有中文字符时,于是怀疑是编码问题。改一行代码之后断行正常并且运行正确:

br = new BufferedReader(new InputStreamReader(in, Charset.forName("utf8")));

即:显示设置reader的编码。

虽然问题解决了,但还是很困惑。此文件在linux本地文件系统中是utf8的编码,用hadoop fs -put到集群中。put过程中会改变文件的编码还是集群的默认编码不是utf8?如何查看集群的当前默认编码呢?

 

posted on 2013-05-03 18:59  山君  阅读(211)  评论(0编辑  收藏  举报