《Hadoop实战》的笔记-2、Hadoop输入与输出

这一问题本书只在第三章简单说了一下读写HDFS,虽然能说明问题,但是本着第一遍读书应该把书读厚的原则,我觉得很有必要自行展开一番。再说凡是万变不离其宗嘛,任何程序都是从“输入-->计算-->输出”。先说输入,Hadoop的默认的输入方式是将输入的每一行视为一条记录,该行文件偏移量为key,内容为value。这样当然不一定能满足所有的业务需要。因此,一方面Hadoop也提供了很多其他的输入格式,另一方面,更自由的,提供了自定义方式。先摆出几个概念:InputFiles : 这个好说,简单。InputFormat : 这个得说说,虽然也简单,这个接口(Java interface)决定了Mapper实例将从Hadoop框架中得到什么样的数据,即什么样的Key-ValueInputSplit : 这个在应用里不会直接接触到,但是这个概念值得了解,YDN上有这么一段话:(注:以下标为原文是为了在日记中进行突出显示,非原文字句,请作者及读者见谅,如果存在版权问题请指出~)
Another important job of the InputFormat is to divide the input data sources (e.g., input files) into fragments that make up the inputs to individual map tasks. These fragments are called "splits" and are encapsulated in instances of the InputSplit interface.
一般说来,InputSplit决定了每个Mapper要处理的数据集;而InputFormat则决定了每一个Split里面的数据格式/数据结构;不知道这样一说有没有说清楚,大体可以理解为InputSplit是物理性的输入,InputFormat是逻辑性的输入。Hadoop系统提供以下几种:(注:以下标为原文是为了在日记中进行突出显示,非原文字句,请作者及读者见谅,如果存在版权问题请指出~)
TextInputFormat:文件偏移量 :整行数据 KeyValueTextInputFormat:第一个"\t"前的数据 : 后面的整行数据 SequenceFileInputFormat:因为这是二进制文件,所以Key-Value都是由用户指定 NLineInputFormat:与TextInputFormat一样,就是NLine的区别了
标准的InputFormat接口如下:
  1. public interface InputFormat<K, V>
  2. {
  3. InputSplit[] getSplits(JobConf job, int numSplits) throws IOException;
  4. RecordReader<K, V> getRecordReader(InputSplit split,
  5. JobConf job,
  6. Reporter reporter) throws IOException;
  7. }
如果要自定制输入,就是要继承这个接口。两个函数分别的用途是:
■ Identify all the files used as input data and divide them into input splits. Eachmap task is assigned one split.■ Provide an object (RecordReader) to iterate through records in a given split,and to parse each record into key and value of predefined types.
根据本书的建议,如果一定要自定制输入,最好派生FileInputFormat,而不是直接实现InputFormat接口,原因是对于getSplits()方法,它已经实现好了,足够绝大多数实际开发的需求。下面给出一个例子:假设你的输入数据格式是这样的:ball, 3.5, 12.7, 9.0car, 15, 23.76, 42.23device, 0.0, 12.4, -67.1每个点的名字,后面是在坐标系里面的坐标值。
  1. /* 仅仅实现了getRecordReader()方法 */
  2. public class ObjectPositionInputFormat extends FileInputFormat<Text, Point3D> {
  3. public RecordReader<Text, Point3D> getRecordReader(InputSplit input, JobConf job, Reporter reporter) throws IOException {
  4. reporter.setStatus(input.toString());
  5. return new ObjPosRecordReader(job, (FileSplit)input);
  6. }
  7. }
  8. /* 下面是实现了ObjPosRecordReader类 */
  9. class ObjPosRecordReader implements RecordReader<Text, Point3D> {
  10. private LineRecordReader lineReader;
  11. private LongWritable lineKey;
  12. private Text lineValue;
  13. public ObjPosRecordReader(JobConf job, FileSplit split) throws IOExpection {
  14. lineReader = new LineRecordReader(job, conf);
  15. lineKey = lineReader.createKey();
  16. lineValue = lineReader.createValue();
  17. }
  18. public boolean next(Text Key, Point3D value) throws IOEcpection {
  19. if(!lineReader.next(lineKey, lineValue)){
  20. return false;
  21. }
  22. String[] pieces = lineValue.toString().split(",");
  23. if(pieces.length != 4) {
  24. throw new IOExpection("Invalid record received");
  25. }
  26. float fx, fy, fz;
  27. try {
  28. fx = Float.parseFloat(pieces[1].trim());
  29. fy = Float.parseFloat(pieces[2].trim());
  30. fz = Float.parseFloat(pieces[3].trim());
  31. } catch(NumberFormatExecption nfe) {
  32. throw new IOException("Error parsing floating point value in record");
  33. }
  34. key.set(pieces[0].trim());
  35. value.x = fx;
  36. value.y = fy;
  37. value.z = fz;
  38. return true;
  39. }
  40. public Text createKey() {
  41. return new Text("");
  42. }
  43. public Text createValue() {
  44. return new Point3D();
  45. }
  46. public long getPos() throws IOExpection {
  47. return lineReader.getPos();
  48. }
  49. public void close() throws IOExpection {
  50. lineReader.close();
  51. }
  52. public float getProgress() throws IOExpection {
  53. return lineReader.getProcess();
  54. }
  55. }
关于输出,一般都是对输出格式进行控制,比如要输出XML或是JSON类型等等,这一部分不说了,少敲几个字,因为总体与输入差不多。

相关推荐