Apache Beam学习笔记——几种常见的处理类Transform
在阅读本文前,可先看一下官方的WordCount代码, 对Apache Beam有大概的了解。
要说在Apache Beam中常见的函数是哪一个,当然是apply()。常见的写法如下:
[Final Output PCollection] = [Initial Input PCollection].apply([First Transform]) .apply([Second Transform]) .apply([Third Transform])
而在最简单的wordcount代码中,就出现了许多种不同的传入参数类型,除了输入输出的部分,还包括
1)使用ParDo.of():
.apply("ExtractWords-joe", ParDo.of(new DoFn<String, String>() { @ProcessElement public void processElement(ProcessContext context) { System.out.println(context.element()+"~"); for (String word : context.element().split(" ")) { if (!word.isEmpty()) { //输出到Output PCollection context.output(word); } } } }) )
2)使用MapElements.via():
.apply("FomatResults", MapElements.via(new SimpleFunction<KV<String, Long>,String>() { @Override public String apply(KV<String, Long> input) { return input.getKey()+":"+input.getValue(); } }))
3)以及使用PTransform子类:
.apply(new CountWords()) public static class CountWords extends PTransform<PCollection<String>, PCollection<KV<String, Long>>> { @Override public PCollection<KV<String, Long>> expand(PCollection<String> lines) { // Convert lines of text into individual words. PCollection<String> words = lines.apply( ParDo.of(new ExtractWordsFn())); // Count the number of times each word occurs. PCollection<KV<String, Long>> wordCounts = words.apply(Count.<String>perElement()); return wordCounts; } }
这么多种传入方式到底有什么联系?通过查看源码可以看出apply函数的定义如下:
public <OutputT extends POutput> OutputT apply( String name, PTransform<? super PBegin, OutputT> root) { return begin().apply(name, root); }
传入的参数为PTransform类对象,也就是这几种传入参数其实都是PTransform类的变形。
PTransform是一个实现了Serializable接口的抽象类,其中public abstract OutputT expand(InputT input); 是数据处理方法,强制子类必须实现。
因此第(3)种方式很容易理解,就是通过继承PTransform并实现了expand方法定义了CountWords类,给apply方法传递了一个CountWords对象。
在第(2)种方式中,MapElements是PTransform的子类,实现了expand方法,其实现方式是调用@Nullable private final SimpleFunction<InputT, OutputT> fn;成员中定义的数据处理方法,MapElements.via()则是一个为初始化fn的静态方法,定义如下:
public static <InputT, OutputT> MapElements<InputT, OutputT> via( final SimpleFunction<InputT, OutputT> fn) { return new MapElements<>(fn, null, fn.getClass()); }
传入了一个SimpleFunction对象,SimpleFunction是一个必须实现public OutputT apply(InputT input) 方法的抽象类,用户在该apply方法中实现数据处理。
所以这种方式的实现方式如下:
定义SimpleFunction的子类并实现其中的apply方法,将该子类的对象传递给MapElements.via()。
第(1)种方式中,ParDo.of()方法传入一个DoFn对象, 返回一个SingleOutput对象:
public static <InputT, OutputT> SingleOutput<InputT, OutputT> of(DoFn<InputT, OutputT> fn) { validate(fn); return new SingleOutput<InputT, OutputT>( fn, Collections.<PCollectionView<?>>emptyList(), displayDataForFn(fn)); }
SingleOutput与MapElements类似,也是PTransform的子类,实现了expand方法,使用private final DoFn<InputT, OutputT> fn;成员中的方法进行数据处理。
而DoFn是一个抽象类,用户必须实现其注解方法(存疑) public void processElement(ProcessContext c)。
所以这种方式的实现方式如下:
定义DoFn的子类并实现其中的processElement方法,将该子类的对象传递给ParDo.of()。
需要注意的是processElement方法与前2种方式不同,输入和输出数据都是在传入参数ProcessContext c中,而不是通过return进行传递。
以上为学习Apache Beam一天的总结,有错误欢迎指正。
**
Day2补充,3种方式的区别和联系:
**
1)MapElement.via(SimpleFunction)和PTransform
MapElements是PTransform的一个子类:
public class MapElements<InputT, OutputT>
extends PTransform<PCollection<? extends InputT>, PCollection<OutputT>>
从泛型参数来看,PTransform处理的是PCollection,而MapElement处理的是PCollection中的一个元素,对比SimpleFunction的apply方法和PTransform的expand方法的实现方式得到验证。
2)MapElement.via(SimpleFunction)和ParDo.of(DoFn)
区别之前已经说过,DoFn的processElement方法的输入和输出都是从参数传入,而SimpleFunction的apply方法从参数传入输入,从return传出输出。
相同的是这2个方法处理的都是PCollection中的一个元素。
查看MapElement的expand方法源码:
@Override public PCollection<OutputT> expand(PCollection<? extends InputT> input) { checkNotNull(fn, "Must specify a function on MapElements using .via()"); return input.apply( "Map", ParDo.of( new DoFn<InputT, OutputT>() { @ProcessElement public void processElement(ProcessContext c) { c.output(fn.apply(c.element())); } //部分代码忽略 })); }
可以看出其实也是实现了DoFn的子类,在DoFn的processElement方法中调用SimpleFunction对象的apply方法进行处理。
相关推荐
/*垂直居中,div上边界距离窗口上边的距离为窗口高度的50%,并针对不同浏览器进行兼容。-- 在外层添加一个div,把行内容居中,添加.row .justify-content-center -->