通过List保存"hadoop", "hdfs", "yarn", "flink", "spark", "hbase"等字符串,编写Flink程序,从中选出长度大于4并且以"h"开头的字符串,将结果打印输出。
时间: 2024-09-25 20:11:28 浏览: 38
spark,flink学习
首先,我们需要创建一个包含给定字符串的List,并使用Apache Flink进行处理。假设我们有一个`List<String>`,名为`strings`,你可以按照以下步骤编写一个Flink程序来完成这个任务:
```java
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
public class Main {
public static void main(String[] args) throws Exception {
// 创建流处理环境
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
// 假设strings是一个预定义的List,实际项目中需要从数据源读取
List<String> strings = Arrays.asList("hadoop", "hdfs", "yarn", "flink", "spark", "hbase");
// 将List转换为DataStream
DataStream<String> stringStream = env.fromCollection(strings);
// 定义过滤函数,选择长度大于4且以'h'开头的字符串
DataStream<String> filteredStream = stringStream.filter(new FilterFunction<String>() {
@Override
public boolean filter(String value) {
return value.startsWith("h") && value.length() > 4;
}
});
// 打印结果
filteredStream.print();
// 开始执行任务
env.execute("Filtering and Printing Strings");
}
// 用户自定义函数,作为filter的实现
private static class FilterFunction implements MapFunction<String, Boolean> {
@Override
public Boolean map(String value) {
return value.startsWith("h") && value.length() > 4;
}
}
}
```
当你运行这个程序时,它会打印出符合条件的字符串:"hadoop" 和 "hdfs"。
阅读全文