Flink入门宝典(详细截图版) (2)

file

在netcat中输入几个单词 逗号分隔

file

在程序一端查看结果

file

4、程序提交到Flink

启动flink

windows为 start-cluster.bat linux为start-cluster.sh

localhost:8081查看管理页面

file

通过maven对代码打包

file

将打好的包提交到flink上

file

查看log

tail -f log/flink-***-jobmanager.out

在netcat中继续输入单词,在Running Jobs中查看作业状态,在log中查看输出。

file

四、Flink 编程模型

Flink提供不同级别的抽象来开发流/批处理应用程序。

file

最低级抽象只提供有状态流

在实践中,大多数应用程序不需要上述低级抽象,而是针对Core API编程, 如DataStream API(有界/无界流)和DataSet API(有界数据集)。

Table Api声明了一个表,遵循关系模型。

最高级抽象是SQL

我们这里只用到了DataStream API。

Flink程序的基本构建块是转换

一个程序的基本构成:

l 获取execution environment

l 加载/创建原始数据

l 指定这些数据的转化方法

l 指定计算结果的存放位置

l 触发程序执行

file

五、DataStreaming API使用 1、获取execution environment

StreamExecutionEnvironment是所有Flink程序的基础,获取方法有:

getExecutionEnvironment()

createLocalEnvironment()

createRemoteEnvironment(String host, int port, String ... jarFiles)

一般情况下使用getExecutionEnvironment。如果你在IDE或者常规java程序中执行可以通过createLocalEnvironment创建基于本地机器的StreamExecutionEnvironment。如果你已经创建jar程序希望通过invoke方式获取里面的getExecutionEnvironment方法可以使用createRemoteEnvironment方式。

2、加载/创建原始数据

StreamExecutionEnvironment提供的一些访问数据源的接口

(1)基于文件的数据源

readTextFile(path) readFile(fileInputFormat, path) readFile(fileInputFormat, path, watchType, interval, pathFilter, typeInfo)

(2)基于Socket的数据源(本文使用的)

socketTextStream

 

(3)基于Collection的数据源

fromCollection(Collection) fromCollection(Iterator, Class) fromElements(T ...) fromParallelCollection(SplittableIterator, Class) generateSequence(from, to) 3、转化方法

(1)Map方式:DataStream -> DataStream

功能:拿到一个element并输出一个element,类似Hive中的UDF函数

举例:

DataStream<Integer> dataStream = //... dataStream.map(new MapFunction<Integer, Integer>() {     @Override     public Integer map(Integer value) throws Exception {         return 2 * value;     } });

(2)FlatMap方式:DataStream -> DataStream

功能:拿到一个element,输出多个值,类似Hive中的UDTF函数

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zywzdp.html