一,Flink快速上手

1.依赖配置

1.1 pom文件


        8
        8
        1.13.0
        1.8

        2.12

        1.7.30

            org.apache.flink
            flink-java
            ${flink.version}

            org.apache.flink
            flink-streaming-java_${scala.binary.version}
            ${flink.version}

            org.apache.flink
            flink-clients_${scala.binary.version}
            ${flink.version}

            org.slf4j
            slf4j-api
            ${slf4j.version}

            org.slf4j
            slf4j-log4j12
            ${slf4j.version}

            org.apache.logging.log4j
            log4j-to-slf4j
            2.14.0

1.2 日志文件

log4j.rootLogger=error, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%-4r [%t] %-5p %c %x - %m%n

2.编写代码

2.1 在根目录下创建数据

一,Flink快速上手

2.2 书写批处理执行代码

public static void main(String[] args) throws Exception {
    // 1. 创建执行环境
    ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
    // 2. 从文件读取数据 按行读取(存储的元素就是每行的文本)
    DataSource lineDs = env.readTextFile("input/word.txt");
    // 3. 转换数据格式
    FlatMapOperator> wordAndOne =
        lineDs.flatMap((String line, Collector> out) ->
                       {
                           String[] words = line.split(" ");
                           for (String word : words) {
                               out.collect(Tuple2.of(word, 1L));
                           }
                       });
    // 4.防止泛型擦除
    FlatMapOperator> returns =
        wordAndOne.returns(Types.TUPLE(Types.STRING, Types.LONG));
    // 5. 按照 word 进行分组
    UnsortedGrouping> wordAndOneUg = wordAndOne.groupBy(0);
    // 6. 分组内聚合统计
    AggregateOperator> sum = wordAndOneUg.sum(1);
    // 7. 打印结果
    sum.print();
    // 结果
    // (flink,1)
    // (world,1)
    // (hello,3)
    // (java,1)
}

代码说明和注意事项:
① Flink 在执行应用程序前应该获取执行环境对象,也就是运行时上下文环境。

ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();

② Flink 同时提供了 Java 和 Scala 两种语言的 API,有些类在两套 API 中名称是一样的。所以在引入包时,如果有 Java 和 Scala 两种选择,要注意选用 Java 的包。
③ 直接调用执行环境的 readTextFile 方法,可以从文件中读取数据。
④ 我们的目标是将每个单词对应的个数统计出来,所以调用 flatmap 方法可以对一行文字进行分词转换。将文件中每一行文字拆分成单词后,要转换成(word,count)形式的二元组,初始 count 都为 1。returns 方法指定的返回数据类型 Tuple2,就是 Flink 自带的二元组数据类型。
⑤ 在分组时调用了 groupBy 方法,它不能使用分组选择器,只能采用位置索引或属性名称进行分组。
需要注意的是,这种代码的实现方式,是基于 DataSet API 的,也就是我们对数据的处理转换,是看作数据集来进行操作的。事实上 Flink 本身是流批统一的处理架构,批量的数据集本质上也是流,没有必要用两套不同的 API 来实现。所以从 Flink 1.12 开始,官方推荐的做法是直接使用 DataStream API,在提交任务时通过将执行模式设为 BATCH 来进行批处理:
$ bin/flink run -Dexecution.runtime-mode=BATCH BatchWordCount.jar
这样,DataSet API 就已经处于”软弃用”(soft deprecated)的状态,在实际应用中我们只要维护一套 DataStream API 就可以了。这里只是为了方便大家理解,我们依然用 DataSet API做了批处理的实现。

2.3 书写流处理执行代码(有界)

public static void main(String[] args) throws Exception {
    // 1. 创建执行环境
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    // 2. 读取文件
    DataStreamSource lineDss = env.readTextFile("input/word.txt");
    // 3. 转换数据格式
    SingleOutputStreamOperator> wordAndOne =
        lineDss.flatMap((String line, Collector out) ->
        {
            Arrays.stream(line.split(" ")).forEach(out::collect);
        }).returns(Types.STRING).map(word -> Tuple2.of(word, 1L)).returns(Types.TUPLE(Types.STRING, Types.LONG));
    // 4. 分组
    KeyedStream, String> wordAndOneKs = wordAndOne.keyBy(t -> t.f0);
    // 5. 求和
    SingleOutputStreamOperator> result = wordAndOneKs.sum(1);
    // 6. 打印
    result.print();
    // 7. 执行
    env.execute();
}

① 主要观察与批处理程序 BatchWordCount 的不同:
② 创建执行环境的不同,流处理程序使用的是 StreamExecutionEnvironment。
③ 每一步处理转换之后,得到的数据对象类型不同。
④ 分组操作调用的是 keyBy 方法,可以传入一个匿名函数作为键选择器(KeySelector),指定当前分组的 key 是什么。
⑤ 代码末尾需要调用 env 的 execute 方法,开始执行任务。

  • *输出结果
3> (java,1)
9> (world,1)
5> (hello,1)
5> (hello,2)
13> (flink,1)
5> (hello,3)

我们可以看到,这与批处理的结果是完全不同的。批处理针对每个单词,只会输出一个最终的统计个数;而在流处理的打印结果中,”hello”这个单词每出现一次,都会有一个频次统计数据输出。这就是流处理的特点,数据逐个处理,每来一条数据就会处理输出一次。我们通过打印结果,可以清晰地看到单词”hello”数量增长的过程。
看到这里大家可能又会有新的疑惑:我们读取文件,第一行应该是”hello flink”,怎么这里输出的第一个单词是”world”呢?每个输出的结果二元组,前面都有一个数字,这又是什么呢?
我们可以先做个简单的解释。Flink 是一个分布式处理引擎,所以我们的程序应该也是分布式运行的。在开发环境里,会通过多线程来模拟 Flink 集群运行。所以这里结果前的数字,其实就指示了本地执行的不同线程,对应着 Flink 运行时不同的并行资源。这样第一个乱序的问题也就解决了:既然是并行执行,不同线程的输出结果,自然也就无法保持输入的顺序了。另外需要说明,这里显示的编号为 1~13,是由于运行电脑的 CPU 的核心数来决定的,我自己的是16核的,所以默认模拟的并行线程有 16 个。这段代码不同的运行环境,得到的结果会是不同的。关于 Flink 程序并行执行的数量,可以通过设定”并行度”(Parallelism)来进行配置,我们会在后续详细讲解这些内容。

Original: https://www.cnblogs.com/arrorzz/p/16041622.html
Author: 秃头版胡歌
Title: 一,Flink快速上手

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/575668/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

  • CMD命令 压缩包与图片完美融合,隐藏文件必备撒

    CMD命令 压缩包与图片完美融合,隐藏文件必备撒 在Windows端,将图片和压缩包完美融合,先将 源文件展示 压缩方案1 copy /b D:\project\IE11完整离线安…

    数据库 2023年6月9日
    0147
  • MySQL InnoDB索引原理

    数据库与I/O原理 数据会持久化到磁盘,查询数据是就会有I/O操作,相对于缓存操作,I/O操作的时间成本相当高昂。 I/O操作的基本单位是一个磁盘页面,比如16KB的页面大小。当数…

    数据库 2023年5月24日
    079
  • MySQL事务与锁

    在关系型数据库内,事务是由一个SQL或一组SQL语句组成的逻辑处理单元。也就是说事务就相当于一个盛放SQL的容器,事务中的SQL要么全部执行成功,要么所有已经修改的操作都回滚到原来…

    数据库 2023年5月24日
    095
  • Linux_hadoop2.2.0伪分布式搭建安装

    1.1 开启网络,ifconfig指令查看ip 1.2 修改主机名为自己名字(hadoop)centos 7 连接:https://zhuanlan.zhihu.com/p/375…

    数据库 2023年6月11日
    0101
  • 类加载器及其加载原理

    概述 在之前的文章”类的加载流程”讲了一个Class文件从加载到卸载整个生命周期的过程,并且提到”非数组类在加载阶段是可控性最强的”…

    数据库 2023年6月11日
    0102
  • JDK1.7-HashMap原理

    JDK1.7 HashMap JAVA技术交流群:737698533 如何在源码上添加自己的注释 打开jdk下载位置 解压src文件夹,打开idea, ctrl+shift+alt…

    数据库 2023年6月16日
    070
  • 上传jar包到私有仓库nexus3

    上传Jar包到私有仓库Nexus3 官方文档 上传组件(Jar包) POST /service/rest/v1/components 官方例子: curl -v -u admin:…

    数据库 2023年6月9日
    073
  • Podman部署及应用

    点击查看代码 什么是podman Podman是一个开源项目,可在大多数Linux平台上使用并开源在GitHub上。Podman是一个无守护进程的容器引擎,用于在Linux系统上开…

    数据库 2023年6月14日
    060
  • SpringBoot下配置文件密码加密

    一、导入配置文件 csharp;gutter:true; com.github.ulisesbocchio jasypt-spring-boot-starter 3.0.4<…

    数据库 2023年6月14日
    068
  • 基于 ShardingSphere 的得物数据库中间件平台“彩虹桥”演进之路

    本文系转载于公众号得物技术 前言 随着得物 App 用户开始快速增长,业务线日趋丰富,也对底层数据库带来了较大的压力。各个业务线对于数据分片、读写分离、影子库路由等等的需求成为了刚…

    数据库 2023年6月16日
    098
  • Golang context

    Context Go 语言中提供了 context 包,通过显示传递 context, 实现请求级别的元数据、取消信号、终止信号的传递。context 包提供了从现有的上下文值(c…

    数据库 2023年6月16日
    077
  • 折腾 2 年多!我们终于见面了!

    2018年3月,我与张老师就这么在微信上聊了起来,起初我并没有写书的打算,我们之间只是通过讨论、交流的形式聊聊关于出书的方方面面。最终,敌不过张老师超强的专业能力、细致的解说与盛情…

    数据库 2023年6月9日
    0159
  • MySQL实战45讲 1,2

    01 | 基础架构:一条SQL查询语句是如何执行的? Server 层 所有跨存储引擎的功能都在这一层实现,比如存储过程、触发器、视图等。 存储引擎层负责数据的存储和提取。其架构模…

    数据库 2023年5月24日
    095
  • docker-ckeditor图片img标签style属性自适应

    1,修改ckeditor的源码cofig.js文件 // &#x4E0D;&#x7ED9;&#x56FE;&#x7247;img&#x6DF…

    数据库 2023年6月9日
    098
  • [LeetCode]20. 有效的括号

    给定一个只包括 ‘(‘,’)’,'{‘,’}’,'[‘,’]&#8217…

    数据库 2023年6月9日
    0106
  • 工具 | 常用 MySQL 内核 Debug 技巧

    作者:柯煜昌 顾问软件工程师目前从事 RadonDB MySQL 容器化研发,华中科技大学研究生毕业,有多年的数据库内核开发经验。 掌握 MySQL 内核源码的阅读和调试能力,不仅…

    数据库 2023年5月24日
    0106
亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球