飞道的博客

2021年大数据Flink(四十四):扩展阅读 End-to-End Exactly-Once

281人阅读  评论(0)

目录

扩展阅读 End-to-End Exactly-Once

流处理的数据处理语义

At-most-once-最多一次

At-least-once-至少一次

 Exactly-once-精确一次

End-to-End Exactly-Once-端到端的精确一次

注意:精确一次? 有效一次!

补充:流计算系统如何支持一致性语义

​​​​​​​End-to-End Exactly-Once的实现

​​​​​​​Source

​​​​​​​Transformation

​​​​​​​Sink

​​​​​​​Flink+Kafka的End-to-End Exactly-Once

​​​​​​​版本说明

​​​​​​​两阶段提交-API

​​​​​​​两阶段提交-简单流程

​​​​​​​两阶段提交-详细流程

代码示例

Flink+Kafka实现End-to-End Exactly-Once

​​​​​​​Flink+MySQL实现End-to-End Exactly-Once

深度总结

Exactly-Once

End-to-End Exactly-Once

Flink如何支持End-to-End Exactly-Once的?

两阶段事务提交协议


扩展阅读 End-to-End Exactly-Once

Flink 在1.4.0 版本引入『exactly-once』并号称支持『End-to-End Exactly-Once』“端到端的精确一次”语义。

流处理数据处理语义

对于批处理,fault-tolerant(容错性)很容易做,失败只需要replay,就可以完美做到容错。

对于流处理,数据流本身是动态,没有所谓的开始或结束,虽然可以replay buffer的部分数据,但fault-tolerant做起来会复杂的多

流处理(有时称为事件处理)可以简单地描述为是对无界数据或事件的连续处理。流或事件处理应用程序可以或多或少地被描述为有向图,并且通常被描述为有向无环图(DAG)。在这样的图中,每个边表示数据或事件流,每个顶点表示运算符,会使用程序中定义的逻辑处理来自相邻边的数据或事件。有两种特殊类型的顶点,通常称为 sources 和 sinks。sources读取外部数据/事件到应用程序中,而 sinks 通常会收集应用程序生成的结果。下图是流式应用程序的示例。有如下特点:

分布式情况下是由多个Source(读取数据)节点、多个Operator(数据处理)节点、多个Sink(输出)节点构成

每个节点的并行数可以有差异,且每个节点都有可能发生故障

对于数据正确性最重要的一点,就是当发生故障时,是怎样容错与恢复的。

 

流处理引擎通常为应用程序提供了三种数据处理语义:最多一次、至少一次和精确一次。

如下是对这些不同处理语义的宽松定义(一致性由弱到强):

At most noce < At least once < Exactly once < End to End Exactly once

At-most-once-最多一次

有可能会有数据丢失

这本质上是简单的恢复方式,也就是直接从失败处的下个数据开始恢复程序,之前的失败数据处理就不管了。可以保证数据或事件最多由应用程序中的所有算子处理一次。 这意味着如果数据在被流应用程序完全处理之前发生丢失,则不会进行其他重试或者重新发送。

 

 

 

 

At-least-once-至少一次

有可能重复处理数据

应用程序中的所有算子都保证数据或事件至少被处理一次。这通常意味着如果事件在流应用程序完全处理之前丢失,则将从源头重放或重新传输事件。然而,由于事件是可以被重传的,因此一个事件有时会被处理多次(至少一次),至于有没有重复数据,不会关心,所以这种场景需要人工干预自己处理重复数据

 Exactly-once-精确一次

 

Exactly-Once 是 Flink、Spark 等流处理系统的核心特性之一,这种语义会保证每一条消息只被流处理系统处理一次。即使是在各种故障的情况下,流应用程序中的所有算子都保证事件只会被『精确一次』的处理。(也有文章将 Exactly-once 翻译为:完全一次,恰好一次)

Flink实现『精确一次』的分布式快照/状态检查点方法受到 Chandy-Lamport 分布式快照算法的启发。通过这种机制,流应用程序中每个算子的所有状态都会定期做 checkpoint。如果是在系统中的任何地方发生失败,每个算子的所有状态都回滚到最新的全局一致 checkpoint 点。在回滚期间,将暂停所有处理。源也会重置为与最近 checkpoint 相对应的正确偏移量。整个流应用程序基本上是回到最近一次的一致状态,然后程序可以从该状态重新启动。

End-to-End Exactly-Once-端到端的精确一次

Flink 在1.4.0 版本引入『exactly-once』并号称支持『End-to-End Exactly-Once』“端到端的精确一次”语义。

它指的是 Flink 应用从 Source 端开始到 Sink 端结束,数据必须经过的起始点和结束点。

注意:

『exactly-once』和『End-to-End Exactly-Once』的区别:

 

 

 

 

​​​​​​​注意:精确一次? 有效一次!

有些人可能认为『精确一次』描述了事件处理的保证,其中流中的每个事件只被处理一次。实际上,没有引擎能够保证正好只处理一次。在面对任意故障时,不可能保证每个算子中的用户定义逻辑在每个事件中只执行一次,因为用户代码被部分执行的可能性是永远存在的。

那么,当引擎声明『精确一次』处理语义时,它们能保证什么呢?如果不能保证用户逻辑只执行一次,那么什么逻辑只执行一次?当引擎声明『精确一次』处理语义时,它们实际上是在说,它们可以保证引擎管理的状态更新只提交一次到持久的后端存储。

事件的处理可以发生多次,但是该处理的效果只在持久后端状态存储中反映一次。因此,我们认为有效地描述这些处理语义最好的术语是『有效一次』(effectively once)

 

​​​​​​​补充:流计算系统如何支持一致性语义

 

 

 

 

 

 

 

​​​​​​​End-to-End Exactly-Once的实现

通过前面的学习,我们了解到,Flink内部借助分布式快照Checkpoint已经实现了内部的Exactly-Once,但是Flink 自身是无法保证外部其他系统“精确一次”语义的,所以 Flink 若要实现所谓“端到端(End to End)的精确一次”的要求,那么外部系统必须支持“精确一次”语义;然后借助一些其他手段才能实现。如下:

​​​​​​​Source

发生故障时需要支持重设数据的读取位置,如Kafka可以通过offset来实现(其他的没有offset系统,我们可以自己实现累加器计数)

​​​​​​​Transformation

也就是Flink内部,已经通过Checkpoint保证了,如果发生故障或出错时,Flink应用重启后会从最新成功完成的checkpoint中恢复——重置应用状态并回滚状态到checkpoint中输入流的正确位置,之后再开始执行数据处理,就好像该故障或崩溃从未发生过一般。

  • 分布式快照机制

我们在之前的课程中讲解过 Flink 的容错机制,Flink 提供了失败恢复的容错机制,而这个容错机制的核心就是持续创建分布式数据流的快照来实现。

 

同 Spark 相比,Spark 仅仅是针对 Driver 的故障恢复 Checkpoint。而 Flink 的快照可以到算子级别,并且对全局数据也可以做快照。Flink 的分布式快照受到  Chandy-Lamport 分布式快照算法启发,同时进行了量身定做。

 

  • Barrier

Flink 分布式快照的核心元素之一是 Barrier(数据栅栏),我们也可以把 Barrier 简单地理解成一个标记,该标记是严格有序的,并且随着数据流往下流动。每个 Barrier 都带有自己的 ID,Barrier 极其轻量,并不会干扰正常的数据处理。

 

如上图所示,假如我们有一个从左向右流动的数据流,Flink 会依次生成 snapshot 1、 snapshot 2、snapshot 3……Flink 中有一个专门的“协调者”负责收集每个 snapshot 的位置信息,这个“协调者”也是高可用的。

 

Barrier 会随着正常数据继续往下流动,每当遇到一个算子,算子会插入一个标识,这个标识的插入时间是上游所有的输入流都接收到 snapshot n。与此同时,当我们的 sink 算子接收到所有上游流发送的 Barrier 时,那么就表明这一批数据处理完毕,Flink 会向“协调者”发送确认消息,表明当前的 snapshot n 完成了。当所有的 sink 算子都确认这批数据成功处理后,那么本次的 snapshot 被标识为完成。

 

这里就会有一个问题,因为 Flink 运行在分布式环境中,一个 operator 的上游会有很多流,每个流的 barrier n 到达的时间不一致怎么办?这里 Flink 采取的措施是:快流等慢流。

拿上图的 barrier n 来说,其中一个流到的早,其他的流到的比较晚。当第一个 barrier n到来后,当前的 operator 会继续等待其他流的 barrier n。直到所有的barrier n 到来后,operator 才会把所有的数据向下发送。

  • 异步和增量

按照上面我们介绍的机制,每次在把快照存储到我们的状态后端时,如果是同步进行就会阻塞正常任务,从而引入延迟。因此 Flink 在做快照存储时,可采用异步方式。

此外,由于 checkpoint 是一个全局状态,用户保存的状态可能非常大,多数达 G 或者 T 级别。在这种情况下,checkpoint 的创建会非常慢,而且执行时占用的资源也比较多,因此 Flink 提出了增量快照的概念。也就是说,每次都是进行的全量 checkpoint,是基于上次进行更新的。

 

​​​​​​​Sink

需要支持幂等写入或事务写入(Flink的两阶段提交需要事务支持)

 

​​​​​​​幂等写入(Idempotent Writes)

幂等写操作是指:任意多次向一个系统写入数据,只对目标系统产生一次结果影响。

例如,重复向一个HashMap里插入同一个Key-Value二元对,第一次插入时这个HashMap发生变化,后续的插入操作不会改变HashMap的结果,这就是一个幂等写操作。

HBase、Redis和Cassandra这样的KV数据库一般经常用来作为Sink,用以实现端到端的Exactly-Once。

需要注意的是,并不是说一个KV数据库就百分百支持幂等写。幂等写对KV对有要求,那就是Key-Value必须是可确定性(Deterministic)计算的。假如我们设计的Key是:name + curTimestamp,每次执行数据重发时,生成的Key都不相同,会产生多次结果,整个操作不是幂等的。因此,为了追求端到端的Exactly-Once,我们设计业务逻辑时要尽量使用确定性的计算逻辑和数据模型。

 

​​​​​​​事务写入(Transactional Writes)

Flink借鉴了数据库中的事务处理技术,同时结合自身的Checkpoint机制来保证Sink只对外部输出产生一次影响。大致的流程如下:

Flink先将待输出的数据保存下来暂时不向外部系统提交,等到Checkpoint结束时,Flink上下游所有算子的数据都是一致的时候,Flink将之前保存的数据全部提交(Commit)到外部系统。换句话说,只有经过Checkpoint确认的数据才向外部系统写入。

如下图所示,如果使用事务写,那只把时间戳3之前的输出提交到外部系统,时间戳3以后的数据(例如时间戳5和8生成的数据)暂时保存下来,等待下次Checkpoint时一起写入到外部系统。这就避免了时间戳5这个数据产生多次结果,多次写入到外部系统。

 

在事务写的具体实现上,Flink目前提供了两种方式:

1.预写日志(Write-Ahead-Log,WAL)

2.两阶段提交(Two-Phase-Commit,2PC)

这两种方式区别主要在于:

1.WAL方式通用性更强,适合几乎所有外部系统,但也不能提供百分百端到端的Exactly-Once,因为WAL预习日志会先写内存,而内存是易失介质。

2.如果外部系统自身就支持事务(比如MySQL、Kafka),可以使用2PC方式,可以提供百分百端到端的Exactly-Once。

事务写的方式能提供端到端的Exactly-Once一致性,它的代价也是非常明显的,就是牺牲了延迟。输出数据不再是实时写入到外部系统,而是分批次地提交。目前来说,没有完美的故障恢复和Exactly-Once保障机制,对于开发者来说,需要在不同需求之间权衡。

 

​​​​​​​Flink+Kafka的End-to-End Exactly-Once

在上一小节我们了解到Flink的 End-to-End Exactly-Once需要Checkpoint+事务的提交/回滚操作,在分布式系统中协调提交和回滚的一个常见方法就是使用两阶段提交协议。接下来我们了解下Flink的TwoPhaseCommitSinkFunction是如何支持End-to-End Exactly-Once的

 

​​​​​​​版本说明

Flink 1.4版本之前,支持Exactly Once语义,仅限于应用内部。

Flink 1.4版本之后,通过两阶段提交(TwoPhaseCommitSinkFunction)支持End-To-End Exactly Once,而且要求Kafka 0.11+。

利用TwoPhaseCommitSinkFunction是通用的管理方案,只要实现对应的接口,而且Sink的存储支持变乱提交,即可实现端到端的划一性语义。

 

​​​​​​​两阶段提交-API

在 Flink 中的Two-Phase-Commit-2PC两阶段提交的实现方法被封装到了 TwoPhaseCommitSinkFunction 这个抽象类中,只需要实现其中的beginTransaction、preCommit、commit、abort 四个方法就可以实现“精确一次”的处理语义,如FlinkKafkaProducer就实现了该类并实现了这些方法

 

1.beginTransaction,在开启事务之前,我们在目标文件系统的临时目录中创建一个临时文件,后面在处理数据时将数据写入此文件;

2.preCommit,在预提交阶段,刷写(flush)文件,然后关闭文件,之后就不能写入到文件了,我们还将为属于下一个检查点的任何后续写入启动新事务;

3.commit,在提交阶段,我们将预提交的文件原子性移动到真正的目标目录中,请注意,这会增加输出数据可见性的延迟;

4.abort,在中止阶段,我们删除临时文件。

 

​​​​​​​两阶段提交-简单流程

 

整个过程可以总结为下面四个阶段:

1.一旦 Flink 开始做 checkpoint 操作,那么就会进入 pre-commit “预提交”阶段,同时JobManager的Coordinator 会将 Barrier 注入数据流中 ;

2.当所有的 barrier 在算子中成功进行一遍传递(就是Checkpoint完成),并完成快照后,则“预提交”阶段完成;

3.等所有的算子完成“预提交”,就会发起一个commit“提交”动作,但是任何一个“预提交”失败都会导致 Flink 回滚到最近的 checkpoint;

 

​​​​​​​两阶段提交-详细流程

  • 需求

接下来将介绍两阶段提交协议,以及它如何在一个读写Kafka的Flink程序中实现端到端的Exactly-Once语义。Kafka经常与Flink一起使用,且Kafka在最近的0.11版本中添加了对事务的支持。这意味着现在通过Flink读写Kafaka,并提供端到端的Exactly-Once语义有了必要的支持

 

在上图中,我们有:

– 从Kafka读取的数据源(Flink内置的KafkaConsumer

– 窗口聚合

– 将数据写回Kafka的数据输出端(Flink内置的KafkaProducer

要使数据输出端提供Exactly-Once保证,它必须将所有数据通过一个事务提交给Kafka。提交捆绑了两个checkpoint之间的所有要写入的数据。这可确保在发生故障时能回滚写入的数据。

但是在分布式系统中,通常会有多个并发运行的写入任务的,简单的提交或回滚是不够的,因为所有组件必须在提交或回滚时“一致”才能确保一致的结果。

Flink使用两阶段提交协议及预提交阶段来解决这个问题。

 

  • 预提交-内部状态

在checkpoint开始的时候,即两阶段提交协议的“预提交”阶段。当checkpoint开始时,Flink的JobManager会将checkpoint barrier(将数据流中的记录分为进入当前checkpoint与进入下一个checkpoint)注入数据流。

brarrier在operator之间传递。对于每一个operator,它触发operator的状态快照写入到state backend。

 

数据源保存了消费Kafka的偏移量(offset),之后将checkpoint barrier传递给下一个operator。

这种方式仅适用于operator具有『内部』状态。所谓内部状态,是指Flink state backend保存和管理的 -例如,第二个operator中window聚合算出来的sum值。当一个进程有它的内部状态的时候,除了在checkpoint之前需要将数据变更写入到state backend,不需要在预提交阶段执行任何其他操作。Flink负责在checkpoint成功的情况下正确提交这些写入,或者在出现故障时中止这些写入。

 

  • 预提交-外部状态

但是,当进程具有『外部』状态时,需要作些额外的处理。外部状态通常以写入外部系统(如Kafka)的形式出现。在这种情况下,为了提供Exactly-Once保证,外部系统必须支持事务,这样才能和两阶段提交协议集成。

在该示例中的数据需要写入Kafka,因此数据输出端(Data Sink)有外部状态。在这种情况下,在预提交阶段,除了将其状态写入state backend之外,数据输出端还必须预先提交其外部事务。

 

当checkpoint barrier在所有operator都传递了一遍,并且触发的checkpoint回调成功完成时,预提交阶段就结束了。所有触发的状态快照都被视为该checkpoint的一部分。checkpoint是整个应用程序状态的快照,包括预先提交的外部状态。如果发生故障,我们可以回滚到上次成功完成快照的时间点。

  • 提交阶段

下一步是通知所有operator,checkpoint已经成功了。这是两阶段提交协议的提交阶段,JobManager为应用程序中的每个operator发出checkpoint已完成的回调。

数据源和widnow operator没有外部状态,因此在提交阶段,这些operator不必执行任何操作。但是,数据输出端(Data Sink)拥有外部状态,此时应该提交外部事务。

 

  • 总结

我们对上述知识点总结下:

1.一旦所有operator完成预提交,就提交一个commit。

2.如果只要有一个预提交失败,则所有其他提交都将中止,我们将回滚到上一个成功完成的checkpoint。

3.在预提交成功之后,提交的commit需要保证最终成功 – operator和外部系统都需要保障这点。如果commit失败(例如,由于间歇性网络问题),整个Flink应用程序将失败,应用程序将根据用户的重启策略重新启动,还会尝试再提交。这个过程至关重要,因为如果commit最终没有成功,将会导致数据丢失。

4.完整的实现两阶段提交协议可能有点复杂,这就是为什么Flink将它的通用逻辑提取到抽象类TwoPhaseCommitSinkFunction中的原因。

 

代码示例

Flink+Kafka实现End-to-End Exactly-Once

https://ververica.cn/developers/flink-kafka-end-to-end-exactly-once-analysis/


  
  1. package cn.lanson.extend;
  2. import org.apache.commons.lang3.SystemUtils;
  3. import org.apache.flink.api.common.functions.FlatMapFunction;
  4. import org.apache.flink.api.common.functions.RichMapFunction;
  5. import org.apache.flink.api.common.restartstrategy.RestartStrategies;
  6. import org.apache.flink.api.common.serialization.SimpleStringSchema;
  7. import org.apache.flink.api.common.time.Time;
  8. import org.apache.flink.api.java.tuple.Tuple;
  9. import org.apache.flink.api.java.tuple.Tuple2;
  10. import org.apache.flink.runtime.state.filesystem.FsStateBackend;
  11. import org.apache.flink.streaming.api.CheckpointingMode;
  12. import org.apache.flink.streaming.api.datastream.DataStreamSource;
  13. import org.apache.flink.streaming.api.datastream.KeyedStream;
  14. import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
  15. import org.apache.flink.streaming.api.environment.CheckpointConfig;
  16. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  17. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
  18. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;
  19. import org.apache.flink.streaming.connectors.kafka.internals.KeyedSerializationSchemaWrapper;
  20. import org.apache.flink.util.Collector;
  21. import java.util.Properties;
  22. import java.util.Random;
  23. import java.util.concurrent.TimeUnit;
  24. /**
  25.  * Author lanson
  26.  * Desc
  27.  * Kafka --> Flink-->Kafka  的End-To-End-Exactly-once
  28.  * 直接使用
  29.  * FlinkKafkaConsumer  +  Flink的Checkpoint  +  FlinkKafkaProducer
  30.  */
  31. public class Kafka_Flink_Kafka_EndToEnd_ExactlyOnce {
  32.      public static void main(String[] args) throws Exception {
  33.          //1.env
  34.         StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  35.          //===========Checkpoint参数设置====
  36.          //===========类型1:必须参数=============
  37.          //设置Checkpoint的时间间隔为1000ms做一次Checkpoint/其实就是每隔1000ms发一次Barrier!
  38.         env.enableCheckpointing( 1000);
  39.          //设置State状态存储介质
  40.          if (SystemUtils.IS_OS_WINDOWS) {
  41.             env.setStateBackend( new FsStateBackend( "file:///D:/ckp"));
  42.         } else {
  43.             env.setStateBackend( new FsStateBackend( "hdfs://node1:8020/flink-checkpoint/checkpoint"));
  44.         }
  45.          //===========类型2:建议参数===========
  46.          //设置两个Checkpoint 之间最少等待时间,如设置Checkpoint之间最少是要等 500ms(为了避免每隔1000ms做一次Checkpoint的时候,前一次太慢和后一次重叠到一起去了)
  47.          //如:高速公路上,每隔1s关口放行一辆车,但是规定了两车之前的最小车距为500m
  48.         env.getCheckpointConfig().setMinPauseBetweenCheckpoints( 500); //默认是0
  49.          //设置如果在做Checkpoint过程中出现错误,是否让整体任务失败:true是  false不是
  50.          //env.getCheckpointConfig().setFailOnCheckpointingErrors(false);//默认是true
  51.         env.getCheckpointConfig().setTolerableCheckpointFailureNumber( 10); //默认值为0,表示不容忍任何检查点失败
  52.          //设置是否清理检查点,表示 Cancel 时是否需要保留当前的 Checkpoint,默认 Checkpoint会在作业被Cancel时被删除
  53.          //ExternalizedCheckpointCleanup.DELETE_ON_CANCELLATION:true,当作业被取消时,删除外部的checkpoint(默认值)
  54.          //ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION:false,当作业被取消时,保留外部的checkpoint
  55.         env.getCheckpointConfig().enableExternalizedCheckpoints(CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION);
  56.          //===========类型3:直接使用默认的即可===============
  57.          //设置checkpoint的执行模式为EXACTLY_ONCE(默认)
  58.         env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
  59.          //设置checkpoint的超时时间,如果 Checkpoint在 60s内尚未完成说明该次Checkpoint失败,则丢弃。
  60.         env.getCheckpointConfig().setCheckpointTimeout( 60000); //默认10分钟
  61.          //设置同一时间有多少个checkpoint可以同时执行
  62.         env.getCheckpointConfig().setMaxConcurrentCheckpoints( 1); //默认为1
  63.          //=============重启策略===========
  64.         env.setRestartStrategy(RestartStrategies.fixedDelayRestart( 3, Time.of( 10, TimeUnit.SECONDS)));
  65.          //2.Source
  66.         Properties props_source = new Properties();
  67.         props_source.setProperty( "bootstrap.servers", "node1:9092");
  68.         props_source.setProperty( "group.id", "flink");
  69.         props_source.setProperty( "auto.offset.reset", "latest");
  70.         props_source.setProperty( "flink.partition-discovery.interval-millis", "5000"); //会开启一个后台线程每隔5s检测一下Kafka的分区情况
  71.          //props_source.setProperty("enable.auto.commit", "true");//没有Checkpoint的时候使用自动提交偏移量到默认主题:__consumer_offsets中
  72.          //props_source.setProperty("auto.commit.interval.ms", "2000");
  73.          //kafkaSource就是KafkaConsumer
  74.         FlinkKafkaConsumer<String> kafkaSource = new FlinkKafkaConsumer<>( "flink_kafka", new SimpleStringSchema(), props_source);
  75.         kafkaSource.setStartFromLatest();
  76.          //kafkaSource.setStartFromGroupOffsets();//设置从记录的offset开始消费,如果没有记录从auto.offset.reset配置开始消费
  77.          //kafkaSource.setStartFromEarliest();//设置直接从Earliest消费,和auto.offset.reset配置无关
  78.         kafkaSource.setCommitOffsetsOnCheckpoints( true); //执行Checkpoint的时候提交offset到Checkpoint(Flink用),并且提交一份到默认主题:__consumer_offsets(外部其他系统想用的话也可以获取到)
  79.         DataStreamSource<String> kafkaDS = env.addSource(kafkaSource);
  80.          //3.Transformation
  81.          //3.1切割出每个单词并直接记为1
  82.         SingleOutputStreamOperator<Tuple2<String, Integer>> wordAndOneDS = kafkaDS.flatMap( new FlatMapFunction<String, Tuple2<String, Integer>>() {
  83.              @Override
  84.              public void flatMap(String value, Collector<Tuple2<String, Integer>> out) throws Exception {
  85.                  //value就是每一行
  86.                 String[] words = value.split( " ");
  87.                  for (String word : words) {
  88.                     Random random = new Random();
  89.                      int i = random.nextInt( 5);
  90.                      if (i > 3) {
  91.                         System.out.println( "出bug了...");
  92.                          throw new RuntimeException( "出bug了...");
  93.                     }
  94.                     out.collect(Tuple2.of(word, 1));
  95.                 }
  96.             }
  97.         });
  98.          //3.2分组
  99.          //注意:批处理的分组是groupBy,流处理的分组是keyBy
  100.         KeyedStream<Tuple2<String, Integer>, Tuple> groupedDS = wordAndOneDS.keyBy( 0);
  101.          //3.3聚合
  102.         SingleOutputStreamOperator<Tuple2<String, Integer>> aggResult = groupedDS.sum( 1);
  103.          //3.4将聚合结果转为自定义的字符串格式
  104.         SingleOutputStreamOperator<String> result = (SingleOutputStreamOperator<String>) aggResult.map( new RichMapFunction<Tuple2<String, Integer>, String>() {
  105.              @Override
  106.              public String map(Tuple2<String, Integer> value) throws Exception {
  107.                  return value.f0 + ":::" + value.f1;
  108.             }
  109.         });
  110.          //4.sink
  111.          //result.print();
  112.         Properties props_sink = new Properties();
  113.         props_sink.setProperty( "bootstrap.servers", "node1:9092");
  114.         props_sink.setProperty( "transaction.timeout.ms", 1000 * 5 + ""); //设置事务超时时间,也可在kafka配置中设置
  115.          /*FlinkKafkaProducer<String> kafkaSink0 = new FlinkKafkaProducer<>(
  116.                 "flink_kafka",
  117.                 new SimpleStringSchema(),
  118.                 props_sink);*/
  119.         FlinkKafkaProducer<String> kafkaSink = new FlinkKafkaProducer<>(
  120.                  "flink_kafka2",
  121.                  new KeyedSerializationSchemaWrapper<String>( new SimpleStringSchema()),
  122.                 props_sink,
  123.                 FlinkKafkaProducer.Semantic.EXACTLY_ONCE
  124.         );
  125.         result.addSink(kafkaSink);
  126.          //5.execute
  127.         env.execute();
  128.          //测试:
  129.          //1.创建主题 /export/server/kafka/bin/kafka-topics.sh --zookeeper node1:2181 --create --replication-factor 2 --partitions 3 --topic flink_kafka2
  130.          //2.开启控制台生产者 /export/server/kafka/bin/kafka-console-producer.sh --broker-list node1:9092 --topic flink_kafka
  131.          //3.开启控制台消费者 /export/server/kafka/bin/kafka-console-consumer.sh --bootstrap-server node1:9092 --topic flink_kafka2
  132.     }
  133. }

 

​​​​​​​Flink+MySQL实现End-to-End Exactly-Once

https://www.jianshu.com/p/5bdd9a0d7d02

  • 需求

1.checkpoint每10s进行一次,此时用FlinkKafkaConsumer实时消费kafka中的消息

2.消费并处理完消息后,进行一次预提交数据库的操作

3.如果预提交没有问题,10s后进行真正的插入数据库操作,如果插入成功,进行一次checkpoint,flink会自动记录消费的offset,可以将checkpoint保存的数据放到hdfs中

4.如果预提交出错,比如在5s的时候出错了,此时Flink程序就会进入不断的重启中,重启的策略可以在配置中设置,checkpoint记录的还是上一次成功消费的offset,因为本次消费的数据在checkpoint期间,消费成功,但是预提交过程中失败了

5.注意此时数据并没有真正的执行插入操作,因为预提交(preCommit)失败,提交(commit)过程也不会发生。等将异常数据处理完成之后,再重新启动这个Flink程序,它会自动从上一次成功的checkpoint中继续消费数据,以此来达到Kafka到Mysql的Exactly-Once。

 

  • 代码1
    
        
    1. package cn.lanson.extend;
    2. import org.apache.flink.api.common.ExecutionConfig;
    3. import org.apache.flink.api.common.typeutils.base.VoidSerializer;
    4. import org.apache.flink.api.java.typeutils.runtime.kryo.KryoSerializer;
    5. import org.apache.flink.runtime.state.filesystem.FsStateBackend;
    6. import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.node.ObjectNode;
    7. import org.apache.flink.streaming.api.CheckpointingMode;
    8. import org.apache.flink.streaming.api.datastream.DataStreamSource;
    9. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    10. import org.apache.flink.streaming.api.functions.sink.TwoPhaseCommitSinkFunction;
    11. import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
    12. import org.apache.flink.streaming.util.serialization.JSONKeyValueDeserializationSchema;
    13. import org.apache.kafka.clients.CommonClientConfigs;
    14. import java.sql.*;
    15. import java.text.SimpleDateFormat;
    16. import java.util.Date;
    17. import java.util.Properties;
    18. public class Kafka_Flink_MySQL_EndToEnd_ExactlyOnce {
    19.      public static void main(String[] args) throws Exception {
    20.          //1.env
    21.         StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    22.         env.setParallelism( 1); //方便测试
    23.         env.enableCheckpointing( 10000);
    24.         env.getCheckpointConfig().setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
    25.         env.getCheckpointConfig().setMinPauseBetweenCheckpoints( 1000);
    26.          //env.getCheckpointConfig().enableExternalizedCheckpoints(CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION);
    27.         env.setStateBackend( new FsStateBackend( "file:///D:/ckp"));
    28.          //2.Source
    29.         String topic = "flink_kafka";
    30.         Properties props = new Properties();
    31.         props.setProperty(CommonClientConfigs.BOOTSTRAP_SERVERS_CONFIG, "node1:9092");
    32.         props.setProperty( "group.id", "flink");
    33.         props.setProperty( "auto.offset.reset", "latest"); //如果有记录偏移量从记录的位置开始消费,如果没有从最新的数据开始消费
    34.         props.setProperty( "flink.partition-discovery.interval-millis", "5000"); //开一个后台线程每隔5s检查Kafka的分区状态
    35.         FlinkKafkaConsumer<ObjectNode> kafkaSource = new FlinkKafkaConsumer<>( "topic_in", new JSONKeyValueDeserializationSchema( true), props);
    36.         kafkaSource.setStartFromGroupOffsets(); //从group offset记录的位置位置开始消费,如果kafka broker 端没有该group信息,会根据"auto.offset.reset"的设置来决定从哪开始消费
    37.         kafkaSource.setCommitOffsetsOnCheckpoints( true); //Flink执行Checkpoint的时候提交偏移量(一份在Checkpoint中,一份在Kafka的默认主题中__comsumer_offsets(方便外部监控工具去看))
    38.         DataStreamSource<ObjectNode> kafkaDS = env.addSource(kafkaSource);
    39.          //3.transformation
    40.          //4.Sink
    41.         kafkaDS.addSink( new MySqlTwoPhaseCommitSink()).name( "MySqlTwoPhaseCommitSink");
    42.          //5.execute
    43.         env.execute();
    44.     }
    45. }
    46. /**
    47.  自定义kafka to mysql,继承TwoPhaseCommitSinkFunction,实现两阶段提交。
    48.  功能:保证kafak to mysql 的Exactly-Once
    49.  CREATE TABLE `t_test` (
    50.    `id` bigint(20) NOT NULL AUTO_INCREMENT,
    51.    `value` varchar(255) DEFAULT NULL,
    52.    `insert_time` datetime DEFAULT NULL,
    53.    PRIMARY KEY (`id`)
    54.  ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4
    55.  */
    56. class MySqlTwoPhaseCommitSink extends TwoPhaseCommitSinkFunction<ObjectNode, Connection, Void> {
    57.      public MySqlTwoPhaseCommitSink() {
    58.          super( new KryoSerializer<>(Connection.class, new ExecutionConfig()), VoidSerializer.INSTANCE);
    59.     }
    60.      /**
    61.      * 执行数据入库操作
    62.      */
    63.      @Override
    64.      protected void invoke(Connection connection, ObjectNode objectNode, Context context) throws Exception {
    65.         System.err.println( "start invoke.......");
    66.         String date = new SimpleDateFormat( "yyyy-MM-dd HH:mm:ss").format( new Date());
    67.         System.err.println( "===>date:" + date + " " + objectNode);
    68.         String value = objectNode.get( "value").toString();
    69.         String sql = "insert into `t_test` (`value`,`insert_time`) values (?,?)";
    70.         PreparedStatement ps = connection.prepareStatement(sql);
    71.         ps.setString( 1, value);
    72.         ps.setTimestamp( 2, new Timestamp(System.currentTimeMillis()));
    73.          //执行insert语句
    74.         ps.execute();
    75.          //手动制造异常
    76.          if(Integer.parseInt(value) == 15) System.out.println( 1/ 0);
    77.     }
    78.      /**
    79.      * 获取连接,开启手动提交事务(getConnection方法中)
    80.      */
    81.      @Override
    82.      protected Connection beginTransaction() throws Exception {
    83.         String url = "jdbc:mysql://localhost:3306/bigdata?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull&useSSL=false&autoReconnect=true";
    84.         Connection connection = DBConnectUtil.getConnection(url, "root", "root");
    85.         System.err.println( "start beginTransaction......."+connection);
    86.          return connection;
    87.     }
    88.      /**
    89.      * 预提交,这里预提交的逻辑在invoke方法中
    90.      */
    91.      @Override
    92.      protected void preCommit(Connection connection) throws Exception {
    93.         System.err.println( "start preCommit......."+connection);
    94.     }
    95.      /**
    96.      * 如果invoke执行正常则提交事务
    97.      */
    98.      @Override
    99.      protected void commit(Connection connection) {
    100.         System.err.println( "start commit......."+connection);
    101.         DBConnectUtil.commit(connection);
    102.     }
    103.      @Override
    104.      protected void recoverAndCommit(Connection connection) {
    105.         System.err.println( "start recoverAndCommit......."+connection);
    106.     }
    107.      @Override
    108.      protected void recoverAndAbort(Connection connection) {
    109.         System.err.println( "start abort recoverAndAbort......."+connection);
    110.     }
    111.      /**
    112.      * 如果invoke执行异常则回滚事务,下一次的checkpoint操作也不会执行
    113.      */
    114.      @Override
    115.      protected void abort(Connection connection) {
    116.         System.err.println( "start abort rollback......."+connection);
    117.         DBConnectUtil.rollback(connection);
    118.     }
    119. }
    120. class DBConnectUtil {
    121.      /**
    122.      * 获取连接
    123.      */
    124.      public static Connection getConnection(String url, String user, String password) throws SQLException {
    125.         Connection conn = null;
    126.         conn = DriverManager.getConnection(url, user, password);
    127.          //设置手动提交
    128.         conn.setAutoCommit( false);
    129.          return conn;
    130.     }
    131.      /**
    132.      * 提交事务
    133.      */
    134.      public static void commit(Connection conn) {
    135.          if (conn != null) {
    136.              try {
    137.                 conn.commit();
    138.             } catch (SQLException e) {
    139.                 e.printStackTrace();
    140.             } finally {
    141.                 close(conn);
    142.             }
    143.         }
    144.     }
    145.      /**
    146.      * 事务回滚
    147.      */
    148.      public static void rollback(Connection conn) {
    149.          if (conn != null) {
    150.              try {
    151.                 conn.rollback();
    152.             } catch (SQLException e) {
    153.                 e.printStackTrace();
    154.             } finally {
    155.                 close(conn);
    156.             }
    157.         }
    158.     }
    159.      /**
    160.      * 关闭连接
    161.      */
    162.      public static void close(Connection conn) {
    163.          if (conn != null) {
    164.              try {
    165.                 conn.close();
    166.             } catch (SQLException e) {
    167.                 e.printStackTrace();
    168.             }
    169.         }
    170.     }
    171. }

     

 

  • 代码2

  
  1. package cn.lanson.extend;
  2. import com.alibaba.fastjson.JSON;
  3. import lombok.AllArgsConstructor;
  4. import lombok.Data;
  5. import lombok.NoArgsConstructor;
  6. import org.apache.kafka.clients.producer.Producer;
  7. import org.apache.kafka.clients.producer.ProducerRecord;
  8. import java.util.Properties;
  9. public class DataProducer {
  10.      public static void main(String[] args) throws InterruptedException {
  11.         Properties props = new Properties();
  12.         props.put( "bootstrap.servers", "node1:9092");
  13.         props.put( "key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
  14.         props.put( "value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
  15.         Producer<String, String> producer = new org.apache.kafka.clients.producer.KafkaProducer<>(props);
  16.          try {
  17.              for ( int i = 1; i <= 20; i++) {
  18.                 DataBean data = new DataBean(String.valueOf(i));
  19.                 ProducerRecord record = new ProducerRecord<String, String>( "flink_kafka", null, null, JSON.toJSONString(data));
  20.                 producer.send(record);
  21.                 System.out.println( "发送数据: " + JSON.toJSONString(data));
  22.                 Thread.sleep( 1000);
  23.             }
  24.         } catch (Exception e){
  25.             System.out.println(e);
  26.         }
  27.         producer.flush();
  28.     }
  29. }
  30. @Data
  31. @NoArgsConstructor
  32. @AllArgsConstructor
  33. class DataBean {
  34.      private String value;
  35. }

深度总结

Exactly-Once

流数据处理的容错语义:

At most once --最多一次, 也就是说数据最多被处理一次,有可能会丢失

At least once --至少一次, 也就是说数据至少会被处理一次,有可能会重复

Exactly-Once --精准一次, 也就是说数据只会被处理一次,不会丢也不会重复,注意: ==更准确的理解应该是只会被正确处理一次而不是仅一次==

End-to-End Exactly-Once

Flink不仅仅支持Exactly-Once,而且还支持End-to-End Exactly-Once

End-to-End Exactly-Once : 端到端的Exactly-Once, 也就是说, Flink不光光内部处理数据的时候支持Exactly-Once, 在从Source消费, 到Transformation处理, 再到Sink,整个流数据处理,从一端到另一端 整个流程都支持Exactly-Once !

Flink如何支持End-to-End Exactly-Once的?

  • Source: offset+Checkpoint: 需要数据源支持offset维护,如Kafka(offset) + Flink(使用Checkpoint维护offset) 就是支持

    
        
    1. FlinkKafkaConsumer <T> extends FlinkKafkaConsumerBase
    2. FlinkKafkaConsumerBase <T> implements CheckpointedFunction
    3. 源码中就记录了主题分区和offset信息
    4. ListState <Tuple2<KafkaTopicPartition, Long>> unionOffsetStates
    5. initializeState方法和snapshotState方法
  • Transformation:Checkpoint

    Flink官方介绍说的就是支持数据流上的有状态计算! Flink中的有状态的Transformation-API都是自动维护状态到的(到Checkpoint中),如sum/reduce/maxBy.....
  • Sink:两阶段事务提交+Checkpoint

    
        
    1. Flink+Kafka, Kafka是支持事务的,所以可以使用两阶段事务提交来实现
    2. FlinkKafkaProducer <IN> extends TwoPhaseCommitSinkFunction
    3. beginTransaction
    4. preCommit
    5. commit
    6. abort

两阶段事务提交协议

 

整个过程可以总结为下面阶段:

1.一旦 Flink 开始做 checkpoint 操作,那么就beginTransaction开启事务会进入 pre-commit “预提交”阶段,同时JobManager的Coordinator 会将 Barrier 注入数据流中 ;

2.当所有的 barrier 在算子中成功进行一遍传递(就是Checkpoint完成),并完成快照后,则“预提交”阶段完成;

3.等所有的算子完成“预提交”,就会发起一个commit“提交”动作,但是任何一个“预提交”失败都会导致 Flink 回滚到最近的 checkpoint(abort终止事务);

注意: 两阶段事务提交本身的实现流程较为固定(主要就是4个方法的实现beginTransaction/preCommit/commit/abort), 但是代码实现细节较为复杂,所以Flink提供了abstract class TwoPhaseCommitSinkFunction抽象类,并提供了Sink到Kafka的具体实现:FlinkKafkaProducer extends TwoPhaseCommitSinkFunction里面已经实现好了相应的方法

注意: 小技巧:

面试时被问到. 需要说出几个核心名词: FlinkKafkaProducer 两阶段事务提交/TwoPhaseCommitSinkFunction/beginTransaction/preCommit/commit/abort


转载:https://blog.csdn.net/xiaoweite1/article/details/116618428
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场