checkpoint相关 (#29)

#28
Reviewed-on: #29
This commit is contained in:
LingZhaoHui 2023-09-03 14:13:40 +00:00
parent bcd6ab5e4d
commit 1ccae8417a
2 changed files with 142 additions and 1 deletions

View File

@ -1,3 +1,144 @@
# 状态管理
有状态的计算是流处理框架要实现的重要功能,因为稍复杂的流处理场景都需要记录状态,然后在新流入数据的基础上不断更新状态。下面的几个场景都需要使用流处理的状态功能:
- 数据流中的数据有重复,我们想对重复数据去重,需要记录哪些数据已经流入过应用,当新数据流入时,根据已流入过的数据来判断去重。
- 检查输入流是否符合某个特定的模式,需要将之前流入的元素以状态的形式缓存下来。比如,判断一个温度传感器数据流中的温度是否在持续上升。
- 对一个时间窗口内的数据进行聚合分析分析一个小时内某项指标的75分位或99分位的数值。
- 双流Join场景。
Flink的一个算子有多个子任务每个子任务分布在不同实例上我们可以把状态理解为某个算子子任务在其当前实例上的一个变量变量记录了数据流的历史信息。当新数据流入时我们可以结合历史信息来进行计算。
![pic](https://pan.zeekling.cn/flink/basic/state/state_0001.png)
## Managed State和Raw State
Flink有两种基本类型的状态托管状态Managed State和原生状态Raw State。从名称中也能读出两者的区别Managed State是由Flink管理的Flink帮忙存储、恢复和优化Raw State是开发者自己管理的需要自己序列化。
| - | Managed State | Raw State |
| :----------- | ------------------------------------------------------------ | ----------------------------------------------------------- |
| 状态管理方式 | Flink Running托管自动存储、自动恢复、自动伸缩。 | 用户自己管理 |
| 状态数据结构 | Flink提供的常用数据结构ValueState、ListState、MapState等。 | Raw State只支持字节任何上层数据结构需要序列化为字节数组。 |
| 使用场景 | 绝大部分算子 | 自定义算子 |
### Managed State
对Managed State继续细分它又有两种类型Keyed State和Operator State。
#### Keyed State
Flink 为每个键值维护一个状态实例并将具有相同键的所有数据都分区到同一个算子任务中这个任务会维护和处理这个key 对应的状态。当任务处理一条数据时,它会自动将状态的访问范围限定为当前数据的 key。因此具有相同 key 的所有数据都会访问相同的状态。Keyed State 很类似于一个分布式的 key-value map 数据结构,只能用于 KeyedStream keyBy 算子处理之后)。
![Keyed State 示意图](https://pan.zeekling.cn/flink/basic/state/state_0002.png)
Keyed State 有五种类型:
- ValueState :值状态,保存单个类型为 T 的值。
- ListState :列表状态,保存一个类型为 T 的列表。
- MapState :映射状态,保存 Key-Value 对。
- ReducingState :聚合状态。
- AggregatingState聚合状态。
#### Operator State
KeyedState 是在进行 KeyBy 之后进行状态操作时使用的状态类型,那么像 Source、Sink算子是不会进行 KeyBy 操作的,当这类算子也需要用到状态,应该怎么操作呢?这时候就需要使用 Operator State**算子状态**Operator State 是绑定在 Operator 的并行度实例上的,也就是说一个并行度一个状态。
例如当消费 kafka 数据的 Kafka Source 并行度为 3 时,默认每个并行度都是从一个 Kafka 的 topic 的某个分区中消费数据,而每个 kafka Source 为了保证在极端情况下也不丢失数据,就不能将 partition 对应的 offset 保存到默认的 zookeeper 中,而是需要将这些数据保存在状态中,自己来维护这部分数据。当并行度发生调整时,需要在 Operator 的并行度上重新分配状态。
在流数据开发的大多数场景中,我们都不需要使用 Operator State Operator State 的实现主要是针对一些没有 Keyed 操作的 Source 和 Sink 而设计的
Operator State 的作用范围限定为算子任务。这意味着由同一并行任务所处理的所有数据都可以访问到相同的状态,状态对于同一任务而言是共享的。算子状态不能由相同或不同算子的另一个任务访问。
![OperatorState示意图](https://pan.zeekling.cn/flink/basic/state/state_0003.png)
Flink 为算子状态提供三种基本数据结构:
- 列表状态( List state ):状态是一个 **可序列化** 对象的集合 `List`,彼此独立,方便在改变并发后进行状态的重新分派。这些对象是重新分配 non-Keyed State 的最细粒度。根据状态的不同访问方式,有如下两种重新分配的模式:
- **Even-split redistribution:** 每个算子都保存一个列表形式的状态集合,整个状态由所有的列表拼接而成。当作业恢复或重新分配的时候,整个状态会按照算子的并发度进行均匀分配。比如说,算子 A 的并发读为 1包含两个元素 `element1``element2`,当并发读增加为 2 时,`element1` 会被分到并发 0 上,`element2` 则会被分到并发 1 上。
![Even-split redistribution图示](https://pan.zeekling.cn/flink/basic/state/state_0004.png)
- **Union redistribution:** 每个算子保存一个列表形式的状态集合。整个状态由所有的列表拼接而成。作业恢复或重新分配时每个算子都将获得所有的状态数据。Union redistribution 模式下 checkpoint metadata会存储每个operator 的 subTask 的offset信息。如果List State的基数较大时不要使用这种方式的redistribution。因为容易引起OOM。
![Union redistribution图示](https://pan.zeekling.cn/flink/basic/state/state_0005.png)
- 调用不同的获取状态对象的接口,会使用不同的状态分配算法。比如 `getUnionListState(descriptor)` 会使用 union redistribution 算法, 而 `getListState(descriptor)` 则简单的使用 even-split redistribution 算法。
- 当初始化好状态对象后,我们通过 `isRestored()` 方法判断是否从之前的故障中恢复回来,如果该方法返回 `true` 则表示从故障中进行恢复,会执行接下来的恢复逻辑。
- 广播状态( Broadcast state ):如果一个算子有多项任务,而它的每项任务状态又都相同,那么这种特殊情况最适合应用广播状态。
# 状态后端和checkpoint
- 状态后端是保存到本地的状态。
- checkpoint是将状态定时备份到第三方存储比如hdfsobs上面方便在作业重新运行的时候恢复数据。
![pic](https://pan.zeekling.cn//flink/basic/flink_backent_0001.png)
# 状态后端相关配置
| 配置名称 | 默认值 | 说明 |
|---|---|---|
| **state.backend** | - | 建议配置为rocksdb |
| state.backend.latency-track.keyed-state-enabled | false | 是否跟踪keyed state operations的延时建议不要开启 |
| state.backend.latency-track.sample-interval | 100 | 跟踪耗时超过100ms的operations |
| state.backend.latency-track.history-size | 128 | 跟踪耗时较高operation的个数 |
| table.exec.state.ttl | - | 状态后端ttl时间一般用于join场景下防止状态后端过大导致作业失败 |
# checkpoint 相关配置
| 配置名称 | 默认值 | 说明 |
|---|---|---|
| **execution.checkpointing.interval** | - | checkpoint的触发的时间每个一段时间都会触发checkpoint。建议一般配置为1-10min左右 |
| **execution.checkpointing.mode** | EXACTLY_ONCE | EXACTLY_ONCE保证精确一次;<br> AT_LEAST_ONCE:至少一次。建议EXACTLY_ONCE |
| **state.backend.incremental** | false | 是否开启增量checkpoint建议开启 |
| **execution.checkpointing.timeout** | 10min| checkpoint的超时时间建议设置长一点30min左右 |
| **execution.checkpointing.unaligned.enabled** | false | 是否启用非对齐checkpoint建议不开启 |
| execution.checkpointing.unaligned.forced | false | 是否强制开启非对齐checkpoint |
| execution.checkpointing.max-concurrent-checkpoints | 1 | 同时进行checkpoint的最大次数 |
| execution.checkpointing.min-pause | 0 | 两个checkpoint之间的最小停顿时间 |
| execution.checkpointing.tolerable-failed-checkpoints | - | 可容忍的checkpoint的连续故障数目 |
| execution.checkpointing.aligned-checkpoint-timeout | 0 | 对齐checkpoint超时时间 |
| execution.checkpointing.alignment-timeout | 0 | 参考execution.checkpointing.aligned-checkpoint-timeout <span style="color:red;">(已经过期)</span> |
| execution.checkpointing.force | false | 是否强制检查点<span style="color:red;">(已经过期)</span> |
| state.checkpoints.num-retained | 1 | checkpoint 保存个数 |
| state.backend.async | true | 是否开启异步checkpoint <span style="color:red;">(已经过期)</span> |
| state.savepoints.dir | - | savepoints存储文件夹 |
| state.checkpoints.dir | - | checkpoint存储文件夹 |
| state.storage.fs.memory-threshold | 20kb | 状态文件的最小大小 |
| state.storage.fs.write-buffer-size | 4 * 1024 | 写入文件系统的检查点流的写入缓冲区的默认大小。 |
## RocksDb相关配置
| 配置项名称 | 默认值 | 说明 |
|----|----|----|
| state.backend.rocksdb.checkpoint.transfer.thread.num | 4 | 用于上传和下载文件的线程数目 |
| state.backend.rocksdb.write-batch-size | 2mb | Rocksdb写入时消耗的最大内存 |
| state.backend.rocksdb.predefined-options | DEFAULT | `DEFAULT`所有的RocksDb配置都是默认值。 <br>`SPINNING_DISK_OPTIMIZED`:在写硬盘的时候优化RocksDb参数 <br>`SPINNING_DISK_OPTIMIZED_HIGH_MEM`: 在写入常规硬盘时优化参数,需要消耗更多的内存<br> `FLASH_SSD_OPTIMIZED`:在写入ssd闪盘时进行优化。 |
| | | |
# 常见报错

View File

@ -4,7 +4,7 @@
- [Flink资源调优](./Resource.md)
- [状态和CheckPoint 调优](./CheckPoint.md)
- [反压处理](./backpress.md)
- [Flink SQL 调优]()
- [Flink SQL 调优](./flinkSql.md)