添加状态后端 (#30)

#28
Reviewed-on: #30
This commit is contained in:
LingZhaoHui 2023-09-17 12:52:49 +00:00
parent 1ccae8417a
commit 6ffe2bca28
2 changed files with 185 additions and 1 deletions

View File

@ -136,7 +136,175 @@ Flink 为算子状态提供三种基本数据结构:
| state.backend.rocksdb.checkpoint.transfer.thread.num | 4 | 用于上传和下载文件的线程数目 |
| state.backend.rocksdb.write-batch-size | 2mb | Rocksdb写入时消耗的最大内存 |
| state.backend.rocksdb.predefined-options | DEFAULT | `DEFAULT`所有的RocksDb配置都是默认值。 <br>`SPINNING_DISK_OPTIMIZED`:在写硬盘的时候优化RocksDb参数 <br>`SPINNING_DISK_OPTIMIZED_HIGH_MEM`: 在写入常规硬盘时优化参数,需要消耗更多的内存<br> `FLASH_SSD_OPTIMIZED`:在写入ssd闪盘时进行优化。 |
| | | |
# 状态后端实现
StateBackend实现类图在1.17版本中,部分状态后端已经过期,比如:~~MemoryStateBackend~~、~~RocksDBStateBackend~~、~~FsStateBackend~~等。
![pic](https://pan.zeekling.cn//flink/basic/state/StateBackend_0002.png)
去除掉已经过期的状态后端剩余的如下所示:
![pic](https://pan.zeekling.cn//flink/basic/state/StateBackend_0003.png)
## HashMapStateBackend
在TaskManager的内存当中保存作业的状态后端信息如果一个TaskManager并行执行多个任务时所有的聚合信息都要保存到当前的TaskManager内存里面。数据主要以Java对象的方式保存在堆内存当中。Key/value 形式的状态和窗口算子会持有一个 hash table其中存储着状态值、触发器。
内存当中存储格式定义如下:
```java
/** So that we can give out state when the user uses the same key. */
private final HashMap<String, InternalKvState<K, ?, ?>> keyValueStatesByName;
```
### 适用场景
- 有较大 state较长 window 和较大 key/value 状态的 Job。
- 所有的高可用场景。
建议同时将 [managed memory](https://nightlies.apache.org/flink/flink-docs-release-1.14/zh/docs/deployment/memory/mem_setup_tm/#managed-memory) 设为0以保证将最大限度的内存分配给 JVM 上的用户代码。
## EmbeddedRocksDBStateBackend
将正在于行的作业的状态保存到RocksDb里面。
## 创建KeyedStateBackend
1. 加载`RocksDB JNI library`相关Jar包。
2. 申请RocksDB所需要的内存。核心代码在SharedResources类当中的getOrAllocateSharedResource函数。在申请资源之前会先加锁在加锁成功会申请所需要的资源。加锁代码如下
```java
try {
lock.lockInterruptibly();
} catch (InterruptedException e) {
Thread.currentThread().interrupt();
throw new MemoryAllocationException("Interrupted while acquiring memory");
}
```
在申请资源之前需要根据类型判断是否已经申请了资源,如果已经申请了资源就不会重新申请,没有则需要申请。申请的代码如下所示:
````java
private static <T extends AutoCloseable> LeasedResource<T> createResource(
LongFunctionWithException<T, Exception> initializer, long size) throws Exception {
final T resource = initializer.apply(size);
return new LeasedResource<>(resource, size);
}
````
3. 创建resourceContainer,包含预先定义好的RocksDB优化选项等。
````java
private RocksDBResourceContainer createOptionsAndResourceContainer(
@Nullable OpaqueMemoryResource<RocksDBSharedResources> sharedResources,
@Nullable File instanceBasePath,
boolean enableStatistics) {
return new RocksDBResourceContainer(
configurableOptions != null ? configurableOptions : new Configuration(),
predefinedOptions != null ? predefinedOptions : PredefinedOptions.DEFAULT,
rocksDbOptionsFactory,
sharedResources,
instanceBasePath,
enableStatistics);
````
4. 初始化RocksDBKeyedStateBackend会从目录里面加载数据到RocksDB里面。
````java
restoreOperation =
getRocksDBRestoreOperation(
keyGroupPrefixBytes,
cancelStreamRegistry,
kvStateInformation,
registeredPQStates,
ttlCompactFiltersManager);
RocksDBRestoreResult restoreResult = restoreOperation.restore();
db = restoreResult.getDb();
defaultColumnFamilyHandle = restoreResult.getDefaultColumnFamilyHandle();
````
restoreOperation实现类图如下所示主要包含如下的实现类。
![pic](https://pan.zeekling.cn//flink/basic/state/StateBackend_0004.png)
### RocksDBIncrementalRestoreOperation
主要实现从增量快照中恢复RocksDB数据。核心函数为restore()。主要区分为:
- restoreWithRescaling从多个增量的状态后端恢复需要进行扩缩容。在这个过程中会创建一个临时的RocksDB实例用于关key-groups。临时RocksDB当中的数据在都会复制到实际使用的RocksDB的实例当中。
- restoreWithoutRescaling从单个远程的增量状态后端恢复无需进行扩缩容。
````java
if (isRescaling) {
restoreWithRescaling(restoreStateHandles);
} else {
restoreWithoutRescaling(theFirstStateHandle);
}
````
#### restoreWithRescaling 实现原理
1. 选择最优的KeyedStateHandle。
2. 初始化RocksDB实例。
3. 将key-groups从临时RocksDB转换到Base RocksDB数据库。
#### restoreWithoutRescaling 实现原理
### RocksDBFullRestoreOperation
### RocksDBHeapTimersFullRestoreOperation
### RocksDBNoneRestoreOperation
## ChangelogStateBackend
## DeactivatedChangelogStateBackend

16
basic/savepoint.md Normal file
View File

@ -0,0 +1,16 @@
Flink 为作业的容错提供 Checkpoint 和 Savepoint 两种机制。保存点机制Savepoints是检查点机制一种特殊的实现它允许你通过手工方式来触发Checkpoint并将结果持久化存储到指定路径中主要用于避免Flink集群在重启或升级时导致状态丢失。
![pic](https://pan.zeekling.cn//flink/basic/state/savepoint_0001.png)
Savepoint 是一种特殊的 Checkpoint实际上它们的存储格式也是一致的它们主要的不同在于定位。Checkpoint机制的目标在于保证Flink作业意外崩溃重启不影响exactly once准确性通常是配合作业重启策略使用的。Checkpoint 是为 Flink runtime 准备的Savepoint 是为 Flink 用户准备的。因此 Checkpoint 是由 Flink runtime 定时触发并根据运行配置自动清理的,一般不需要用户介入,而 Savepoint 的触发和清理都由用户掌控。
由于 Checkpoint 的频率远远大于 SavepointFlink 对 Checkpoint 格式进行了针对不同 StateBackend 的优化,因此它在底层储存效率更高,而代价是耦合性更强,比如不保证 扩容 (即改变作业并行度)的特性和跨版本兼容。
Savepoint 是全量的,不支持增量的。因为 Checkpoint 是秒级频繁触发的,两个连续 Checkpoint 通常高度相似,因此对于 State 特别大的作业来说,每次 Checkpoint 只增量地补充 diff 可以大大地节约成本,这就是 incremental Checkpoint 的由来。而 Savepoint 并不会连续地触发而且比起效率Savepoint 更关注的是可移植性和版本兼容性。