将图片移动到cdn上面 #22

Merged
zeekling merged 1 commits from del_png into main 2023-07-01 12:05:46 +00:00
22 changed files with 16 additions and 18 deletions
Showing only changes of commit 91221e2c56 - Show all commits

Binary file not shown.

Before

Width:  |  Height:  |  Size: 142 KiB

View File

@ -3,7 +3,7 @@
# 底层原理简介 # 底层原理简介
![pic](./flinksql_0001.png) ![pic](https://pan.zeekling.cn/flink/sql/flinksql_0001.png)
- LState:存储左边数据流中的数据。 - LState:存储左边数据流中的数据。
- RState存储右边数据流中的数据。 - RState存储右边数据流中的数据。

View File

@ -10,7 +10,7 @@ flush 线程从内存 flush 到磁盘上;读取过程中,会先尝试从 Wri
查询 Block Cache如果内存中都没有的话则会按层级查找底层的 SST 文件,并将返回的结果所在的 Data Block 加载到 Block 查询 Block Cache如果内存中都没有的话则会按层级查找底层的 SST 文件,并将返回的结果所在的 Data Block 加载到 Block
Cache返回给上层应用。 Cache返回给上层应用。
![pic](./RocksDB001.png) ![pic](https://pan.zeekling.cn/flink/basic/RocksDB001.png)
# RocksDBKeyedStateBackend增量快照介绍 # RocksDBKeyedStateBackend增量快照介绍
@ -19,7 +19,7 @@ Cache返回给上层应用。
用这一特性将两次 checkpoint 之间 SST 文件列表的差异作为状态增量上传到分布式文件系统上,并通过 JobMaster 中的 用这一特性将两次 checkpoint 之间 SST 文件列表的差异作为状态增量上传到分布式文件系统上,并通过 JobMaster 中的
SharedStateRegistry 进行状态的注册和过期。 SharedStateRegistry 进行状态的注册和过期。
![pic](./RocksDB002.png) ![pic](https://pan.zeekling.cn/flink/basic/RocksDB002.png)
如上图所示Task 进行了 3 次快照(假设作业设置保留最近 2 次 Checkpoint 如上图所示Task 进行了 3 次快照(假设作业设置保留最近 2 次 Checkpoint
- CP-1RocksDB 产生 sst-1 和 sst-2 两个文件Task 将文件上传至 DFSJM 记录 sst 文件对应的引用计数 - CP-1RocksDB 产生 sst-1 和 sst-2 两个文件Task 将文件上传至 DFSJM 记录 sst 文件对应的引用计数
@ -49,7 +49,7 @@ StateBackend 要更为复杂,在 100+GB 甚至 TB 级别状态下,作业比
flink1.13中引入了State访问的性能监控即latency tracking state、此功能不局限于State Backend的类型自定义实现的State flink1.13中引入了State访问的性能监控即latency tracking state、此功能不局限于State Backend的类型自定义实现的State
Backend也可以复用此功能。 Backend也可以复用此功能。
![pic](./RocksDB003.png) ![pic](https://pan.zeekling.cn/flink/basic/RocksDB003.png)
state访问的性能监控会产生一定的性能影响所以默认每100次做一次抽样sample对不同的state Backend性能损失影响不同。 state访问的性能监控会产生一定的性能影响所以默认每100次做一次抽样sample对不同的state Backend性能损失影响不同。
@ -67,11 +67,11 @@ state访问的性能监控会产生一定的性能影响所以默认每100次
`state.backend.latency-track.state-name-as-variable:true`:将状态名作为变量 `state.backend.latency-track.state-name-as-variable:true`:将状态名作为变量
![pic](./RocksDB004.png) ![pic](https://pan.zeekling.cn/flink/basic/RocksDB004.png)
0代表是任务编号filter.visit-state是定义的状态的变量名。 0代表是任务编号filter.visit-state是定义的状态的变量名。
![pic](./RocksDB005.png) ![pic](https://pan.zeekling.cn/flink/basic/RocksDB005.png)
有很多这种统计值可以查看中位值75分位值等。 有很多这种统计值可以查看中位值75分位值等。

View File

@ -7,7 +7,7 @@
TaskManager的内存模型如下图所示(1.10之后版本内存模型) TaskManager的内存模型如下图所示(1.10之后版本内存模型)
![pic](./taskManager001.png) ![pic](https://pan.zeekling.cn/flink/basic/taskManager001.png)
Flink使用了堆上内存和堆外内存。 Flink使用了堆上内存和堆外内存。
@ -79,7 +79,7 @@ Task执行用户代码所使用的内存。
查看TaskManager内存图如下所示如果内存长时间占用比例过高就需要调整Flink作业内存了。 查看TaskManager内存图如下所示如果内存长时间占用比例过高就需要调整Flink作业内存了。
![pic](./taskmanager002.png) ![pic](https://pan.zeekling.cn/flink/basic/taskmanager002.png)
- 如果未使用RocksDB作为状态后端则可以将管理内存调整为0. - 如果未使用RocksDB作为状态后端则可以将管理内存调整为0.
- 单个TaskManager内存大小为2-8G之间。 - 单个TaskManager内存大小为2-8G之间。

Binary file not shown.

Before

Width:  |  Height:  |  Size: 17 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 27 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 52 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 52 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 63 KiB

View File

@ -14,7 +14,7 @@ consumer的摄入速率。
# TCP-based 反压的弊端 # TCP-based 反压的弊端
![pic](./backpress002.png) ![pic](https://pan.zeekling.cn/flink/basic/backpress002.png)
- 单个Task导致的反压会阻断整个TM-TM之间的socket连checkpoint barries也无法发出。 - 单个Task导致的反压会阻断整个TM-TM之间的socket连checkpoint barries也无法发出。
- 反压传播路径长,导致生效时延较大。 - 反压传播路径长,导致生效时延较大。
@ -28,7 +28,7 @@ backlog size 告诉下游准备发送多少消息,下游就会去计算有多
就会返还给上游一个 Credit 告知他可以发送消息(图上两个 ResultSubPartition 和 InputChannel 之间是虚线是因为最 就会返还给上游一个 Credit 告知他可以发送消息(图上两个 ResultSubPartition 和 InputChannel 之间是虚线是因为最
终还是要通过 Netty 和 Socket 去通信),下面我们看一个具体示例。 终还是要通过 Netty 和 Socket 去通信),下面我们看一个具体示例。
![pic](./backpress001.png) ![pic](https://pan.zeekling.cn/flink/basic/backpress001.png)
假设我们上下游的速度不匹配,上游发送速率为 2下游接收速率为 1可以看到图上在 ResultSubPartition 中累积了两 假设我们上下游的速度不匹配,上游发送速率为 2下游接收速率为 1可以看到图上在 ResultSubPartition 中累积了两
条消息10 和 11 backlog 就为 2这时就会将发送的数据 <8,9> 和 backlog = 2 一同发送给下游。下游收到了之后 条消息10 和 11 backlog 就为 2这时就会将发送的数据 <8,9> 和 backlog = 2 一同发送给下游。下游收到了之后
@ -76,7 +76,7 @@ Flink Web UI 的反压监控提供了 Subtask 级别的反压监控。监控的
TaskManager 上正在运行的所有线程,收集在缓冲区请求中阻塞的线程数(意味着下游阻塞),并计算缓冲区阻塞线程数与 TaskManager 上正在运行的所有线程,收集在缓冲区请求中阻塞的线程数(意味着下游阻塞),并计算缓冲区阻塞线程数与
总线程数的比值 rate。其中rate < 0.1 OK0.1 <= rate <= 0.5 LOWrate > 0.5 为 HIGH。 总线程数的比值 rate。其中rate < 0.1 OK0.1 <= rate <= 0.5 LOWrate > 0.5 为 HIGH。
![pic](./backpress003.png) ![pic](https://pan.zeekling.cn/flink/basic/backpress003.png)
以下两种场景可能导致反压: 以下两种场景可能导致反压:
@ -179,4 +179,3 @@ join时的性能问题也许要和外部组件交互。
2、先攒批在进行读写操作。 2、先攒批在进行读写操作。

Binary file not shown.

Before

Width:  |  Height:  |  Size: 121 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 221 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 38 KiB

View File

@ -6,7 +6,7 @@
数据倾斜就是数据的分布严重不均,流入部分算子的数据明显多余其他算子,造成这部分算子压力过大。 数据倾斜就是数据的分布严重不均,流入部分算子的数据明显多余其他算子,造成这部分算子压力过大。
![pic](./dataSkew0001.png) ![pic](https://pan.zeekling.cn/flink/basic/dataSkew0001.png)
# 影响 # 影响
@ -54,7 +54,7 @@ Flink Web UI 自带Subtask 接收和发送的数据量。当 Subtasks 之间处
解决思路: 通过添加随机前缀,打散 key 的分布,使得数据不会集中在几个 Subtask。 解决思路: 通过添加随机前缀,打散 key 的分布,使得数据不会集中在几个 Subtask。
![pic](./dataSkew0002.png) ![pic](https://pan.zeekling.cn/flink/basic/dataSkew0002.png)
具体措施: 具体措施:
@ -65,7 +65,7 @@ Flink Web UI 自带Subtask 接收和发送的数据量。当 Subtasks 之间处
解决思路:聚合统计前,先进行预聚合,例如两阶段聚合(加盐局部聚合+去盐全局聚合)。 解决思路:聚合统计前,先进行预聚合,例如两阶段聚合(加盐局部聚合+去盐全局聚合)。
![pic](./dataSkew0003.png) ![pic](https://pan.zeekling.cn/flink/basic/dataSkew0003.png)
两阶段聚合的具体措施: 两阶段聚合的具体措施:
① 预聚合:加盐局部聚合,在原来的 key 上加随机的前缀或者后缀。 ① 预聚合:加盐局部聚合,在原来的 key 上加随机的前缀或者后缀。
@ -116,4 +116,3 @@ pv值然后最外层将各个打散的pv求和。
注意最内层的sql给分组的key添加的随机数范围不能太大也不能太小太大的话分的组太多增加checkpoint的 注意最内层的sql给分组的key添加的随机数范围不能太大也不能太小太大的话分的组太多增加checkpoint的
压力,太小的话,起不到打散的作用。 压力,太小的话,起不到打散的作用。

Binary file not shown.

Before

Width:  |  Height:  |  Size: 44 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 105 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 128 KiB

View File

@ -74,7 +74,7 @@ LocalGlobal优化将原先的 Aggregate 分成 Local+Global 两阶段聚合,
LocalGlobal本质上能够靠 LocalAgg 的聚合筛除部分倾斜数据,从而降低 GlobalAgg的热点提升性能。结合下图理解 LocalGlobal本质上能够靠 LocalAgg 的聚合筛除部分倾斜数据,从而降低 GlobalAgg的热点提升性能。结合下图理解
LocalGlobal 如何解决数据倾斜的问题。 LocalGlobal 如何解决数据倾斜的问题。
![pic](./flinksql0001.png) ![pic](https://pan.zeekling.cn/flink/basic/flinksql0001.png)
- 未开启 LocalGlobal 优化,由于流中的数据倾斜, Key 为红色的聚合算子实例需要处理更多的记录,这就导致了热点问题。 - 未开启 LocalGlobal 优化,由于流中的数据倾斜, Key 为红色的聚合算子实例需要处理更多的记录,这就导致了热点问题。
- 开启 LocalGlobal 优化后,先进行本地聚合,再进行全局聚合。可大大减少 GlobalAgg的热点提高性能。 - 开启 LocalGlobal 优化后,先进行本地聚合,再进行全局聚合。可大大减少 GlobalAgg的热点提高性能。
@ -117,7 +117,7 @@ Global 节点仍然存在热点。
从 Flink1.9.0 版本开始,提供了 COUNT DISTINCT 自动打散功能, 通过HASH_CODE(distinct_key) % BUCKET_NUM 打散, 从 Flink1.9.0 版本开始,提供了 COUNT DISTINCT 自动打散功能, 通过HASH_CODE(distinct_key) % BUCKET_NUM 打散,
不需要手动重写。Split Distinct 和LocalGlobal 的原理对比参见下图。 不需要手动重写。Split Distinct 和LocalGlobal 的原理对比参见下图。
![pic](./flinksql0002.png) ![pic](https://pan.zeekling.cn/flink/basic/flinksql0002.png)
Distinct举例 Distinct举例

Binary file not shown.

Before

Width:  |  Height:  |  Size: 110 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 141 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 37 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 133 KiB