Capacity调度器详解
This commit is contained in:
parent
b344e11e16
commit
b18ae2e263
109
yarn/capacity.md
Normal file
109
yarn/capacity.md
Normal file
@ -0,0 +1,109 @@
|
|||||||
|
|
||||||
|
# 简介
|
||||||
|
|
||||||
|
![pic](https://pan.zeekling.cn/zeekling/hadoop/yarn_00002.png)
|
||||||
|
|
||||||
|
# 源码解析
|
||||||
|
|
||||||
|
Capacity 调度器的核心类是CapacityScheduler。在初始化CapacityScheduler的时候,在构造函数initAsyncSchedulingProperties,里面会初始化调度器相关。
|
||||||
|
核心类是AsyncSchedulingConfiguration,主要内容总结为:初始化异步调度器线程AsyncScheduleThread,可以初始化多个,调度支持多线程。
|
||||||
|
|
||||||
|
AsyncScheduleThread继承自Thread,核心是循环调度,调度的核心函数为schedule。
|
||||||
|
|
||||||
|
## schedule函数
|
||||||
|
|
||||||
|
一般情况下,满足下面条件的节点不会被分配资源:
|
||||||
|
- 心跳超时的节点,心跳超时的节点一般认为是可能已经dead了。为了可靠性考虑,不给此类节点分配Container。
|
||||||
|
- 当前节点的状态不为RUNNING状态,不为RUNNING状态的节点是异常的,不能分配节点。
|
||||||
|
|
||||||
|
上述判断的核心实现函数为shouldSkipNodeSchedule。
|
||||||
|
|
||||||
|
## 资源分配方式
|
||||||
|
|
||||||
|
资源分配方式分为:
|
||||||
|
- 按照节点分配资源
|
||||||
|
- 按照标签进行分配
|
||||||
|
|
||||||
|
|
||||||
|
#### 按照节点分配资源
|
||||||
|
|
||||||
|
- 随机产生一个随机数,范围是0 ~ allNode.size。
|
||||||
|
- 优先从下标为[start, end)的节点中分配资源。
|
||||||
|
- 再次从下标为[0, start)的节点中分配资源。
|
||||||
|
|
||||||
|
代码主要流程如下:
|
||||||
|
```java
|
||||||
|
int start = random.nextInt(nodeSize);
|
||||||
|
boolean printSkippedNodeLogging = isPrintSkippedNodeLogging(cs);
|
||||||
|
|
||||||
|
// Allocate containers of node [start, end)
|
||||||
|
for (FiCaSchedulerNode node : nodes) {
|
||||||
|
if (current++ >= start) {
|
||||||
|
if (shouldSkipNodeSchedule(node, cs, printSkippedNodeLogging)) {
|
||||||
|
continue;
|
||||||
|
}
|
||||||
|
cs.allocateContainersToNode(node.getNodeID(), false);
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
current = 0;
|
||||||
|
|
||||||
|
// Allocate containers of node [0, start)
|
||||||
|
for (FiCaSchedulerNode node : nodes) {
|
||||||
|
if (current++ > start) {
|
||||||
|
break;
|
||||||
|
}
|
||||||
|
if (shouldSkipNodeSchedule(node, cs, printSkippedNodeLogging)) {
|
||||||
|
continue;
|
||||||
|
}
|
||||||
|
cs.allocateContainersToNode(node.getNodeID(), false);
|
||||||
|
}
|
||||||
|
```
|
||||||
|
|
||||||
|
#### 按照标签进行分配
|
||||||
|
|
||||||
|
|
||||||
|
- 随机产生一个随机数,范围是0 ~ partitions.size。
|
||||||
|
- 优先从下标为[start, end)的标签中分配资源。
|
||||||
|
- 再次从下标为[0, start)的标签中分配资源。
|
||||||
|
|
||||||
|
|
||||||
|
```java
|
||||||
|
int partitionSize = partitions.size();
|
||||||
|
// First randomize the start point
|
||||||
|
int start = random.nextInt(partitionSize);
|
||||||
|
// Allocate containers of partition [start, end)
|
||||||
|
for (String partition : partitions) {
|
||||||
|
if (current++ >= start) {
|
||||||
|
CandidateNodeSet<FiCaSchedulerNode> candidates =
|
||||||
|
cs.getCandidateNodeSet(partition);
|
||||||
|
if (candidates == null) {
|
||||||
|
continue;
|
||||||
|
}
|
||||||
|
cs.allocateContainersToNode(candidates, false);
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
current = 0;
|
||||||
|
|
||||||
|
// Allocate containers of partition [0, start)
|
||||||
|
for (String partition : partitions) {
|
||||||
|
if (current++ > start) {
|
||||||
|
break;
|
||||||
|
}
|
||||||
|
CandidateNodeSet<FiCaSchedulerNode> candidates =
|
||||||
|
cs.getCandidateNodeSet(partition);
|
||||||
|
if (candidates == null) {
|
||||||
|
continue;
|
||||||
|
}
|
||||||
|
cs.allocateContainersToNode(candidates, false);
|
||||||
|
}
|
||||||
|
```
|
||||||
|
|
||||||
|
## 资源分配具体实现
|
||||||
|
|
||||||
|
资源分配的核心实现函数为allocateContainersToNode。
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
|
Loading…
Reference in New Issue
Block a user