CPU|让容器跑得更快:CPU Burst 技术实践( 二 )














【CPU|让容器跑得更快:CPU Burst 技术实践】



























































不提高 CPU 配置的前提下改善 CPU 资源服务质量; 允许资源所有者不牺牲资源服务质量降低 CPU 资源配置 , 提升 CPU 资源利用率; 降低资源成本(TCO , Total Cost of Ownership) 。你看到的 CPU 利用率不是全部真相 秒级 CPU 利用率不能反映 Bandwidth Controller 工作的 100ms 级别 CPU 使用情况 , 是导致非预期 CPU 限流出现的原因 。Bandwidth Controller 适用于 CFS 任务 , 用 period 和 quota 管理 cgroup 的 CPU 时间消耗 。 若 cgroup 的 period 是 100ms quota 是 50ms , cgroup 的进程每 100ms 周期内最多使用 50ms CPU 时间 。 当 100ms 周期的 CPU 使用超过 50ms 时进程会被限流 , cgroup 的 CPU 使用被限制到 50% 。CPU 利用率是一段时间内 CPU 使用的平均 , 以较粗的粒度统计 CPU 的使用需求 , CPU 利用率趋向稳定;当观察的粒度变细 , CPU 使用的突发特征更明显 。 以 1s 粒度和 100ms 粒度同时观测容器负载运行 , 当观测粒度是 1s 时 CPU 利用率的秒级平均在 250% 左右 , 而在 Bandwidth Controller 工作的 100ms 级别观测 CPU 利用率的峰值已经突破 400%。根据秒级观察到的 CPU 利用率 250% 设置容器 quota 和 period 分别为 400ms 和 100ms, 容器进程的细粒度突发被 Bandwidth Controller 限流 , 容器进程的 CPU 使用受到影响 。如何改善 我们用 CPU Burst 技术来满足这种细粒度 CPU 突发需求 , 在传统的 CPU Bandwidth Controller quota 和 period 基础上引入 burst 的概念 。 当容器的 CPU 使用低于 quota 时 , 可用于突发的 burst 资源累积下来;当容器的 CPU 使用超过 quota , 允许使用累积的 burst 资源 。 最终达到的效果是将容器更长时间的平均 CPU 消耗限制在 quota 范围内 , 允许短时间内的 CPU 使用超过其 quota 。如果用 Bandwidth Controller 算法来管理休假 , 假期管理的周期(period)是一年 , 一年里假期的额度是 quota, 有了 CPU Burst 技术之后今年修不完的假期可以放到以后来休了 。在容器场景中使用 CPU Burst 之后 , 测试容器的服务质量显著提升 。 观察到 RT 均值下降 68%(从 30+ms 下降到 9.6ms );99% RT 下降 94.5%(从 500+ms 下降到 27.37ms ) 。CPU Bandwidth Controller 的保证 使用 CPU Bandwidth Controller 可以避免某些进程消耗过多 CPU 时间 , 并确保所有需要 CPU 的进程都拿到足够的 CPU 时间 。 之所以有这样好的稳定性保证 , 是因为当 Bandwidth Controller 设置满足下述情况时 ,有如下的调度稳定性约束: 其中 ,是第 i 个 cgroup 的 quota , 是一个 period 内该 cgroup 的 CPU 需求 。 Bandwidth Controller 对每个周期分别做 CPU 时间统计 , 调度稳定性约束保证在一个 period 内提交的全部任务都能在该周期内处理完;对每个 CPU cgroup 而言 , 这意味着任何时候提交的任务都能在一个 period 内执行完 , 即任务实时性约束: 不管任务优先级如何 , 最坏情况下任务执行时间(WCET Worst-Case Execution Time)不超过一个 period 。假如持续出现 调度器稳定性被打破 , 在每个 period 都有任务积攒下来 , 新提交的作业执行时间不断增加 。使用 CPU Burst 的影响 出于改善服务质量的需要 , 我们使用 CPU Burst 允许突发的 CPU 使用之后 , 对调度器的稳定性产生什么影响?答案是当多个 cgroup 同时突发使用 CPU , 调度器稳定性约束和任务实时性保证有可能被打破 。 这时候两个约束得到保证的概率是关键 , 如果两个约束得到保证的概率很高 , 对大多数周期来任务实时性都得到保证 , 可以放心大胆使用 CPU Burst;如果任务实时性得到保证的概率很低 , 这时候要改善服务质量不能直接使用 CPU Burst , 应该先降低部署密度提高 CPU 资源配置 。于是下一个关心的问题是 , 怎么计算特定场景下两个约束被打破的概率 。评估影响大小 定量计算可以定义成经典的排队论问题 , 并且用蒙特卡洛模拟方法求解 。 定量计算的结果表明 , 判断当前场景是否可以使用 CPU Burst 的主要影响因素是平均 CPU 利用率和 cgroup 数目 。 CPU 利用率越低 , 或者 cgroup 数目越多 , 两个约束越不容易被打破可以放心使用 CPU Burst 。 反之如果 CPU 利用率很高或者 cgroup 数目较少 , 要消除 CPU 限流对进程执行的影响 , 应该降低部署提高配置再使用 CPU Burst 。问题定义是:一共有 m 个 cgroup , 每个 cgroup 的 quota 限制为 1/m , 每个 cgroup 在每个周期产生的计算需求(CPU 利用率)服从某个具体分布 , 这些分布是相互独立的 。 假设任务在每个周期的开始到达 , 如果该周期内的 CPU 需求超过 100% , 当前周期任务 WCET 超过 1 个 period , 超过的部分累积下来和下个周期新产生的 CPU 需求一起在下个需求处理 。 输入是 cgroup 的数目 m 和每个 CPU 需求满足的具体分布 , 输出是每个周期结束 WCETperiod 的概率和 WCET 期望 。以输入的 CPU 需求为帕累托分布、m=10/20/30 的结果为例进行说明 。 选择帕累托分布进行说明的原因是它产生比较多的长尾 CPU 突发使用 , 容易产生较大影响 。 表格中数据项的格式为 其中 越接近 1 越好 ,概率越低越好 。结果跟直觉是吻合的 。 一方面 , CPU 需求(CPU 利用率)越高 , CPU 突发越容易打破稳定性约束 , 造成任务 WCET 期望变长 。 另一方面 , CPU 需求独立分布的 cgroup 数目越多 , 它们同时产生 CPU 突发需求的可能性越低 , 调度器稳定性约束越容易保持 , WCET 的期望越接近 1 个 period 。场景和参数设定 我们设定整个系统存在 m 个 cgroup , 每个 cgroup 公平瓜分总量为 100% 的 CPU 资源 , 即 quota=1/m 。 每个 cgoup 按相同规律(独立同分布)产生计算需求并交给 CPU 执行 。我们参考排队论的模型 , 将每个 cgroup 视为一位顾客 , CPU 即为服务台 , 每位顾客的服务时间受到 quota 的限制 。 为了简化模型 , 我们离散化地定义所有顾客的到达时间间隔为常数 , 然后在该间隔内 CPU 最多能服务 100% 的计算需求 , 这个时间间隔即为一个周期 。然后我们需要定义每位顾客在一个周期内的服务时间 。 我们假定顾客产生的计算需求是独立同分布的 , 其平均值是自身 quota 的 u_avg 倍 。 顾客在每个周期得不到满足的计算需求会一直累积 , 它每个周期向服务台提交的服务时间取决于它自身的计算需求和系统允许的最大 CPU time(即其 quota 加上之前周期累积的 token) 。最后 , CPU Burst 技术中有一项可调参数 buffer , 表示允许累积的 token 上限 。 它决定了每个 cgroup 的瞬时突发能力 , 我们将其大小用 quota 的 b 倍表示 。我们对上述定义的参数作出了如下设置: 负指数分布是排队论模型中最常见、最多被使用的分布之一 。 其密度函数为 其中 帕累托分布是计算机调度系统中比较常见的分布 , 且它能够模拟出较大的延迟长尾 , 从而体现 CPU Burst 的效果 。 其密度函数为: 为了抑制尾部的概率分布使其不至于过于夸张 , 我们设置了: 此时当 u_avg=30% 时可能产生的最大计算需求约为 500% 。数据展示 按上述参数设置进行蒙特卡洛模拟的结果如下所示 。 我们将第一张(WCET 期望)的图表 y 轴进行颠倒来更好地符合直觉 。 同样地 , 第二张图表(WCET 等于 1 的概率)表示调度的实时性得到保证的概率 , 以百分制表示 。负指数分布 帕累托分布 结论 一般来说 , u_avg(计算需求的负荷)越高 , m(cgroup 数量)越少 , WCET 越大 。 前者是显然的结论 , 后者是因为独立同分布情况下任务数量越多 , 整体产生需求越趋于平均 , 超出 quota 需求的任务和低于 quota 从而空出 cpu 时间的任务更容易互补 。提高 buffer 会使得 CPU Burst 发挥更好的效果 , 对单个任务的优化收益更明显;但同时也会增大 WCET , 意味着增加对相邻任务的干扰 。 这也是符合直觉的结论 。在设置 buffer 大小时 , 我们建议根据具体业务场景的计算需求(包括分布和均值)和容器数量 , 以及自身需求来决定 。 如果希望增加整体系统的吞吐量 , 以及在平均负荷不高的情况下优化容器性能 , 可以增大 buffer;反之如果希望保证调度的稳定性和公平性 , 在整体负荷较高的情况下减少容器受到的影响 , 可以适当减小 buffer 。一般而言 , 在低于 70% 平均 CPU 利用率的场景中 , CPU Burst 不会对相邻容器造成较大影响 。模拟工具与使用方法 说完了枯燥的数据和结论 , 接下来介绍可能有许多读者关心的问题:CPU Burst 会不会对我的实际业务场景造成影响?为了解决这个疑惑 , 我们将蒙特卡洛模拟方法所用工具稍加改造 , 从而能帮助大家在自己的实际场景中测试具体的影响~ 工具可以在这里获取:https://codeup.openanolis.cn/codeup/yingyu/cpuburst-simulator 详细的使用说明也附在 README 中了 , 下面让我们看一个具体的例子吧 。 小 A 想在他的服务器上部署 10 台容器用于相同业务 。 为了获取准确的测量数据 , 他先启动了一台容器正常运行业务 , 绑定到名为 cg1 的 cgroup 中 , 不设限流以获取该业务的真实表现 。然后调用 sample.py 进行数据采集:(演示效果只采集了 1000 次 , 实际建议有条件的情况下采集次数越大越好) 这些数据被存储到了./data/cg1_data.npy 中 。 最后输出的提示说明该业务平均占用了约 6.5% 的 CPU , 部署 10 台容器的情况下总的平均 CPU 利用率约为 65% 。 (PS:方差数据同样打印出来作为参考 , 也许方差越大 , 越能从 CPU Burst 中受益哦) 接下来 , 他利用 simu_from_data.py 计算配置 10 个 和 cg1 相同场景的 cgroup 时 , 将 buffer 设置为 200% 的影响: 根据模拟结果 , 开启 CPU Burst 功能对该业务场景下的容器几乎没有负面影响 , 小 A 可以放心使用啦 。想要进一步了解该工具的用法 , 或是出于对理论的兴趣去改变分布查看模拟结果 , 都可以访问上面的仓库链接找到答案~ 关于作者 常怀鑫(一斋) , 阿里云内核组工程师 , 擅长 CPU 调度领域 。丁天琛(鹰羽) , 2021 年加入阿里云内核组 , 目前在调度领域等方面学习研究 。原文链接:http://click.aliyun.com/m/1000313382/ 本文为阿里云原创内容 , 未经允许不得转载 。