上演计算资源“乾坤大挪移” 京东云凭什么打赢春晚红包保卫战?( 三 )


与此同时 , 京东云也针对春晚用户的行为习惯及操作逻辑 , 进行了针对性的全链路优化 。 用户每一次访问操作的资源消耗 , 都被精准地优化、控制在最低限度 。 在此基础上 , 京东云在春晚正式开始前完成了7轮压力测试 , 在模拟场景下检验京东云的准备工作 。
智能化系统分级也功不可没 。 京东云在全面容器化的基础上 , 依托全系统应用的自动化排序分级 , 自动完成非核心应用的占用资源缩容(如网格搜索服务、订单台账查询、APP购物车服务、结算网关、运费系统等上千种应用) , 为核心应用腾挪出足够资源 , 实现在资源一定的前提下 , 满足用户的核心需求 。
在春晚期间 , 京东后端运行的所有项目都被划分为S、A、B、C四个等级 。 与春晚红包链路相关的项目被划分为S级 , 获得了最优先的资源保障权 。 用户账户、交易、支付等核心数据被列为A级 , 仅次于春晚红包链路 。 而其他业务则会在春晚的数小时内临时降级 , 以优先保障春晚项目的运行 。
在云端 , 每一分计算资源被利用到极致;而在线下 , 各类极端黑天鹅事件也被京东云列入预案 。 春节前夕 , 京东云将柴油发电机开到了各个机房 , 并配置了足够支撑12小时的防冻柴油 , 以防临时停电;此外 , 京东云也协调了各个机房园区附近的施工单位 , 尽量避免在春晚期间动工 , 以免挖断光缆等意外出现 。
2022年 , 春晚红包互动进入第8年 。 有了往年的经验教训 , 京东云与央视得以将各类意外情况列入预案之中 。 在京东云内部 , 即便是最简版的预案剧本 , 也有整整61页 , 机房专线中断、CDN过载、短信通道堵塞等极端事件都得到了演练 , 并制定了相关的备用策略 。
按照往年春晚红包项目经验 , 春晚会吸引大量新用户下载、注册、登陆京东App , 应用商店和短信发送通道等供应商也与京东云一同奋战 , 在春晚期间应对流量洪峰 。 以往应用商店宕机、用户收不到登陆注册验证码等现象也并未在今年复现 。
此外 , 京东的物流、供应链团队 , 则完成了春晚项目的最后一重考验 。 今年是京东“春节也送货”的第十年 , 无论是用春晚红包购买的商品 , 还是春晚上领到的好物年货 , 都被及时送货上门 。
打赢春晚保卫战 , 京东云收获了什么?
仅19天备战时间 , 不增添1台物理服务器 , 京东云用最有限的资源 , 完成了一场最具挑战性的技术实践 。 这对于任何一家云计算厂商 , 都意义非凡 。
京东云的成功 , 背后反映的是对技术趋势的前瞻性预判 , 是京东云提前转型云原生架构的全面胜利 。 早在2014年 , 京东云就开始在生产环境内大规模引入容器化架构 。 近年来 , 京东云更是全面转型云原生架构 , 运行着全球范围内最大的Docker及Kubernetes集群 。
上演计算资源“乾坤大挪移”  京东云凭什么打赢春晚红包保卫战?
文章图片
除夕当天参与一线值守的京东云技术人员欢庆圆满完成任务
在云原生时代 , 每一个应用都被约束在独立的容器之中 , 可以随时根据业务场景需要 , 进行动态扩缩容 。 如果将物理服务器比作一艘巨型货轮 , 传统虚拟机相当于货轮内分割出的一个个货仓 , 货物在其中随意摆放 , 空间利用率有限;而容器化则相当于在一个货仓内放置了大量形态各异、大小不一的集装箱 , 后者不仅更适合装运货物 , 也可以更好地塞满货轮 。
与传统虚拟化技术相比 , 容器化的灵活性更强 , 可实现规模化扩展 , 资源利用率也更高 。 在此基础之上 , 京东云将底层基础设施全面标准化 , 并开发了混合多云操作系统云舰 , 可以在秒级时间内 , 完成对计算资源的快速调度 。