资源|上演计算资源“乾坤大挪移”京东云凭什么打赢春晚红包保卫战?( 三 )


与此同时,京东云也针对春晚用户的行为习惯及操作逻辑,进行了针对性的全链路优化。用户每一次访问操作的资源消耗,都被精准地优化、控制在最低限度。在此基础上,京东云在春晚正式开始前完成了7轮压力测试,在模拟场景下检验京东云的准备工作。
智能化系统分级也功不可没。京东云在全面容器化的基础上,依托全系统应用的自动化排序分级,自动完成非核心应用的占用资源缩容(如网格搜索服务、订单台账查询、APP购物车服务、结算网关、运费系统等上千种应用),为核心应用腾挪出足够资源,实现在资源一定的前提下,满足用户的核心需求。
在春晚期间,京东后端运行的所有项目都被划分为S、A、B、C四个等级。与春晚红包链路相关的项目被划分为S级,获得了最优先的资源保障权。用户账户、交易、支付等核心数据被列为A级,仅次于春晚红包链路。而其他业务则会在春晚的数小时内临时降级,以优先保障春晚项目的运行。
在云端,每一分计算资源被利用到极致;而在线下,各类极端黑天鹅事件也被京东云列入预案。春节前夕,京东云将柴油发电机开到了各个机房,并配置了足够支撑12小时的防冻柴油,以防临时停电;此外,京东云也协调了各个机房园区附近的施工单位,尽量避免在春晚期间动工,以免挖断光缆等意外出现。
2022年,春晚红包互动进入第8年。有了往年的经验教训,京东云与央视得以将各类意外情况列入预案之中。在京东云内部,即便是最简版的预案剧本,也有整整61页,机房专线中断、CDN过载、短信通道堵塞等极端事件都得到了演练,并制定了相关的备用策略。
按照往年春晚红包项目经验,春晚会吸引大量新用户下载、注册、登陆京东App,应用商店和短信发送通道等供应商也与京东云一同奋战,在春晚期间应对流量洪峰。以往应用商店宕机、用户收不到登陆注册验证码等现象也并未在今年复现。
此外,京东的物流、供应链团队,则完成了春晚项目的最后一重考验。今年是京东“春节也送货”的第十年,无论是用春晚红包购买的商品,还是春晚上领到的好物年货,都被及时送货上门。
打赢春晚保卫战,京东云收获了什么?仅19天备战时间,不增添1台物理服务器,京东云用最有限的资源,完成了一场最具挑战性的技术实践。这对于任何一家云计算厂商,都意义非凡。
京东云的成功,背后反映的是对技术趋势的前瞻性预判,是京东云提前转型云原生架构的全面胜利。早在2014年,京东云就开始在生产环境内大规模引入容器化架构。近年来,京东云更是全面转型云原生架构,运行着全球范围内最大的Docker及Kubernetes集群。
资源|上演计算资源“乾坤大挪移”京东云凭什么打赢春晚红包保卫战?
文章插图
除夕当天参与一线值守的京东云技术人员欢庆圆满完成任务
在云原生时代,每一个应用都被约束在独立的容器之中,可以随时根据业务场景需要,进行动态扩缩容。如果将物理服务器比作一艘巨型货轮,传统虚拟机相当于货轮内分割出的一个个货仓,货物在其中随意摆放,空间利用率有限;而容器化则相当于在一个货仓内放置了大量形态各异、大小不一的集装箱,后者不仅更适合装运货物,也可以更好地塞满货轮。
与传统虚拟化技术相比,容器化的灵活性更强,可实现规模化扩展,资源利用率也更高。在此基础之上,京东云将底层基础设施全面标准化,并开发了混合多云操作系统云舰,可以在秒级时间内,完成对计算资源的快速调度。
这些新技术成为了京东云上层应用的坚实支撑。如今,京东云已经打造了一个积木化的技术架构——在前端,基于云原生架构,云计算客户可以根据自己的需求快速拼接出最适合自身需求的产品方案;而在后端,京东云基于混合多云操作系统云舰。可以灵活地调度各类计算资源,高效、灵活、敏捷地满足客户的各类弹性、个性化的需求。