供应链|4小时实现16次资源精准腾挪 京东云成功护航红包互动的背后

“扛住了!扛住了!赢了!”寸步不离紧盯数据大屏的京东备战团队转瞬间一片欢呼雀跃,伴随着零点二十分钟左右最后一轮红包互动的如约而至,京东首次“春晚征程”圆满落下帷幕。
供应链|4小时实现16次资源精准腾挪 京东云成功护航红包互动的背后
文章插图
除夕当天参与一线值守的京东云技术人员欢庆圆满完成任务
【 供应链|4小时实现16次资源精准腾挪 京东云成功护航红包互动的背后】相比过往入局者们争先恐后打响线上流量争夺的狙击战,京东这次可谓克服“流量+履约”的“难上加难”, 不但从容应对了高达数亿峰值的极端并发流量洗礼;还有序肩负起全国“年货春运”中零售和物流等整体供应链履约,妥妥刷新春晚全球最复杂技术场景纪录,堪称绝绝子!
回顾前期筹备的种种时刻,今年的春晚红包互动着实给京东出了一道不小的难题!“此过程中,京东技术体系需要支持红包互动及购物交易场景,两个场景差异性大,峰值频繁往返切换,技术挑战极大;另外除红包互动场景外正值年货节,京东技术体系还需要支持京东的交易、支付、客服、分拣、配送等众多业务场景,链路超长。每一个链路节点的增加,都大幅提升了项目技术系统的复杂度和保障难度。这座极具技术挑战的‘珠穆朗玛’不好攀登!”备战团队成员们纷纷表示。
但令人惊叹的是,仅仅19天,在不增加计算资源且独立支持的情况下,超10000名技术人员基于京东云行云研发效能平台协同作战,凭借早已修炼多年的云原生数字基础设施以及历经多次大规模场景技术锤炼的混合多云操作系统云舰等技术,利用遍布全国的70多座数据中心,为世界级最大规模互动成功搭建了一个超高弹性、高效敏捷的数字底座,成功应对了史上最高网络互动流量高峰与最复杂应用场景。
供应链|4小时实现16次资源精准腾挪 京东云成功护航红包互动的背后
文章插图
奋战在一线的京东云技术人员
4小时互动不断、累计互动量达691亿次、上万名技术人员高效协同、16次秒级精准腾挪、秒级资源顺畅切换……京东云凭啥能成?
供应链|4小时实现16次资源精准腾挪 京东云成功护航红包互动的背后
文章插图
“京东第一次!春晚红包互动,我们可是立了军令状!”
“这是京东第一次独立支持春晚红包互动这么个大项目,一定要打个漂亮仗!“谈起容易做起来却非常难!京东红包项目组技术负责人介绍,“春晚互动项目不仅仅是一个极具挑战性的技术问题,更是一个多部门高效协作的问题,时间紧、任务急、挑战大、涉及人员复杂等问题都是必须要应对的。为此我们在短时间内专门拉通了数十个一级部门,超过一万名以上的研发人员联手作战,实现多个业务系统的有序对接和调优,让整个项目高效协同起来。”备战之初,京东就已形成了完善的备战体系架构:由备战总指挥统一部署,项目备战团队跟进,统一协调横跨零售、科技、物流等多个部门的所有研发团队。
供应链|4小时实现16次资源精准腾挪 京东云成功护航红包互动的背后
文章插图
京东云产品研发部工程师讨论春晚项目
据悉京东技术体系有超3000名技术人员参与了项目的技术攻关与保障工作,除夕当天参与一线值守的技术保障人员就多达2000人。超万名京东人协同作战的背后,是跨度多达一个月的年货节、春晚红包互动等精彩时刻,更重要的是为全国消费者创造了极致体验并带动数十万商家、客户与合作伙伴共同分享了节日盛宴的喜庆祥和。
用“变形金刚”的思维来应对这次的“难上加难”
掐指一算,春晚红包互动已经迈入第七个年头,今年京东云在首次护航虎年春晚中完全告别通过单纯增加服务器资源来攻克高并发的传统操作,凭借更加高效敏捷的资源腾挪调度以及云原生基础设施、混合多云操作系统云舰等技术杀手锏,根据“战场”变化而快速“变身”满足需求,就像变形金刚一样。