摩托罗拉|双11真的“淡”了吗?( 四 )



而所有这一切 , 再往下深挖 , 则又离不开京东云作为技术底座提供的全方位技术能力 。
从容的底气何在
八十一难的路上 , 离不开那根如意金箍棒 。 双11能有如今的“丝滑” , 谁是双11的那根金箍棒?
10年以上的剁手党应该还记得 , 那些年 , 电商平台发展迅猛 , 商品数量急剧增长 , 用户能买到的东西越来越多 , 但平台很快就遭遇到了“甜蜜的烦恼”——到了618、双11这样的电商大促时 , 流量蜂拥而至 , 网站就出现卡顿甚至崩溃 , 用户体验直线下降 。
虽然电商平台的技术人员不得不疯狂地增加服务器 , 但面对洪水一般的并发访问请求 , 京东的网站却依然捉襟见肘 , 即使上三四倍的服务器也没有用 。 不光如此 , 单纯依靠从外部采购硬件设备 , 不仅费用高 , 当大促结束 , 平日里又往往闲置 , 利用率低 。
在业务的倒逼下 , 大型电商平台开始大力发展云计算业务 。 以京东为例 , 京东自营商品SKU量级已达到百万级别 , 用户增加至月活5亿级 。 作为整个京东的技术底座 , 京东云在618、双11这样的高压环境下一次次地经受住了洪峰一般的考验 , 支撑起万亿级电商交易 , 帮助京东618、双11订单100%上云 , 以及京东物流、京东健康等业务的全量上云 。
用户从外部也能直接感受到云计算技术的运用 , 所带来的购物体验的全方位提升 。
首先是网站IT系统越发稳定 , 下单支付越发顺畅 。 比如 , 今年618 , 京东迎来18周年庆 。 零点刚过 , 京东平台每秒用户访问峰值同比提升了152% , 访问带宽同比提升了185% , 但京东云以超高弹性完全接住了海量并发需求 , 沉稳扛住流量洪峰 。 用户访问、下单无比流畅 , 完全没有任何的卡顿 。
今年双11 , 由于预售、支付尾款的时间全部提前到了晚上8点 , 而且是分布在不同的日子里 , 再加上11.10晚上的最高峰 , 可以说整个大促期间 , 京东云需要抗住一轮又一轮、持续脉冲式的流量洪峰 。 这对系统在持续高压环境下的平稳运行 , 无疑提出了高要求 。 但是 , 幸运的是 , 通过大规模应用平台化、智能化技术 , 京东云在业务错峰调度和平衡系统方面 , 形成了更智能化的数据处理建模能力以及多频次灵活调度能力 , 从容地抗住了持续脉冲式的流量洪峰 , 从而11.11全程保驾护航 , 也确保了用户的购物体验“丝滑” 。


其次是物流配送越来越快 。 以京东11.11为例 , 这是全球最复杂的场景之一 , 不仅包含最长链路的供应链——覆盖近200个产业带商品的线上销售、超1200座仓库的物流周转和超300座城市用户的分钟级配送 , 还有极端复杂的混合IT设施——全球3家云厂商、72座大型数据中心、近百个边缘数据中心、数十万智能物流终端 。
如果没有京东云在如此复杂场景下对京东供应链做支撑 , 京东可能就很难预测吴先生家附近的用户对牛羊肉有怎样的需求 , 接着很难将吴先生前置到他家附近的仓库 , 最后发货地点可能距离吴先生数百公里外的内蒙古呼伦贝尔市或者宁夏盐池县 , 那么他自然就不可能在刚刚下单支付就收到牛羊肉 。
另外 , 客服体验的提升同样离不开云计算技术的支持 。 今年双11期间 , 京东云自主研发的业界首个大规模商用的情感智能交互系统——京东智能客服言犀 , 为用户提供7×24小时智能客服服务 。 目前京东智能客服已涵盖售前、售中、售后、物流等零售的各个服务环节 , 不仅能识别用户发送的文字 , 还能识别图片中的信息 。 自京东11.11启动预售以来 , 今年双11 , 京东智能客服累计咨询服务量超7.4亿次 。