双十一|数字化“置身事内”,双11试验场正在治愈行业的精神內耗( 二 )



确定如常
让支付宝就像intel芯片一样 , 成为必需品 , 首先它的“内核能力”要足够稳定、足够确定 。 它服务的商户越来越广、越来越多 , 处理的问题越来越复杂 , 行业和社会对它的信任面逐渐加宽 。 那么怎么训练?怎么成长?怎么盘活自己?
2020年以来 , 电商模式开始走向多元化 , 主播带货成为新形态 , 直播给支付带来分散化的脉冲式需求 。
怎么训练自己应对脉冲不可控?不惜代价 , 先满足商户需求 。 做到之后 , 再考虑降本、保稳、增效 , 再反思与行动 。 迷茫纠结遗憾内耗都是没有用的 , 不如先去做到 。
抖音、快手等平台 , 对于秒杀互动的诉求是很强烈的 。 原来支付宝储备的能力 , 只能服务直播平台的一半左右水平 , 有两种做法可以满足需求 。 第一种是支付宝把自己的能力提升 , 另一种是让主播体验受损一点 。 支付宝最后还是按照第一种方式操作 , 不计成本地满足商户需求 , 提高自己的服务能力 。
一个有生命力的产品提高自己能力的逻辑是这样的:只有好的架构 , 才具备可扩展性 , 有好的扩展性 , 才具备容量的无限增长 。
支付宝做事的原则 , 就是先去做 , 然后不断优化 , 如果这个能力快手等平台需要 , 未来更多行业也会需要 。 它不再追求横向的领先性 , 做头部做老大做第一 , 是远远不够的 , 要有满足客户更新更强更快的要求的能力 。
往年为了支撑好双11 , 支付宝会运用大量的、临时扩容的阿里云的弹性服务器 , 或者各个领域的公有云弹性服务器 , 成本很高 。 今年 , 弹性服务器数量减少了 , 真正做到了低耗能 , 反应却更加灵敏 。 跟去年相比 , 可用率提升了10倍的指标要求 , 支持秒杀也提升了3倍的要求 。
我发现世间万事万物万人 , 其实都是有相通之处 , 到了纷纷扰扰世事变化过快的乌卡(VUCA)阶段 , 人要修养自己 , 低耗能高感性 , 用灵魂盘活自己 , 回归自我 , 回归本质 。 而一个有生命力的普适产品 , 其实也是这个道路 , 低耗能、高感性 , 盘活存量 , 重塑服务体系 。
以前是靠临时借用机器减少成本 , 现在还有更好的办法 , 就能把内部资源盘活 。 具体操作方法是让原本需要借用的比如蚂蚁森林、蚂蚁庄园的机器 , 在保持低水位运转时 , 大促期间供支付宝服务其他平台使用 。
怎么获得这种能力呢?具体的技术叫“在离线混合部署技术”“云原生分时调度”“AI弹性容量”三大技术 。 我比较好奇 , 就专门请教了支付宝负责双11的技术大队长 。 简单来理解 , 就是在每一个应用上要先做混部 , 既要部署蚂蚁森林的代码 , 也要部署支付的代码 。 支付要用的时候 , 就可以马上启动 , 这就是分时调度 。
把蚂蚁内的所有资源 , 刨除业务属性 , 每一台机器什么样的业务都能跑 , 每一个业务都具有可调度性 。 今年蚂蚁实现了大部分业务可以被调度 。 比如 , 有些离线业务 , 一小时不计算完全没有关系 , 这都是可以盘活的资源和空间 。
你会发现 , 存量盘活里的学问、技术、克制、节能、追求 , 更具有生命力和影响力 , 那是实力和定力的体现 。 当人们不再傲慢、野蛮、粗放 , 就会有相反的品质出现 , 平心静气 , 走得更远 。
这个过程说起来似乎简单 , 但做起来也是巨量工程 。 蚂蚁的业务系统有上万个业务组成 , 要把这些系统的耦合性拆开 , 做到随时调度 , 是非常难的 。 处理这么巨量的运用 , 应该在国内外都是比较少见的 , 蚂蚁整体都在修炼内功 , 变得更加沉稳 。