云时代架构读后感

mac2022-06-30  19

通过阅读“支付宝和蚂蚁花呗的技术架构及实践”,了解到一些支付宝和花呗的架构技术,以及所用架构的特性,还有分布式数据架构方面的内容。

双11的意义尤为重大,它已经发展成为全世界电商和消费者都参与进来的盛宴。而对技术人员来说,双十一无疑已经成为一场大考,考量的角度是整体架构、基础中间件、运维工具、人员等。一次成功的大促准备不光是针对活动本身对系统和架构做的优化措施,比如:流量控制,缓存策略,依赖管控,性能优化……更是与长时间的技术积累和打磨分不开。

通过阅读这篇文章,我了解到支付宝所用的架构平台分为三层:

(1)运维平台(IAAS):主要提供基础资源的可伸缩性,比如网络、存储、数据库、虚拟化、IDC等,保证底层系统平台的稳定性;

(2)技术平台(PAAS):主要提供可伸缩、高可用的分布式事务处理和服务计算能力,能够做到弹性资源的分配和访问控制,提供一套基础的中间件运行环境,屏蔽底层资源的复杂性;

(3)业务平台(SAAS):提供随时随地高可用的支付服务,并且提供一个安全易用的开放支付应用开发平台。

   在双十一大促当天,支付宝面临的考验越来越大,因此提出了逻辑数据中心架构,核心思想是把数据水平拆分的思路向上层提到接入层、终端, 从接入层开始把系统分成多个单元,单元有几个特性:

(1)每个单元对外是封闭的,包括系统间交换各类存储的访问;

(2)每个单元的实时数据是独立的,不共享。而会员或配置类对延时性要求不高的数据可共享;

(3)单元之间的通信统一管控,尽量走异步化消息。同步消息走单元代理方案;

这套架构解决了几个关键问题:

(1)由于尽量减少了跨单元交互和使用异步化,使得异地部署成为可能。整个系统的水平可伸缩性大大提高,不再依赖同城IDC;

(2)可以实现N+1的异地灾备策略,大大缩减灾备成本,同时确保灾备设施真实可用;

(3)整个系统已无单点存在,大大提升了整体的高可用性;同城和异地部署的多个单元可用作互备的容灾设施,通过运维管控平台进行快速切换,有机会实现100%的持续可用率;

(4)该架构下业务级别的流量入口和出口形成了统一的可管控、可路由的控制点,整体系统的可管控能力得到很大提升。基于该架构,线上压测、流量管控、灰度发布等以前难以实现的运维管控模式,现在能够十分轻松地实现。

目前新架构的同城主体框架在2013年已经完成,并且顺利的面对了双十一的考验,让整套架构的落地工作得到了很好的证明。

现在支付宝的数据架构已经从集中式的小型机和高端存储升级到了分布式PC服务解决方案,整体数据架构的解决方案尽量做到无厂商依赖,并且标准化。支付宝分布式数据架构可伸缩策略主要分为三个维度:(1)按照业务类型进行垂直划分(2)按照客户请求进行水平拆分(3)对于读远远大于写的数据进行读写分离和数据复制处理。

蚂蚁花呗是今年新增加的新支付工具,支撑蚂蚁花呗业务发展的技术体系经过不断演进、已经完全依托于蚂蚁金服的金融云架构。经过这么多年的高可用架构和大促的准备工作,蚂蚁金融技术团队可以做到“先胜而后求战”,主要分为三方面技术积累:“谋”,“器”,“将”。

过去我们是通过某个开源或者商业组件来实现技术共享得到快速解决谋发展技术的能力的,但是随着业务复杂性,专业性,规模的逐步变大,这种方式的缺点也是显而易见的:(1)很多组件根本无法满足大并发场景下的各种技术指标;(2)随着业务的复杂和专业性的提高,没有可以直接使用的开源组件;(3)“人”本身的经验和能力是无法传递的。所以现在我们通过“云”分享的技术和业务的能力的方式也发展的越来越快。

在当前大数据时代,目前从业务和市场的发展形势来看,往往就是需要技术在某个特定时间有个质的能力的提升和飞跃,不会给你太多的准备技术架构提升的时间,在技术积累和人员储备都不足的时候,如何构建平台能力,把更多的精力放在业务相关的开发任务中,是每个技术团队的希望得到的能力 。

转载于:https://www.cnblogs.com/t1314/p/11054493.html

相关资源:JAVA上百实例源码以及开源项目
最新回复(0)