作者简介:
李海翔,网名“那海蓝蓝”,腾讯金融云数据库技术专家。中国人民大学信息学院工程硕士企业导师。著有《数据库事务处理的艺术:事务管理和并发访问控制》、《数据库查询优化器的艺术:原理解析与SQL性能优化》、《大数据管理》。
2019年10月11日至13日,CCF数据库专委会在济南召开了国内规模最大的、每年一度的数据库学术盛会——第36届CCF中国数据库学术会议(NDBC 2019),腾讯TDSQL团队受邀在“数据库产学研合作论坛”,做了主题为“TDSQL对未来分布式数据库的技术研发思考与实践”的技术报告,与国内数据库学界与业界核心技术人员共同探讨国产数据库面临的基础问题和技术发展方向,助力推动我国数据库技术自主可控发展。
与此同时,本次会上,腾讯云数据库技术专家、金融级分布式数据库TDSQL团队专家工程师、中国人民大学信息学院工程硕士企业导师李海翔,当选成为了中国计算机学会(CCF)数据库专委会委员。未来,腾讯将加大投入,促进我国数据库产学研合作,推进数据库技术自主可控发展。
作为致力于基础技术研发的科技公司,本次NDBC 2019会议,腾讯TDSQL团队带来了TDSQL对分布式数据库技术研发的深度思考与实践分享,期待能抛砖引玉,引发更多思考。主要包括三个方面:
1) 分布式事务的效率与正确性,如何在保证双一致性(事务一致性、分布式一致性)的前提下,提高分布式事务型集群的处理效率?
2) 新硬件和AI等技术,在云环境下,如何影响着数据库的架构?
3)数据库各个模块间是否能解耦以降低研发的复杂度,同时缩短研发人才的培养周期?
TDSQL是腾讯打造的金融级分布式数据库,对内支撑腾讯公司近90%的金融、交易、计费类业务。2007年,随着公司业务再一次腾飞,TDSQL团队启动了一个724高可用服务项目,以保障腾讯计费等公司级别敏感业务高可用、核心数据零丢失、核心交易零错账。这也是TDSQL的前身。
然而,考虑到当时选用的技术方案,技术层与业务层耦合较深。于是,腾讯技术团队开始了研发一款金融级数据库的项目。实现让数据库来解决高可用、数据一致性、水平伸缩等问题,而让业务系统只需要关注业务逻辑。2012年,标准化的金融级分布式关系型数据库产品TDSQL研发完成,并在腾讯内部大规模推广使用。
十多年研发演进中,TDSQL在高可用、分布式方面做持续优化,同时不断提高性能,具备全球部署架构、水平伸缩、企业级安全等特性。
例如,2018年,TDSQL实现了原创性提出的全面地解决读一致性的算法,使得分布式事务的一致性和分布式系统的一致性统一在一起。同年,在业界颇为头疼的云数据库运维问题上,TDSQL还提供了两大利器:“赤兔”运营管理平台和“扁鹊”智能DBA诊断系统。
从2014年开始,TDSQL通过腾讯金融云平台对外开放。目前TDSQL已经为500+机构提供数据库的公有云及专有云服务,客户覆盖计费、第三方支付、银行、保险、互联网金融、物联网、互联网+、政务等领域,助力客户业务从国际数据库切换为自主可控的分布式数据库。
今年,腾讯云TDSQL助力张家港行成功将银行传统核心系统由集中式数据库存储改造为分布式数据库存储,这是在国内银行首次在传统核心业务系统场景下,采用国产分布式数据库,打破了该领域对国外数据库的长期依赖。
首先,我们分享一下TDSQL在实现“双一致性(事务一致性、分布式一致性)”,并提高分布式事务型集群的处理效率的探索实践。
众所周知,数据库是一个高并发系统,所有的操作通过事务的语义加以约束。而事务的语义,表现为事务的四个特性——ACID:原子性(A)、一致性(C)、隔离性(I)、持久性(D)。而一个数据库系统,其最核心的技术,就是事务处理技术。为了保障ACID,数据库使用了多种复杂技术,其中,技术的核心是并发访问控制算法。
事务处理技术,有两个初衷:一是数据正确性,二是并发高效率。TDSQL的分布式事务处理模型,经历了2代,第一代采用的技术是2PL+MVCC,第二代采用的是OCC+2PL+MVCC。OCC技术融合了2PL以解决高冲突不能高效率的问题,OCC融合了MVCC消除了读写、写读互相阻塞的并发问题进一步提高了性能,自适应的OCC使得在OCC和2PL间动态自动切换,使得分布式事务处理机制更聪明。
但是,这些还不足以体现TDSQL如何着手提高分布式事务的效率。在架构上,TDSQL是去中心化的架构,没有集中式单Master那样的处理分布式事务的单点瓶颈,事务协调器间传递相关联的分布式事务控制信息量被优化,分布式并发访问控制算法的冲突粒度控制在数据项一级从而提高了事务的并发度,因而效率更高。另外还有很多其他方面的优化,使得TDSQL的分布式事务处理效率较高。
而我们继续探讨,如图1,在分布式背景下,怎么实现“双一致性(事务一致性、分布式一致性),并提高分布式事务型集群的处理效率?”
图1实现分布式事务面临的问题
该问题,是业界一个难题。Google的Spanner系统实现了双一致,但事务处理的效率很低。TDSQL在深入研究分布式事务处理的技术时,不仅解决了全局一致性问题(2019DTCC大会分享:分布式数据库全局读一致性),而且提出了一个“统一致性模型”,不仅在正确性上实现了双一致的功能,而且高效地解决了该问题。
在TDSQL看来,双一致性的正确性相对容易实现(尽管这也是一个很难解决的问题),但分布式事务型数据库的性能难以有效提高。
那么,有哪些因素,制约着分布式事务型数据库性能的提高呢?
如图2,一些研究者认为,是网络带宽限制了性能;一些研究者认为,制约分布式事务型数据库性能的提高有2个因素,一是“latency”本身,二是“latency”延长了事务的生命周期,而长的事务生命周期导致并发事务发生冲突的概率增大,进而引发事务回滚降低了性能。
图2 分布式事务的瓶颈
另外,影响正确性和性能的,是事务处理技术中的核心技术——并发访问控制算法。
如图3所示,实验表明,在事务型数据库中,OCC算法效率更高,在多核环境下,OCC算法比2PL算法性能高出170倍。但是,高的并发冲突下,OCC的回滚率增加,表明OCC算法的缺点也很明显。
图3 并发访问控制算法的优劣
但是,还有研究者对于多种并发访问控制算法进行了较验证,如图4,发现传统的OCC算法比很多种知名的改进的OCC算法(如知名的Tictoc、自适应的OCC等算法)更有效。这表明,不同人实现的不同的系统尽管采用了一样的算法思路,但是实际效果却大不相同(如Tictoc自身的测试结果表明其改进的OCC算法效率好于传统的OCC算法)。所以,我们在思考,不同实验得到不同的结论,其背后,真的影响分布式事务的效率的因素究竟是什么?
图4 多种并发访问控制算法的比较之一
进一步探讨,如图5所示,不同研究者表明,自适应的OCC(OCC+2PL),有着更好的性能(图5中间的子图)。综合图3、图4和图5,其实可以发现,不同的研究者的验证结果,是不能互相推证的,他们的验证结果,只能表明算法之间的大致趋势(如OCC性能会比2PL更好一些)差异,但不能精确表明算法之间的差异点究竟在哪里。
图5多种并发访问控制算法的比较之二
再对比图6,腾讯在MySQL上做了热点更新功能,发现在高并发高竞争同一个数据项的情况下,影响MySQL性能的,不是2PL这个算法本身,而是为解决死锁问题时死锁检测算法消耗的CPU资源,故MySQL的事务吞吐量近乎为0。禁止了死锁检测后,并用系统锁(非事务锁)互斥了在同一个数据项上的并发竞争后,MySQL系统事务处理吞吐量上升的万倍左右。
图6 真实系统下的真实问题
这说明了,在不同系统下实现的相同算法的结果,只具有参考价值。如果在实际系统中,如MySQL、PostgreSQL中做实现,才更有实际参考意义。
TDSQL团队在研发分布式事务型数据库的过程中,除了思考分布式事务处理技术(ACID实现的所有技术)外,还深度探索测试验证、架构扩展、模块解耦等等各种重要的问题。
新硬件和AI等技术,在云环境下,如何影响着数据库的架构?
数据库各个模块间是否能解耦以降低研发的复杂度,同时缩短研发人才的培养周期?
新硬件和AI等技术,从架构上深深地影响了传统的数据库,这表现在如何融合这些新技术:
首先,数据库可能会“增加”很多新模块进去,如图7中的左下子图,AI调优数据库技术使得数据库系统被扩展了,增加了很多新组件进来。
其次,数据库的传统模块会被改变,如图8中的左下子图,在并行的事务型数据库系统中,提出基于AI技术对事务进行优化的模型。该模型采取存储过程的方式(此点类似H-Store、VoltDB),向数据库引擎提前提供所执行的事务,然后利用AI技术(Markov model,马尔可夫模型)对存储过程进行分析,确定那些存储过程所代表的事务间的语义,排定事务并发执行时哪些是互相冲突的,得到一个有固定结构的事务执行模型,如图8左下子图中右侧,是对TPC-C模型NewOrder进行的分析得到的事务调度图。
当多个Client发出SQL语句执行存储过程代表的并发事务时,据此模型即能推断事务的调度方式。这是AI技术改变事务处理中并发访问控制模块的一个典型事例。
图8中的右上子图,是RDMA对于事务处理技术的影响,该图展示了四种模型,其中“d”模型是基于RDMA从2个方面对事务处理构成影响,一是事务处理的控制流,二是事务执行过程中发生的数据流。影响分布式事务处理效率的,不仅仅是庞大的数据流,而相对数据量小的控制流,也是瓶颈,因此需要引入RDMA来加以解决网络带宽瓶颈。
图7 数据库架构发生变化
图8 数据库中的模块发生变化
传统的数据库系统,其复杂度极高,从外看高内聚,从内看高耦合,这使得数据库的复杂度骤然提升。当各种新技术产生,影响了数据库的架构时,数据库的复杂性被再提上一个台阶。在这种背景下,研发人才的培育,其成长周期就会更长。因此,我们在思考的一个问题是:从技术上看,如何解耦数据库内部间的诸多模块?耦合度高,研发人员需要掌握数个相关模块才能良好推进工作;如果模块间解耦较好,掌握单个模块就能方便推进工作,这样人才的培育周期相应也会缩短,软件的质量也会得到提高。
所以,数据库架构背景下各个模块解耦问题,是一个技术问题。解耦工作,可以在许多层次、许多模块间展开。解耦技术,各有其妙。
如图7右上子图所示,AWS的Aurora提出的存储计算分离,就是存储和计算两大模块的解耦。而微软Deuteronomy系统在08年-16年也有过一系列相关工作。Deuteronomy一开始采用的方案是在存储层上面实现事务,而底层的存储采用的是KV模型。存储层只需要提供KV的原子性和幂等性,上层就可以比较容易实现事务的并发访问控制和恢复。后来的Percolator、Spanner/F1、CockroachDB、TiDB其实也是沿着这个思路在发展,底层是Bigtable/Spanner或者RocksDB这样的KV存储引擎,在存储之上封装一层事务。但是在类似RocksDB这样的KV存储中,对于KV记录的并发控制还是和存储紧耦合的。
存储和计算两大模块的解耦,促进了各自所囊括的子模块之间再次进行解耦,如图9所示,事务和存储层的解耦,该怎么进行?有的研究者,把事务处理功能提取到客户端进行(图9左子图),有的把事务处理功能放到中间件层实行按(图9中间子图),这2种方式不同于传统的在Server端进行事务处理(图9的右子图)。
图9 事务和存储层解耦
另外,解耦工作,其实无处不在。图10展示了算法与数据结构之间的解耦。图10的左子图,是数据库的持久化部分和内存中数据之间的设计解耦。图10的右子图,是索引的数据结构与物理存储层之间的解耦。
图10的左子图,对应VLDB 2018的论文"FineLine: Log-structured Transactional Storage and Recovery",提出了一种事务存储和恢复机制FineLine,舍弃了传统的WAL,把所有需要持久化的数据存储到一个单一的数据结构,希望将数据库的持久化部分和内存中数据存储之间达到设计解耦。
FineLine无需将内存中数据落盘到DB,仅将内存中的log信息持久化到Indexed log中,然后通过fetch操作从Indexed log读取到数据的最新状态。通过将内存中的数据结构与其持久性表示尽量地解耦,消除了与传统基于磁盘的RDBMS相关的许多开销。除此之外,这种单一的持久化存储架构带来的另一个好处是,在系统发生故障后恢复的开销很低。由于Indexed log保持了与原子操作的一致性,当发生故障并重启时,可以从Indexed log中读取到已提交的最新数据记录。基于no-steal的策略,Undo操作,Checkpoint这些也都不需要。
图10 计算与数据结构之间的解耦
数据库内部,各个模块之间的解耦,与模块粒度的划分,与具体实现的系统,都有密切关系。如图11展示了几个主流数据库之间解耦的关系,期待能抛砖引玉,引发更多思考。
图11 主流数据库解耦的比较
数据库作为核心基础技术之一,在自主可控的时代发展潮流下,是我们必将要跨过的大山。路虽弥,不行则不至,历经十数年的研发演进,至少今天我们都已达成了许多重要的里程碑。当下而言,国产数据库从技术、人才、工业生态等各方面,都有待完善和发展,而未来更紧密的产学研结合、科技与传统产业融合趋势下,将进一步促进数据库自主可控发展。*
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。