|
|
|
|
公众号矩阵

进来抄作业:一次完美的分库分表实践!

几年前我曾经服务过的一家电商公司,随着业务增长我们每天的订单量很快从 30 万单增长到了 100 万单,订单总量也突破了一亿。

作者:二马读书来源:二马读书|2020-12-29 09:23

图片来自 Pexels

当时用的 MySQL 数据库。根据监控,我们的每秒最高订单量已经达到了 2000 笔(不包括秒杀,秒杀 TPS 已经上万了。秒杀我们有一套专门的解决方案,详见《秒杀系统设计~亿级用户》)。

不过,直到此时,订单系统还是单库单表,幸好当时数据库服务器配置不错,我们的系统才能撑住这么大的压力。

业务量还在快速增长,再不重构系统早晚出大事,我们花了一天时间快速制定了重构方案。

重构?说这么高大上,不就是分库分表吗?的确,就是分库分表。不过除了分库分表,还包括管理端的解决方案,比如运营,客服和商务需要从多维度查询订单数据,分库分表后,怎么满足大家的需求?

分库分表后,上线方案和数据不停机迁移方案都需要慎重考虑。为了保证系统稳定,还需要考虑相应的降级方案。

为什么要分库分表?

当数据库产生性能瓶颈:IO 瓶颈或 CPU 瓶颈。两种瓶颈最终都会导致数据库的活跃连接数增加,进而达到数据库可承受的最大活跃连接数阈值。

终会导致应用服务无连接可用,造成灾难性后果。可以先从代码,SQL,索引几方面进行优化。如果这几方面已经没有太多优化的余地,就该考虑分库分表了。

IO 瓶颈

第一种:磁盘读 IO 瓶颈。

由于热点数据太多,数据库缓存完全放不下,查询时会产生大量的磁盘 IO,查询速度会比较慢,这样会导致产生大量活跃连接,最终可能会发展成无连接可用的后果。

可以采用一主多从,读写分离的方案,用多个从库分摊查询流量。或者采用分库+水平分表(把一张表的数据拆成多张表来存放,比如订单表可以按 user_id 来拆分)的方案。

第二种:磁盘写 IO 瓶颈。

由于数据库写入频繁,会产生频繁的磁盘写入 IO 操作,频繁的磁盘 IO 操作导致产生大量活跃连接,最终同样会发展成无连接可用的后果。

这时只能采用分库方案,用多个库来分摊写入压力。再加上水平分表的策略,分表后,单表存储的数据量会更小,插入数据时索引查找和更新的成本会更低,插入速度自然会更快。

CPU 瓶颈

SQL 问题:如果 SQL 中包含 join,group by,order by,非索引字段条件查询等增加 CPU 运算的操作,会对 CPU 产生明显的压力。

这时可以考虑 SQL 优化,创建适当的索引,也可以把一些计算量大的SQL逻辑放到应用中处理。

单表数据量太大:由于单张表数据量过大,比如超过一亿,查询时遍历树的层次太深或者扫描的行太多,SQL 效率会很低,也会非常消耗 CPU。这时可以根据业务场景水平分表。

分库分表方案

分库分表主要有两种方案:

①利用 MyCat,KingShard 这种代理中间件分库分表。

好处是和业务代码耦合度很低,只需做一些配置即可,接入成本低。缺点是这种代理中间件需要单独部署,所以从调用连路上又多了一层。

而且分库分表逻辑完全由代理中间件管理,对于程序员完全是黑盒,一旦代理本身出问题(比如出错或宕机),会导致无法查询和存储相关业务数据,引发灾难性的后果。

如果不熟悉代理中间件源码,排查问题会非常困难。曾经有公司使用 MyCat,线上发生故障后,被迫修改方案,三天三夜才恢复系统。CTO 也废了!

②利用 Sharding-Jdbc,TSharding 等以 Jar 包形式呈现的轻量级组件分库分表。

缺点是,会有一定的代码开发工作量,对业务有一些侵入性。好处是对程序员透明,程序员对分库分表逻辑的把控会更强,一旦发生故障,排查问题会比较容易。

稳妥起见,我们选用了第二种方案,使用更轻量级的 Sharding-Jdbc。

做系统重构前,我们首先要确定重构的目标,其次要对未来业务的发展有一个预期。这个可以找相关业务负责人了解,根据目标和业务预期来确定重构方案。

例如,我们希望经过本次重构,系统能支撑两年,两年内不再大改。业务方预期两年内日单量达到 1000 万,相当于两年后日订单量要翻 10 倍。

根据上面的数据,我们分成了 16 个数据库。按日订单量 1000 万来算,每个库平均的日订单量就是 62.5 万(1000 万/16),每秒最高订单量理论上在 1250 左右( 2000*(62.5/100) )。

这样数据库的压力基本上是可控的,而且基本不会浪费服务器资源。

每个库分了 16 张表,即便按照每天 1000 万的订单量,两年总单量是 73 亿(73 亿=1000 万*365*2),每个库的数据量平均是 4.56 亿(4.56 亿=73 亿/16),每张表的数据量平均是 2850 万(2850 万=4.56 亿/16)。

可以看到未来两到三年每张表的数据量也不算多,完全在可控范围。

分库分表主要是为了用户端下单和查询使用,按 user_id 的查询频率最高,其次是 order_id。

所以我们选择 user_id 做为 sharding column,按 user_id 做 hash,将相同用户的订单数据存储到同一个数据库的同一张表中。

这样用户在网页或者 App 上查询订单时只需要路由到一张表就可以获取用户的所有订单了,这样就保证了查询性能。

另外我们在订单 ID(order_id)里掺杂了用户 ID(user_id)信息。

简单来说,order_id 的设计思路就是,将 order_id 分为前后两部分,前面的部分是 user_id,后面的部分是具体的订单编号,两部分组合在一起就构成了 order_id。

这样我们很容易从 order_id 解析出 user_id。通过 order_id 查询订单时,先从 order_id 中解析出 user_id,然后就可以根据 user_id 路由到具体的库表了。

另外,数据库分成 16 个,每个库分 16 张表还有一个好处。16 是 2 的 N 次幂,所以 hash 值对 16 取模的结果与 hash 值和 16 按位“与运算”的结果是一样的。

我们知道位运算基于二进制,跨过各种编译和转化直接到最底层的机器语言,效率自然远高于取模运算。

有读者可能会问,查询直接查数据库,会不会有性能问题?是的。所以我们在上层加了 Redis,Redis 做了分片集群,用于存储活跃用户最近 50 条订单。

这样一来,只有少部分在 Redis 查不到订单的用户请求才会到数据库查询订单,这样就减小了数据库查询压力,而且每个分库还有两个从库,查询操作只走从库,进一步分摊了每个分库的压力。

有读者可能还会问,为什么没采用一致性 hash 方案?用户查询最近 50 条之前的订单怎么办?请继续往后看!

管理端技术方案

分库分表后,不同用户的订单数据散落在不同的库和表中,如果需要根据用户 ID 之外的其他条件查询订单。

例如,运营同学想从后台查出某天 iphone7 的订单量,就需要从所有数据库的表中查出数据然后在聚合到一起。

这样代码实现非常复杂,而且查询性能也会很差。所以我们需要一种更好的方案来解决这个问题。

我们采用了 ES(ElasticSearch)+HBase 组合的方案,将索引与数据存储隔离。

可能参与条件检索的字段都会在 ES 中建一份索引,例如商家,商品名称,订单日期等。所有订单数据全量保存到 HBase 中。

我们知道 HBase 支持海量存储,而且根据 Rowkey 查询速度超快。而 ES 的多条件检索能力非常强大。可以说,这个方案把 ES 和 HBase 的优点发挥地淋漓尽致。

看一下该方案的查询过程:先根据输入条件去 ES 相应的索引上查询符合条件的 Rowkey 值,然后用 Rowkey 值去 HBase 查询,后面这一步查询速度极快,查询时间几乎可以忽略不计。

如下图:

该方案,解决了管理端通过各种字段条件查询订单的业务需求,同时也解决了商家端按商家 ID 和其他条件查询订单的需求。如果用户希望查询最近 50 条订单之前的历史订单,也同样可以用这个方案。

每天产生数百万的订单数据,如果管理后台想查到最新的订单数据,就需要频繁更新 ES 索引。在海量订单数据的场景下,索引频繁更新会不会对 ES 产生太大压力?

ES 索引有一个 segment(片段)的概念。ES 把每个索引分成若干个较小的 segment 片段。

每一个 segement 都是一个完整的倒排索引,在搜索查询时会依次扫描相关索引的所有 segment。

每次 refresh(刷新索引) 的时候,都会生成一个新的 segement,因此 segment 实际上记录了索引的一组变化值。由于每次索引刷新只涉及个别 segement 片段,更新索引的成本就很低了。

所以,即便默认的索引刷新(refresh)间隔只有 1 秒钟,ES 也能从容应对。

不过,由于每个 segement 的存储和扫描都需要占用一定的内存和 CPU 等资源,因此 ES 后台进程需要不断的进行 segement 合并来减少 segement 的数量,从而提升扫描效率以及降低资源消耗。

MySQL 中的订单数据需要实时同步到 Hbase 和 ES 中,那么同步方案是什么?

我们利用 Canal 实时获取 MySQL 库表中的增量订单数据,然后把订单数据推到消息队列 RocketMQ 中,消费端获取消息后把数据写到 Hbase,并在 ES 更新索引。

上面是 Canal 的原理图:

  • Canal 模拟 mysql slave 的交互协议,把自己伪装成 mysql 的从库。
  • 向 mysql master 发送 dump 协议。
  • mysql master 收到 dump 协议,发送 binary log 给 slave(Canal)。
  • Canal 解析 binary log 字节流对象,根据应用场景对 binary log 字节流做相应的处理。

为了保证数据一致性,不丢失数据。我们使用了 RocketMQ 的事务型消息,保证消息一定能成功发送。另外,在 Hbase 和 ES 都操作成功后才做 ack 操作,保证消息正常消费。

不停机数据迁移

在互联网行业,很多系统的访问量很高,即便在凌晨两三点也有一定的访问量。由于数据迁移导致服务暂停,是很难被业务方接受的!下面就聊一下在用户无感知的前提下,我们的不停机数据迁移方案!

数据迁移过程我们要注意哪些关键点呢?

  • 保证迁移后数据准确不丢失,即每条记录准确而且不丢失记录。
  • 不影响用户体验,尤其是访问量高的 C 端业务需要不停机平滑迁移。
  • 保证迁移后的系统性能和稳定性。

常用的数据迁移方案主要包括:挂从库,双写以及利用数据同步工具三种方案,下面分别做一下介绍。

挂从库

在主库上建一个从库。从库数据同步完成后,将从库升级成主库(新库),再将流量切到新库。

这种方式适合表结构不变,而且空闲时间段流量很低,允许停机迁移的场景。一般发生在平台迁移的场景,如从机房迁移到云平台,从一个云平台迁移到另一个云平台。

大部分中小型互联网系统,空闲时段访问量很低。在空闲时段,几分钟的停机时间,对用户影响很小,业务方是可以接受的。

所以我们可以采用停机迁移的方案,步骤如下:

  • 新建从库(新数据库),数据开始从主库向从库同步。
  • 数据同步完成后,找一个空闲时间段。为了保证主从数据库数据一致,需要先停掉服务,然后再把从库升级为主库。
  • 如果访问数据库用的是域名,直接解析域名到新数据库(从库升级成的主库),如果访问数据库用的是 IP,将 IP 改成新数据库 IP。

最后启动服务,整个迁移过程完成。

这种迁移方案的优势是迁移成本低,迁移周期短。缺点是,切换数据库过程需要停止服务。

我们的并发量比较高,而且又做了分库分表,表结构也变了,所以不能采取这种方案!

双写

老库和新库同时写入,然后将老数据批量迁移到新库,最后流量切换到新库并关闭老库读写。

这种方式适合数据结构发生变化,不允许停机迁移的场景。一般发生在系统重构时,表结构发生变化,如表结构改变或者分库分表等场景。

有些大型互联网系统,平常并发量很高,即便是空闲时段也有相当的访问量。几分钟的停机时间,对用户也会有明显的影响,甚至导致一定的用户流失,这对业务方来说是无法接受的。

所以我们需要考虑一种用户无感知的不停机迁移方案,聊一下我们的具体迁移方案,步骤如下:

①代码准备。在服务层对订单表进行增删改的地方,要同时操作新库(分库分表后的数据库表)和老库,需要修改相应的代码(同时写新库和老库)。

准备迁移程序脚本,用于做老数据迁移。准备校验程序脚本,用于校验新库和老库的数据是否一致。

②开启双写,老库和新库同时写入。

注意:

  • 任何对数据库的增删改都要双写;对于更新操作,如果新库没有相关记录,需要先从老库查出记录,将更新后的记录写入新库。
  • 为了保证写入性能,老库写完后,可以采用消息队列异步写入新库。

③利用脚本程序,将某一时间戳之前的老数据迁移到新库。

注意:

  • 时间戳一定要选择开启双写后的时间点,比如开启双写后 10 分钟的时间点,避免部分老数据被漏掉。
  • 迁移过程遇到记录冲突直接忽略,因为第 2 步的更新操作,已经把记录拉到了新库。
  • 迁移过程一定要记录日志,尤其是错误日志,如果有双写失败的情况,我们可以通过日志恢复数据,以此来保证新老库的数据一致。

④第 3 步完成后,我们还需要通过脚本程序检验数据,看新库数据是否准确以及有没有漏掉的数据。

⑤数据校验没问题后,开启双读,起初给新库放少部分流量,新库和老库同时读取。

由于延时问题,新库和老库可能会有少量数据记录不一致的情况,所以新库读不到时需要再读一遍老库。

⑥然后再逐步将读流量切到新库,相当于灰度上线的过程。遇到问题可以及时把流量切回老库。

⑦读流量全部切到新库后,关闭老库写入(可以在代码里加上热配置开关),只写新库。

⑧迁移完成,后续可以去掉双写双读相关无用代码。


利用数据同步工具

我们可以看到上面双写的方案比较麻烦,很多数据库写入的地方都需要修改代码。有没有更好的方案呢?

我们还可以利用 Canal,DataBus 等工具做数据同步。以阿里开源的 Canal 为例。

利用同步工具,就不需要开启双写了,服务层也不需要编写双写的代码,直接用 Canal 做增量数据同步即可。

相应的步骤就变成了:

①代码准备。准备 Canal 代码,解析 binary log 字节流对象,并把解析好的订单数据写入新库。

准备迁移程序脚本,用于做老数据迁移。准备校验程序脚本,用于校验新库和老库的数据是否一致。

②运行 Canal 代码,开始增量数据(线上产生的新数据)从老库到新库的同步。

③利用脚本程序,将某一时间戳之前的老数据迁移到新库。注意:时间戳一定要选择开始运行 Canal 程序后的时间点(比如运行 Canal 代码后 10 分钟的时间点),避免部分老数据被漏掉。

迁移过程一定要记录日志,尤其是错误日志,如果有些记录写入失败,我们可以通过日志恢复数据,以此来保证新老库的数据一致。

④第 3 步完成后,我们还需要通过脚本程序检验数据,看新库数据是否准确以及有没有漏掉的数据。

⑤数据校验没问题后,开启双读,起初给新库放少部分流量,新库和老库同时读取。

由于延时问题,新库和老库可能会有少量数据记录不一致的情况,所以新库读不到时需要再读一遍老库。

逐步将读流量切到新库,相当于灰度上线的过程。遇到问题可以及时把流量切回老库。

⑥读流量全部切到新库后,将写入流量切到新库(可以在代码里加上热配置开关:由于切换过程 Canal 程序还在运行,仍然能够获取老库的数据变化并同步到新库,所以切换过程不会导致部分老库数据无法同步新库的情况)。

⑦关闭 Canal 程序。

⑧迁移完成。

扩容缩容方案

需要对数据重新 hash 取模,再将原来多个库表的数据写入扩容后的库表中。整体扩容方案和上面的不停机迁移方案基本一致。采用双写或者 Canal 等数据同步方案都可以。

更好的分库分表方案

通过前面的描述,不难看出我们的分库分表方案有一些缺陷,比如采用 hash 取模的方式会产生数据分布不均匀的情况,扩容缩容也非常麻烦。

这些问题可以用一致性 hash 方案解决。基于虚拟节点设计原理的一致性 hash 可以让数据分布更均匀。

而且一致性 hash 采用环形设计思路,在增减节点时,使得数据迁移的成本会更低,只需要迁移临近节点的数据。

不过需要扩容时基本上要成倍扩容,在 hash 环上每个节点间隙都增加新的节点,这样才能分摊所有原有节点的访问和存储压力。

由于篇幅原因,这里不详细介绍一致性 hash 了,网上有很多相关资料,大家有兴趣可以仔细研究一下。

降级方案

在大促期间订单服务压力过大时,可以将同步调用改为异步消息队列方式,来减小订单服务压力并提高吞吐量。

大促时某些时间点瞬间生成订单量很高。我们采取异步批量写数据库的方式,来减少数据库访问频次,进而降低数据库的写入压力。

详细步骤:后端服务接到下单请求,直接放进消息队列,订单服务取出消息后,先将订单信息写入 Redis,每隔 100ms 或者积攒 10 条订单,批量写入数据库一次。

前端页面下单后定时向后端拉取订单信息,获取到订单信息后跳转到支付页面。

用这种异步批量写入数据库的方式大幅减少了数据库写入频次,从而明显降低了订单数据库写入压力。

不过,因为订单是异步写入数据库的,就会存在数据库订单和相应库存数据暂时不一致的情况,以及用户下单后不能及时查到订单的情况。

因为毕竟是降级方案,可以适当降低用户体验,我们保证数据最终一致即可。

根据系统压力情况,可以在大促开始时开启异步批量写的降级开关,大促结束后再关闭降级开关。

流程如下图:

作者:二马读书

编辑:陶家龙

出处:转载自公众号二马读书(ID:ermadushu)

【编辑推荐】

  1. 亿级大表分库分表实战总结(万字干货,实战复盘)
  2. MySQL垂直分库,水平分库,垂直分表,水平分表
  3. 前任都能看懂的分库分表方案
  4. Comcast的IT部门是如何从订单接受者转变为创新者的
  5. MyCat数据库中间件开发实战(基础MySQL,主从复制、读写分离、分库分表)
【责任编辑:武晓燕 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

订阅专栏+更多

数据湖与数据仓库的分析实践攻略

数据湖与数据仓库的分析实践攻略

助力现代化数据管理:数据湖与数据仓库的分析实践攻略
共3章 | 创世达人

1人订阅学习

云原生架构实践

云原生架构实践

新技术引领移动互联网进入急速赛道
共3章 | KaliArch

30人订阅学习

数据中心和VPDN网络建设案例

数据中心和VPDN网络建设案例

漫画+案例
共20章 | 捷哥CCIE

202人订阅学习

视频课程+更多

架构之路

架构之路

讲师:王军伟3101人学习过

Jmeter接口层性能与自动化测试全程实战(小强测试)

Jmeter接口层性能与自动化测试全程实战(小强

讲师:小强95812人学习过

明明白白跨入Vue大门-初级篇

明明白白跨入Vue大门-初级篇

讲师:江成军4406人学习过

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊

51CTO服务号

51CTO官微