分区取模分库分表策略:多表事务分库内闭环解决方案

沙海
沙海
沙海
1533
文章
2
评论
2021年5月11日05:05:51
评论
4 4245字阅读14分9秒
摘要

速读摘要

速读摘要

当数据库负载超过一定水平线,我们就需要通过分库来解决单库的连接数、性能负载的瓶颈问题。执行更新shop_order_stat表操作的时候,操作被路由到了DB1。我只需要把shop_order_detail的分库策略调整为跟shop_order_stat一致,保证同一个shop_id能路由到同一个DB分片中就能解决这个问题。9的取模策略会映射到shop_order_detail_09这张表上,但shop_order_detail_09这张表不在DB0中,所以操作失败了。

原文约 1949 | 图片 12 | 建议阅读 4 分钟 | 评价反馈

分区取模分库分表策略:多表事务分库内闭环解决方案

原创 雨庄 阿里技术

收录于话题

#Java45

#数据存储与数据库6

分区取模分库分表策略:多表事务分库内闭环解决方案

一  前言

技术同学都知道,当表数据超过一定量级,我们就需要通过分表来解决单表的性能瓶颈问题;当数据库负载超过一定水平线,我们就需要通过分库来解决单库的连接数、性能负载的瓶颈问题。

本文主要阐述在同时满足以下业务场景:

  • 分表分库存储

  • 需要对分表数量不同的表进行同事务操作

  • 这些表的分库分表策略依赖的Sharding业务ID一致

等情况下,让这些不同数量级表,在同一个业务ID的事务操作路由到同一分库中的方案,省去解决垮库事务的烦恼。

二  案例

1  背景

假设有2个数据库实例,需要保存商家订单明细和汇总2张表的数据,这2张表的 分库分表策略都用shop_id取模策略,按单表数据500w的原则进行分表分库:

(1)shop_order_detail 商家订单明细表,日均数据6000w

分表数量 6000w / 500w = 12张表
分表策略 shop_id % 12
分库策略 shop_id % 12 / 2
单库表数量 12 / 2 = 6张表

(2)shop_order_stat 商家订单统计表,日均数据2000w

分表数量 2000w / 500w = 4张表
分表策略 shop_id % 4
分库策略 shop_id % 4 / 2
单库表数量 4 / 2 = 2张表

配置完成后生成的库表:

分区取模分库分表策略:多表事务分库内闭环解决方案

然后我们要做这么一件事情:在同一个事务中,新增用户订单明细成功后,更新用户订单统计数据:

分区取模分库分表策略:多表事务分库内闭环解决方案

2  问题

此时,我要处理一笔 user_id = 3 的订单数据:

分区取模分库分表策略:多表事务分库内闭环解决方案

如图,执行新增shop_order_detail表操作的时候,操作被路由到了DB0中;执行更新shop_order_stat表操作的时候,操作被路由到了DB1。这时候 这两个操作跨库了,无法在同一个事务中执行, 流程异常中断。

如果用TDDL组件的话就会报这样的错:

    ### Cause: ERR-CODE: [TDDL-4603][ERR_ACCROSS_DB_TRANSACTION] Transaction accross db is not supported in current transaction policy

    三  解决方案

    解决多表跨库事务的方案有很多,本文阐述的是如下解决方案:

    将shop_order_stat作为shop_order_detail的映射基础表,调整shop_order_detail的分表策略,让shop_order_detail和shop_order_stat的数据都路由到同一个库中。

    但该方案的前提是目标表的表数量是映射基础表表数量的N倍数。比如shop_order_stat的总表数量是4,shop_order_detail的总表数量是12,故shop_order_detail的总表数是shop_order_stat总表数的3倍。

    shop_order_detail新分表分库策略的推导思路如下:

    1  调整分库策略

    首先,我们看shop_id在0~11范围内,用shop_id % 4分库分表策略shop_order_stat的sharding分布图:

    分区取模分库分表策略:多表事务分库内闭环解决方案

    用shop_id % 12分库分表策略shop_order_detail的sharding分布图:

    分区取模分库分表策略:多表事务分库内闭环解决方案

    图中看出,两张表都是根据shop_id做sharding,但现有同一个shop_id有可能会被路由到不同的库中,导致跨库操作。

    此时,我只需要把shop_order_detail的分库策略调整为跟shop_order_stat一致,保证同一个shop_id能路由到同一个DB分片中就能解决这个问题。调整后的sharding分布图:

    分区取模分库分表策略:多表事务分库内闭环解决方案

    但调整完分库策略后,原本的表映射策略就失效了:

    分区取模分库分表策略:多表事务分库内闭环解决方案

    原本的shop_id = 5数据可以通过shop % 12 = 5的取模策略映射到DB0的shop_order_detail_05表上。调整完分库策略后,shop_id = 9被路由到了DB0中,通过shop % 12 = 9的取策略会映射到shop_order_detail_09这张表上,但shop_order_detail_09这张表不在DB0中,所以操作失败了。

    这时候,我们需要调整分表策略,把shop_id = 9的数据既映射到DB0中的shop_order_detail_05表中。

    2  分区取模策略

    首先,以shop_order_stat的单库表数量2作为分块大小,总表数量4作为分区大小,对shop_id=[0~11]进行分区操作,并且将shop_id根据分块大小取模:

    分区取模分库分表策略:多表事务分库内闭环解决方案

    当前分库数量为2,shop_order_stat的单库表数量为6,计算出跨库步长=分库下标*单库表数量:

    分区取模分库分表策略:多表事务分库内闭环解决方案

    根据分区下标和分块大小,计算出分区步长=分区下标*分块大小,最后根据分块取数+跨库步长+分区步长就能定位到最终的分表下标了: 

    分区取模分库分表策略:多表事务分库内闭环解决方案

    这样就完成了把shop_id = 9的数据既映射到DB0中的shop_order_detail_05表中的工作。

    四  计算公式

    分表下标路由策略计算公式:

    分表下标 = 业务ID取模 % 分块大小 + 业务ID取模 / 分块大小 * 单库表数量 + 业务ID取模 / 分区大小 * 分块大小

    • 业务ID取 = 业务ID % 总表数量

    • 分区大小 = 目标映射表的总表数量

    • 分块大小 = 目标映射表的单库表数量

    以上面的案例为例,调整shop_order_detail的分库分表路由策略:

    (1)shop_order_stat 商家订单统计表

    分表数量 4张表
    分表策略 shop_id % 4
    分库策略 shop_id % 4 / 2
    单库表数量 4 / 2 = 2张表

    (2)shop_order_detail 商家订单明细表

    分表数量 12张表
    分表策略

    // 总表数取模
    def index = shop_id % 12(shop_order_detail总表数量);
    // 分块下标
    def blockIndex = index % 2(shop_order_stat单库表数量);
    // 跨库步长
    def dbStep = index % 4(shop_order_stat总表数量) / 2(shop_order_stat单库表数量) * 6(shop_order_detail单库表数量);
    // 分区步长
    def partitionStep = index / 4(shop_order_stat总表数量) * 2(shop_order_stat单库表数量);
    // 分表下标 = 分块下标 + 跨库步长 + 分区步长
    returnblockIndex + dbStep + partitionStep;

    分库策略 shop_id % 4 / 2
    单库表数量 12 / 2 = 6张表

    TDDL sharding-rule配置代码示例:

      <bean id="shop_order_stat"class="com.taobao.tddl.rule.TableRule"> <property name="dbNamePattern"value="{0000}"/> <property name="dbRuleArray"value="(#shop_id,1,4#.longValue() % 4).intdiv(2)" /> <property name="tbNamePattern"value="shop_order_stat_{0000}"/> <property name="tbRuleArray"value="#shop_id,1,4#.longValue() % 4" /></bean><bean id="shop_order_detail"class="com.taobao.tddl.rule.TableRule"> <property name="dbNamePattern"value="{0000}"/> <property name="dbRuleArray"value="(#shop_id,1,4#.longValue() % 4).intdiv(2)" /> <property name="tbNamePattern"value="shop_order_detail_{0000}"/> <property name="tbRuleArray"> <value> def index = #shop_id,1,12#.longValue() % 12;return index % 2 + (index % 4).intdiv(2) * 6 + index.intdiv(4) * 2 </value> </property> <property name="allowFullTableScan"value="true"/></bean>

      Java代码示例:

        long shopId = 9;int dbs = 2;int tables = 12;int oneDbTables = 6;int partitionSize = 4;int blockSize = 2;int sharding = (int) (shopId % tables);// 目标分库int dbIndex = (int) (shopId % partitionSize / dbs);// 目标分表int tableIndex = sharding % blockSize + sharding % partitionSize / blockSize * oneDbTables + sharding / partitionSize * blockSize;

        五  结尾

        我是本地生活外卖商家运营研发团队中的一员,在实际业务场景的设计中遇到了多表事务分库内闭环的问题,没有找到适合的案例参考,才孵化出这个解决方案。 

        目前该方案已经在落地上线,有相同业务场景需求的同学可直接套用计算公式既可,欢迎大家交流沟通。

        免费领取电子书

        《阿里巴巴大数据及 AI 实战》

        本书将深度剖析淘宝、高德、友盟+、1688、优酷、阿里妈妈、阿里影业大数据实战场景,是 2020 不容错过的企业大数据实战手册。

        扫码加阿里妹好友,回复“阿里ai”获取吧~(英文字母小写,若扫码无效,可通过微信号alimei4、alimei5、alimei6、alimei7直接添加)

        分区取模分库分表策略:多表事务分库内闭环解决方案

        阅读原文

        继续阅读
        weinxin
        资源分享QQ群
        本站是一个IT技术分享社区, 会经常分享资源和教程; 分享的时代, 请别再沉默!
        沙海
        匿名

        发表评论

        匿名网友 填写信息

        :?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: