データベース垂直方向と水平方向のサブライブラリーサブテーブル(RPM)

まず、データベースのボトルネック

IOボトルネック、またはCPUのボトルネックかどうかは、最終的にはデータベースへのアクティブな接続の数の増加につながる、データベースは、アクティブな接続数のしきい値を運ぶためにも、近づくことができます。サービスは、ビジネスの観点では、ほとんど、あるいはまったく接続可能なデータベース接続が利用可能です。次に、(並行性、スループット、崩壊)、それを想像することができます。

1、IOボトルネック

最初: - >ディスクは、適合しないデータベースキャッシュは、それぞれが、IOクエリの多くを生成するクエリの速度低下しますIOボトルネック、熱すぎるデータを読み取る  サブライブラリーと垂直サブテーブルを

第二:ネットワークIOのボトルネックは、あまり要求されたデータは、ネットワーク帯域幅が十分ではありません- >  サブライブラリー

2、CPUのボトルネック

最初:SQLの問題は、非インデックスフィールドは、CPU操作の動作を高め、条件をクエリで順序によって、グループに参加SQLに含まれて - > SQLの最適化は、ビジネスサービス層のサービスで行われる適切なインデックス計算を確立します。

第二: - >単一のテーブルのデータが大きすぎる、あまりにも多くのラインスキャンクエリで、SQLは、CPUのボトルネックがつながる、低効率である  水平方向のパーティションテーブルを

第二に、サブライブラリーのサブテーブル

図1に示すように、サブライブラリーのレベル

  1. 概念:でフィールド基づい、特定のポリシー(ハッシュ、範囲、等)によれば、ライブラリは、データを複数に分割するライブラリです。
  2. 結果:
    • ライブラリー構造は同じです。
    • ライブラリデータが同じではありません、ない交差点はありません。
    • すべてのライブラリ労働組合は、データの全体量です。
  3. シーン:最大同時の絶対量のシステムは、サブテーブルには、根本的な問題を解決することは困難である、と垂直サブライブラリーには明確なビジネスの所有権がありません。
  4. 分析:ライブラリにはもっと、自然のIOとCPUの緩和圧力を掛けすることができます。

図2に示すように、水平サブテーブル

  1. 概念:でフィールド基づい、特定のポリシー(ハッシュ、範囲、等)に応じて、テーブルは、データを複数に分割です。
  2. 結果:
    • テーブル構造は同じです。
    • テーブルデータは、交差部分が存在しない、同じではありません。
    • すべてのテーブル労働組合は、データの総量です。
  3. シーン:並行システムの絶対量はアップしませんが、SQLの効率に影響を与えるデータの単一のテーブル、あまりにも多くの量、ボトルネックとなり増加CPU負担。
  4. 分析:自然CPUの負担を軽減データ・テーブル少なく、かつ高い単一のSQL実行効率、。

図3に示すように、垂直サブライブラリー

  1. コンセプト:テーブルは異なる、異なるの権利確定に合わせて、ベースとテーブルの異なるに分割ライブラリの中で
  2. 結果:
    • ライブラリ構造が異なっています。
    • ライブラリデータが同じではありません、ない交差点はありません。
    • すべてのライブラリ労働組合は、データの全体量です。
  3. 场景:系统绝对并发量上来了,并且可以抽象出单独的业务模块。
  4. 分析:到这一步,基本上就可以服务化了。例如,随着业务的发展一些公用的配置表、字典表等越来越多,这时可以将这些表拆到单独的库中,甚至可以服务化。再有,随着业务的发展孵化出了一套业务模式,这时可以将相关的表拆到单独的库中,甚至可以服务化。

4、垂直分表

  1. 概念:以字段为依据,按照字段的活跃性,将中字段拆到不同的(主表和扩展表)中。
  2. 结果:
    • 每个结构都不一样;
    • 每个数据也不一样,一般来说,每个表的字段至少有一列交集,一般是主键,用于关联数据;
    • 所有并集是全量数据;
  3. 场景:系统绝对并发量并没有上来,表的记录并不多,但是字段多,并且热点数据和非热点数据在一起,单行数据所需的存储空间较大。以至于数据库缓存的数据行减少,查询时会去读磁盘数据产生大量的随机读IO,产生IO瓶颈。
  4. 分析:可以用列表页和详情页来帮助理解。垂直分表的拆分原则是将热点数据(可能会冗余经常一起查询的数据)放在一起作为主表,非热点数据放在一起作为扩展表。这样更多的热点数据就能被缓存下来,进而减少了随机读IO。拆了之后,要想获得全部数据就需要关联两个表来取数据。但记住,千万别用join,因为join不仅会增加CPU负担并且会讲两个表耦合在一起(必须在一个数据库实例上)。关联数据,应该在业务Service层做文章,分别获取主表和扩展表数据然后用关联字段关联得到全部数据。

三、分库分表工具

  1. sharding-sphere:jar,前身是sharding-jdbc;
  2. TDDL:jar,Taobao Distribute Data Layer;

  3. Mycat:中间件。

注:工具的利弊,请自行调研,官网和社区优先。

四、分库分表步骤

根据容量(当前容量和增长量)评估分库或分表个数 -> 选key(均匀)-> 分表规则(hash或range等)-> 执行(一般双写)-> 扩容问题(尽量减少数据的移动)。

五、分库分表问题

1、非partition key的查询问题(水平分库分表,拆分策略为常用的hash法)

  1. 端上除了partition key只有一个非partition key作为条件查询
    • 映射法
    • 基因法

      注:写入时,基因法生成user_id,如图。关于xbit基因,例如要分8张表,23=8,故x取3,即3bit基因。根据user_id查询时可直接取模路由到对应的分库或分表。根据user_name查询时,先通过user_name_code生成函数生成user_name_code再对其取模路由到对应的分库或分表。id生成常用snowflake算法

  2. 端上除了partition key不止一个非partition key作为条件查询
    • 映射法
    • 冗余法

      注:按照order_id或buyer_id查询时路由到db_o_buyer库中,按照seller_id查询时路由到db_o_seller库中。感觉有点本末倒置!有其他好的办法吗?改变技术栈呢?

  3. 后台除了partition key还有各种非partition key组合条件查询
    • NoSQL法
    • 冗余法

2、非partition key跨库跨表分页查询问题(水平分库分表,拆分策略为常用的hash法)

注:用NoSQL法解决(ES等)。

3、扩容问题(水平分库分表,拆分策略为常用的hash法)

  1. 水平扩容库(升级从库法)

    注:扩容是成倍的。

  2. 水平扩容表(双写迁移法)

    第一步:(同步双写)应用配置双写,部署;
    第二步:(同步双写)将老库中的老数据复制到新库中;
    第三步:(同步双写)以老库为准校对新库中的老数据;
    第四步:(同步双写)应用去掉双写,部署;

注:双写是通用方案。

六、分库分表总结

  1. 分库分表,首先得知道瓶颈在哪里,然后才能合理地拆分(分库还是分表?水平还是垂直?分几个?)。且不可为了分库分表而拆分。
  2. 选key很重要,既要考虑到拆分均匀,也要考虑到非partition key的查询。
  3. 只要能满足需求,拆分规则越简单越好。

七、分库分表示例

示例GitHub地址:https://github.com/littlecharacter4s/study-sharding

 

転送:https://www.cnblogs.com/littlecharacter/p/9342129.html

おすすめ

転載: www.cnblogs.com/helios-fz/p/10932577.html