存储(八)—— Partition

本贴最后更新于 1840 天前,其中的信息可能已经事过境迁

如果 partition 这个词听起来不是那么亲切,说起其他名字,想必你会更熟悉一些,比如,ES 里面的 shard,HBase 里面的 region,mysql 里面的分库分表,kafka 里面的。。额。。kafka 里面就叫做 partition。partition(数据分片)是一种更加广泛的称呼。

partition 和 replication

上一节讲到的 replication 解决的是数据备份、高可用、更靠近用户的问题,有了 replication 之后,数据更靠近用户了,性能上的提升,主要体现在网络的传输长度上——同样的数据从北京传到上海肯定比从北京传到广州快。
那么,把数据放到网络上之前呢?先得把它(要传输的数据)从一大堆数据(数据库)中找出来吧。那么,同样的存储方式,从 1 亿条数据中查找快还是从 1 万条数据中查找快呢?
所以,你需要把数据规模尽可能的控制在一定范围内。分而治之的思想,人类从古到今一直都在使用:
国家划分省,省划分市,市划分县,县划分乡镇,乡镇划分村庄;
大批量数据处理总是要先 Map 然后再 Reduce;
还有似乎已经不是那么火的微服务以及越来越火的 k8s。
总的来说,partition 的两个最根本的好处是:

  1. 方便治理——皇帝总不会直接治理平民的,没那么大精力。
  2. 控制数据规模带来的性能提升——从 1 亿条数据中查找快还是从 1 万条数据中查找快呢?想想索引的原理。
  3. 还有一个个人认为最吸引人的好处,放在最后讲。
    除此之外,某些情况下,数据不得不做 partition,Redis 为啥要搞集群?因为一台机器内存有限,装不下所有数据,所以得把数据划分成一块一块的装进集群的一个个节点里面,而节点小了,做起 replication 来也更加方便和灵活了。
    所以,partition 和 replication 并不冲突,你可以认为它们是数据世界的两个维度——每一个 partition 都可以做 replication,同样的,每一个 replication 也都可以做 partition。

数据的分片方式

给你一大堆数据,让你分成一小块一小块的,你咋分?
一般常见的分片方式有两种:按区间分片和按 hash 分片。

按区间分片

这种分片方式一般出现在时间和空间相关的数据存储中。
比如天气数据,或者监控系统的监控数控,一般都是按照时间段进行划分的。这种数据一般都产生的比较“均匀”,比如监控系统每秒钟采集一次系统的 CPU 使用率,天气系统没小时采集一次温度数据。

按 hash 分片。

这种数据多出现在关系型数据库中,比如电商系统、社交系统的用户信息,一般按用户 id 进行 hash 分表。

热点 key 问题

无论以哪种方式进行分片,都应带尽可能避免热点问题。
热点问题是指绝大多数数据的读写集中在某一个或者某几个 partition 上,使得 partition 的性价比大打折扣。微博大 V 就是数据热点问题一个典型的场景,如下图所示:
image.png
处理不好热点数据的问题,不但系统性能得不到提升,还会因为 partition 带来额外的资源浪费以及维护成本。
热点 key 的问题,一直都是业界头疼的问题,至今似乎并没有一个完美的解决方案,微博的一次次崩溃真是难为某浪的研发同学了。
一个分片方式的好坏最直接的体现就是数据是否分的足够均匀,最理想的状态是每个分片的数据读写速度都是差不多的,也即不存在热点数据。

二级索引

我们总是可以很方便的根据一级索引(主键索引)找到数据的分片所在,比如一个社交系统的用户信息表,我们根据用户 id(int 类型)分了 100 张表,每个 id % 100 后就是该 id 所在的分表序号。
所以根据用户 id 来查找数据时,总是很迅速,很方便。可是,一旦按照用户 id 之外的维度来查找数据时,问题就来了。比如,现在我想找出年龄最大的用户,尽管每张表上 age 字段都建立了索引,我们也不得不遍历 100 张表,找出每个表年龄最大的用户,然后比较之后,得出我们想要的数据。
上面提到的情况是把二级索引和一级索引维护在同一张表中的情况。
仔细想想,我们还可以这样搞:把用户数据再按照年龄分 100 张表,1 岁一张表(简单期间,不考虑现实因素),我们就可以直接从序号 100 的表中找出年龄最大的用户数据来了。当然为了节省存储空间,我们可以只存储年龄和用户 id 的映射,拿到用户 id 后,在根据 id 的分表规则找到用户信息。
你看,这不就和 mysql 的二级索引一个道理吗?所以,计算机世界的原理都是一样的。
业界还有这样一种常见的做法:
用 hbase 存储基本数据,用 es 存储其他字段的全文索引。查找时,先通过 es 查出数据的 rowkey,然后拿 rowkey 去 hbase 查出具体数据。道理也是一样的。

Rebalance

维持各个分片数据量的均衡是一门艺术。
一个好的散列方式是维持数据均衡的前提。一般来说,数据的随机性越高,进入不同分片的概率就越趋于相同。
但是不幸的是,这个世界的本质是符合正态分布的,总是有少数的个体产生多数的数据,传说中的二八原则。。。
比如,你很开心的把用户信息按用户 id 的最后一位数字均匀的散列到了 10 张表中,然后悲催的发现,有几个用户的数据量特别大,更加悲催的是,这几个用户的 id 的最后一个数字都是 7,然后悲哀的事情发生了:序号是 7 的那张表的数据量疯狂增长,其他表的数据量则一直很缓和。
一段时间以后,你发现,序号是 7 的表数据量很快到达了千万级别,其他表也就几十万,这可如何是好????

预分区

在最开始的时候,预估数据的增长速度和能达到的规模,预先分表,这是目前 mysql 分库分表的常见做法,实施起来比较简单,但是对数据预估的准确性和散列的把握要求很高,毕竟一开始分表的数目过大,会浪费资源,查询起来也不方便(二级索引查询需要遍历所有分表)。但是一开始分表数目太小,将来数据量增大后需要再次分表时,简直是噩梦。
但是,如果估计的比较准确,整个系统的性价比会大大得到提升,会把 partition 最大的好处——并行发挥的淋漓尽致。
除了预分区,还有一种方式是动态分区,使每个分区维自动的持在固定的大小,常见于各种分布式 NoSQL 存储系统中。

动态分区

像 HBase,HDFS,Redis 集群,ES 等,不需要事先预留出足够的存储资源,而是在资源不够时,动态添加就好了,也就是常说的扩容。
拿 hbase 举例,hbase 会维持每一个 partition 的大小,当某个 partition 到达一定阈值时,会进行动分裂,一个 partition 分裂成两个,分裂的过程类似于 B+ 数索引节点的分裂。这样我们就无需担心预估不准确的问题了。
这样也有一个坏处,就是刚开始时,分区比较少,整个系统的并行性并不是那么好,这个时候,有一种做法,就是预分区,起始阶段,预先创造几个空的 partition,等数据量上来了,再让他们自动分裂。
这种做法很好的结合了预估和动态分区的好处。

路由

数据被分隔成一片一片的,那么客户端进行读写时,怎么知道该去哪个分片上操作呢?这就是数据分片带来的路由问题了。
数据路由问题的根本是找一个地方记录数据和分片的对应关系。
一般有三种方式,可以让客户端找到数据所在的分片,三种方式如下图(可耻的盗大师的图了)所示:
image.png
这三种方式,在行业中都有应用,下面分别说明。

数据节点维护对应关系

这种路由方式的请求流程如下:

  1. 客户端随机找一个节点发起数据读写请求。
  2. 收到请求的节点查找数据所在的正确节点。
  3. 把请求转发到正确的节点上。
    平时由于数据的增删和扩容缩容引起数据和节点的对应关系发生变化时,这种变化会在节点之间进行传播,保证每个节点都知晓这种变化,这中去中心化数据一致性和时效性的实现还是比较困难的。
    redis 集群就是用的这种方法对请求进行路由的。

客户端维护对应关系

这种路由的请求凡是很简单:客户端直接找到正确的节点发送请求。
但是这种路由方式对客户端的要求比较高,客户端在初次连接时,需要向各个节点学习其上的对应关系,并实时维护对应关系的变更。
redis 集群也是支持这种路由方式的。
其实从某种意义上说,mysql 的分库分表也属于这种类型,只不过客户端提前知道了数据和节点的对应规则而已。

专门的节点维护对应关系

这种路由方式的请求流程如下所示:

  1. 客户端询问这个专门的节点,要操作的数据在哪里。
  2. 这个专门的节点告诉客户端一个 ip。
  3. 客户端向拿到的 ip 发起请求。
    平时数据和节点的对应关系发生变化时,都会通知到这个专门的节点,通知多用 ZooKeeper 实现:
    image.png
    这种方法应用比较广泛,像 hbase 啊,kafka 啊都使用这种方式进行路由。

并行

开头提到的个人最喜欢的 partition 的好处就是数据分片带来的并行性。
我们都知道 IO 的资源是有限的,如果数据不分片,拿机械磁盘来说,不管你几个 CPU,多少个线程,到磁盘这里,都得串行的等磁头一次次转到数据所在的位置。而如果数据分散在多个磁盘上呢?比如来了一个请求,要读取两条数据,一条在磁盘 1 上,一条在磁盘 2 上,那系统就可以同时将请求转发到磁盘 A 和 B 上,同时读取,整个响应时间有了很大提升。
这种做法,其实并不只是体现在数据库上,想想,多个磁盘做 RAID,还有对象存储把一个对象分成几份存到不同的分片上,都让并行性有了很大提升。

结语

计算机的思想都来自于现实生活,很朴素但是也很有用,本系列到这里就接近尾声了,下一篇是最后一篇了,最后一篇会尝试对整个系列进行一番总结,详见:存储(九)—— 道法自然

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...