Hbase

InterviewCoder

# 介绍:

​ Hbase 是 bigtable 的开源山寨版本。是建立在 HDFS 之上,提供高可靠性、高性能、列存储、可伸缩、实时读写的数据库系统。它介于 nosql 和 RDBMS 之间,仅能通过主键 (row key) 和主键的 range 来检索数据,仅支持单行事务 (可通过 hive 支持来实现多表 join 等复杂操作)。主要用来存储非结构化和半结构化的松散数据。与 hadoop 一样,Hbase 目标主要依靠横向扩展,通过不断增加廉价的商用服务器,来增加计算和存储能力。

# 特点:

​ HBase 中的表一般有这样的特点:

  1. 大:一个表可以有上亿行,上百万列

  2. 面向列:面向列 (族) 的存储和权限控制,列 (族) 独立检索。

  3. 稀疏:对于为空 (null) 的列,并不占用存储空间,因此,表可以设计的非常稀疏。

下面一幅图是 Hbase 在 Hadoop Ecosystem 中的位置。

20180608160429998

# 二、 逻辑视图

HBase 以表的形式存储数据。表有行和列组成。列划分为若干个列族 (row family)

20180608160501841

Row Key

与 nosql 数据库们一样,row key 是用来检索记录的主键。访问 hbase table 中的行,只有三种方式:

1 通过单个 row key 访问

2 通过 row key 的 range

3 全表扫描

Row key 行键 (Row key) 可以是任意字符串 (最大长度是 64KB,实际应用中长度一般为 10-100bytes),在 hbase 内部,row key 保存为字节数组。

存储时,数据按照 Row key 的字典序 (byte order) 排序存储。设计 key 时,要充分排序存储这个特性,将经常一起读取的行存储放到一起。(位置相关性)

注意:

字典序对 int 排序的结果是 1,10,100,11,12,13,14,15,16,17,18,19,2,20,21,…,9,91,92,93,94,95,96,97,98,99。要保持整形的自然序,行键必须用 0 作左填充。

行的一次读写是原子操作 (不论一次读写多少列)。这个设计决策能够使用户很容易的理解程序在对同一个行进行并发更新操作时的行为。

列族

hbase 表中的每个列,都归属与某个列族。列族是表的 chema 的一部分 (而列不是),必须在使用表之前定义。列名都以列族作为前缀。例如 courses:history , courses:math 都属于 courses 这个列族。

访问控制、磁盘和内存的使用统计都是在列族层面进行的。实际应用中,列族上的控制权限能 帮助我们管理不同类型的应用:我们允许一些应用可以添加新的基本数据、一些应用可以读取基本数据并创建继承的列族、一些应用则只允许浏览数据(甚至可能因 为隐私的原因不能浏览所有数据)。

时间戳

HBase 中通过 row 和 columns 确定的为一个存贮单元称为 cell。每个 cell 都保存着同一份数据的多个版本。版本通过时间戳来索引。时间戳的类型是 64 位整型。时间戳可以由 hbase (在数据写入时自动) 赋值,此时时间戳是精确到毫秒的当前系统时间。时间戳也可以由客户显式赋值。如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。每个 cell 中,不同版本的数据按照时间倒序排序,即最新的数据排在最前面。

为了避免数据存在过多版本造成的的管理 (包括存贮和索引) 负担,hbase 提供了两种数据版本回收方式。一是保存数据的最后 n 个版本,二是保存最近一段时间内的版本(比如最近七天)。用户可以针对每个列族进行设置。

Cell

由 *{row key, column (* = +

# 三、 物理存储

1 . 已经提到过,Table 中的所有行都按照 row key 的字典序排列。

2 . Table 在行的方向上分割为多个 Hregion。

2018060816055431

3 . region 按大小分割的,每个表一开始只有一个 region,随着数据不断插入表,region 不断增大,当增大到一个阀值的时候,Hregion 就会等分会两个新的 Hregion。当 table 中的行不断增多,就会有越来越多的 Hregion。

20180608160613225

4 . Hregion 是 Hbase 中分布式存储和负载均衡的最小单元。最小单元就表示不同的 Hregion 可以分布在不同的 HRegion server 上。但一个 Hregion 是不会拆分到多个 server 上的。

20180608160632130

5 . HRegion 虽然是分布式存储的最小单元,但并不是存储的最小单元。

事实上,HRegion 由一个或者多个 Store 组成,每个 store 保存一个 columns family。

每个 Strore 又由一个 memStore 和 0 至多个 StoreFile 组成。如图:

StoreFile 以 HFile 格式保存在 HDFS 上。

2018060816065423

HFile 的格式为:20180608160715293

Trailer 部分的格式:

20180608160733415

HFile 分为六个部分:

Data Block 段–保存表中的数据,这部分可以被压缩

Meta Block 段 (可选的)–保存用户自定义的 kv 对,可以被压缩。

File Info 段–Hfile 的元信息,不被压缩,用户也可以在这一部分添加自己的元信息。

Data Block Index 段–Data Block 的索引。每条索引的 key 是被索引的 block 的第一条记录的 key。

Meta Block Index 段 (可选的)–Meta Block 的索引。

Trailer–这一段是定长的。保存了每一段的偏移量,读取一个 HFile 时,会首先 读取 Trailer,Trailer 保存了每个段的起始位置 (段的 Magic Number 用来做安全 check),然后,DataBlock Index 会被读取到内存中,这样,当检索某个 key 时,不需要扫描整个 HFile,而只需从内存中找到 key 所在的 block,通过一次磁盘 io 将整个 block 读取到内存中,再找到需要的 key。DataBlock Index 采用 LRU 机制淘汰。

HFile 的 Data Block,Meta Block 通常采用压缩方式存储,压缩之后可以大大减少网络 IO 和磁盘 IO,随之而来的开销当然是需要花费 cpu 进行压缩和解压缩。

目标 Hfile 的压缩支持两种方式:Gzip,Lzo。

HLog(WAL log)

WAL 意为 Write ahead log (http://en.wikipedia.org/wiki/Write-ahead_logging),类似 mysql 中的 binlog, 用来 做灾难恢复只用,Hlog 记录数据的所有变更,一旦数据修改,就可以从 log 中进行恢复。

每个 Region Server 维护一个 Hlog, 而不是每个 Region 一个。这样不同 region (来自不同 table) 的日志会混在一起,这样做的目的是不断追加单个 文件相对于同时写多个文件而言,可以减少磁盘寻址次数,因此可以提高对 table 的写性能。带来的麻烦是,如果一台 region server 下线,为了恢复其上的 region,需要将 region server 上的 log 进行拆分,然后分发到其它 region server 上进行恢复。

HLog 文件就是一个普通的 Hadoop Sequence File,Sequence File 的 Key 是 HLogKey 对象,HLogKey 中记录了写入数据的归属信息,除了 table 和 region 名字外,同时还包括 sequence number 和 timestamp,timestamp 是” 写入时间”,sequence number 的起始值为 0,或者是最近一次存入文件系统中 sequence number。HLog Sequece File 的 Value 是 HBase 的 KeyValue 对象,即对应 HFile 中的 KeyValue,可参见上文描述。

# 四、 系统架构

20180608160828501

Client

1 包含访问 hbase 的接口,client 维护着一些 cache 来加快对 hbase 的访问,比如 regione 的位置信息。

Zookeeper

1 保证任何时候,集群中只有一个 master

2 存贮所有 Region 的寻址入口。

3 实时监控 Region Server 的状态,将 Region server 的上线和下线信息实时通知给 Master

4 存储 Hbase 的 schema, 包括有哪些 table,每个 table 有哪些 column family

Master

1 为 Region server 分配 region

2 负责 region server 的负载均衡

3 发现失效的 region server 并重新分配其上的 region

4 GFS 上的垃圾文件回收

5 处理 schema 更新请求

Region Server

1 Region server 维护 Master 分配给它的 region,处理对这些 region 的 IO 请求

2 Region server 负责切分在运行过程中变得过大的 region

可以看到,client 访问 hbase 上数据的过程并不需要 master 参与(寻址访问 zookeeper 和 region server,数据读写访问 regione server),master 仅仅维护者 table 和 region 的元数据信息,负载很低。

# 五、关键算法 / 流程

region 定位

系统如何找到某个 row key (或者某个 row key range) 所在的 region

bigtable 使用三层类似 B + 树的结构来保存 region 位置。

第一层是保存 zookeeper 里面的文件,它持有 root region 的位置。

第二层 root region 是.META. 表的第一个 region 其中保存了.META.z 表其它 region 的位置。通过 root region,我们就可以访问.META. 表的数据。

.META. 是第三层,它是一个特殊的表,保存了 hbase 中所有数据表的 region 位置信息。

20180608160858652

说明:

1 root region 永远不会被 split,保证了最需要三次跳转,就能定位到任意 region 。

2.META. 表每行保存一个 region 的位置信息,row key 采用表名 + 表的最后一样编码而成。

3 为了加快访问,.META. 表的全部 region 都保存在内存中。

假设,.META. 表的一行在内存中大约占用 1KB。并且每个 region 限制为 128MB。

那么上面的三层结构可以保存的 region 数目为:

(128MB/1KB) * (128MB/1KB) = = 2 (34) 个 region

4 client 会将查询过的位置信息保存缓存起来,缓存不会主动失效,因此如果 client 上的缓存全部失效,则需要进行 6 次网络来回,才能定位到正确的 region (其中三次用来发现缓存失效,另外三次用来获取位置信息)。

读写过程

上文提到,hbase 使用 MemStore 和 StoreFile 存储对表的更新。

数据在更新时首先写入 Log (WAL log) 和内存 (MemStore) 中,MemStore 中的数据是排序的,当 MemStore 累计到一定阈值时,就会创建一个新的 MemStore,并 且将老的 MemStore 添加到 flush 队列,由单独的线程 flush 到磁盘上,成为一个 StoreFile。于此同时,系统会在 zookeeper 中 记录一个 redo point,表示这个时刻之前的变更已经持久化了。(minor compact)

当系统出现意外时,可能导致内存 (MemStore) 中的数据丢失,此时使用 Log (WAL log) 来恢复 checkpoint 之后的数据。

前面提到过 StoreFile 是只读的,一旦创建后就不可以再修改。因此 Hbase 的更 新其实是不断追加的操作。当一个 Store 中的 StoreFile 达到一定的阈值后,就会进行一次合并 (major compact), 将对同一个 key 的修改合并到一起,形成一个大的 StoreFile,当 StoreFile 的大小达到一定阈值后,又会对 StoreFile 进行 split,等分为两个 StoreFile。

由于对表的更新是不断追加的,处理读请求时,需要访问 Store 中全部的 StoreFile 和 MemStore,将他们的按照 row key 进行合并,由于 StoreFile 和 MemStore 都是经过排序的,并且 StoreFile 带有内存中索引,合并的过程还是比较快。

写请求处理过程

20180608160916374

1 client 向 region server 提交写请求

2 region server 找到目标 region

3 region 检查数据是否与 schema 一致

4 如果客户端没有指定版本,则获取当前系统时间作为数据版本

5 将更新写入 WAL log

6 将更新写入 Memstore

7 判断 Memstore 的是否需要 flush 为 Store 文件。

region 分配

任何时刻,一个 region 只能分配给一个 region server。master 记录了当前有哪些可用的 region server。以及当前哪些 region 分配给了哪些 region server,哪些 region 还没有分配。当存在未分配的 region,并且有一个 region server 上有可用空间时,master 就给这个 region server 发送一个装载请求,把 region 分配给这个 region server。region server 得到请求后,就开始对此 region 提供服务。

region server 上线

master 使用 zookeeper 来跟踪 region server 状态。当某个 region server 启动时,会首先在 zookeeper 上的 server 目录下建立代表自己的文件,并获得该文件的独占锁。由于 master 订阅了 server 目录上的变更消息,当 server 目录下的文件出现新增或删除操作时,master 可以得到来自 zookeeper 的实时通知。因此一旦 region server 上线,master 能马上得到消息。

region server 下线

当 region server 下线时,它和 zookeeper 的会话断开,zookeeper 而自动释放代表这台 server 的文件上的独占锁。而 master 不断轮询 server 目录下文件的锁状态。如果 master 发现某个 region server 丢失了它自己的独占锁,(或者 master 连续几次和 region server 通信都无法成功),master 就是尝试去获取代表这个 region server 的读写锁,一旦获取成功,就可以确定:

1 region server 和 zookeeper 之间的网络断开了。

2 region server 挂了。

的其中一种情况发生了,无论哪种情况,region server 都无法继续为它的 region 提供服务了,此时 master 会删除 server 目录下代表这台 region server 的文件,并将这台 region server 的 region 分配给其它还活着的同志。

如果网络短暂出现问题导致 region server 丢失了它的锁,那么 region server 重新连接到 zookeeper 之后,只要代表它的文件还在,它就会不断尝试获取这个文件上的锁,一旦获取到了,就可以继续提供服务。

master 上线

master 启动进行以下步骤:

1 从 zookeeper 上获取唯一一个代码 master 的锁,用来阻止其它 master 成为 master。

2 扫描 zookeeper 上的 server 目录,获得当前可用的 region server 列表。

3 和 2 中的每个 region server 通信,获得当前已分配的 region 和 region server 的对应关系。

4 扫描.META.region 的集合,计算得到当前还未分配的 region,将他们放入待分配 region 列表。

master 下线

由于 master 只维护表和 region 的元数据,而不参与表数据 IO 的过 程,master 下线仅导致所有元数据的修改被冻结 (无法创建删除表,无法修改表的 schema,无法进行 region 的负载均衡,无法处理 region 上下线,无法进行 region 的合并,唯一例外的是 region 的 split 可以正常进行,因为只有 region server 参与),表的数据读写还可以正常进行。因此 master 下线短时间内对整个 hbase 集群没有影响。从上线过程可以看到,master 保存的 信息全是可以冗余信息(都可以从系统其它地方收集到或者计算出来),因此,一般 hbase 集群中总是有一个 master 在提供服务,还有一个以上 的’master’在等待时机抢占它的位置。

六、访问接口

  • HBase Shell
  • Java clietn API
  • HBase non-java access
    • languages talking to the JVM
      • Jython interface to HBase
      • Groovy DSL for HBase
      • Scala interface to HBase
    • languages with a custom protocol
      • REST gateway specification for HBase
      • 充分利用 HTTP 协议:GET POST PUT DELETE

§

      • text/plain
      • text/xml
      • application/json
      • application/x-protobuf
    • Thrift gateway specification for HBase
      • java
      • cpp
      • rb
      • py
      • perl
      • php
  • HBase Map Reduce
  • Hive/Pig

# 关于我

Brath 是一个热爱技术的 Java 程序猿,公众号「InterviewCoder」定期分享有趣有料的精品原创文章!

InterviewCoder

非常感谢各位人才能看到这里,原创不易,文章如果有帮助可以关注、点赞、分享或评论,这都是对我的莫大支持!

评论