etcd 分布式数据库概念初探
Lease(租约):
其实就是一个定时器。首先申请一个TTL=N的lease(定时器),然后创建key的时候传入该lease,那么就实现了一个定时的key。
在程序中可以定时为该lease续约,也就是不断重复的重置TTL=N。当lease过期的时候,其所关联的所有key都会自动删除。
Raft协议:
etcd基于Raft协议实现数据同步(K-V数据),集群由多个节点组成。
Raft协议理解起来相比Paxos并没有简单到哪里,因为都很难理解,所以我简单描述一下:
- 每次写入都是在一个事务(tx)中完成的。
 - 一个事务(tx)可以包含若干put(写入K-V键值对)操作。
 - etcd集群有一个leader,写入请求都会提交给它。
 - leader先将数据保存成日志形式,并定时的将日志发往其他节点保存。
 - 当超过1/2节点成功保存了日志,则leader会将tx最终提交(也是一条日志)。
 - 一旦leader提交tx,则会在下一次心跳时将提交记录发送给其他节点,其他节点也会提交。
 - leader宕机后,剩余节点协商找到拥有最大已提交tx ID(必须是被超过半数的节点已提交的)的节点作为新leader。
 
这里最重要的是知道:
- Raft中,后提交的事务ID>先提交的事务ID,每个事务ID都是唯一的。
 
- 无论客户端是在哪个etcd节点提交,整个集群对外表现出数据视图最终都是一样的。
 
K-V存储
etcd根本上来说是一个K-V存储,它在内存中维护了一个btree(B树),就和MySQL的索引一样,它是有序的。
在这个btree中,key就是用户传入的原始key,而value并不是用户传入的value,具体是什么后面再说,整个k-v存储大概就是这样:
type treeIndex struct {
sync.RWMutex
tree *btree.BTree
} 
当存储大量的K-V时,因为用户的value一般比较大,全部放在内存btree里内存耗费过大,所以etcd将用户value保存在磁盘中。
简单的说,etcd是纯内存索引,数据在磁盘持久化,这个模型整体来说并不复杂。在磁盘上,etcd使用了一个叫做bbolt的纯K-V存储引擎(可以理解为leveldb),那么bbolt的key和value分别是什么呢?
MVCC多版本
如果仅仅维护一个K-V模型,那么连续的更新只能保存最后一个value,历史版本无从追溯,而多版本可以解决这个问题,怎么维护多个版本呢?下面是几条预备知识:
- 每个tx事务有唯一事务ID,在etcd中叫做main ID,全局递增不重复。
 - 一个tx可以包含多个修改操作(put和delete),每一个操作叫做一个revision(修订),共享同一个main ID。
 - 一个tx内连续的多个修改操作会被从0递增编号,这个编号叫做sub ID。
 - 每个revision由(main ID,sub ID)唯一标识。
 
下面是revision的定义:
// A revision indicates modification of the key-value space.
// The set of changes that share same main revision changes the key-value space atomically.
type revision struct {
// main is the main revision of a set of changes that happen atomically.
main int64
// sub is the the sub revision of a change in a set of changes that happen
// atomically. Each change has different increasing sub revision in that
// set.
sub int64
}
在内存索引中,每个用户原始key会关联一个key_index结构,里面维护了多版本信息:
type keyIndex struct {
key         []byte
modified    revision // the main rev of the last modification
generations []generation
}
key字段就是用户的原始key,modified字段记录这个key的最后一次修改对应的revision信息。
多版本(历史修改)保存在Generations数组中,它的定义:
// generation contains multiple revisions of a key.
type generation struct {
ver     int64
created revision // when the generation is created (put in first revision).
revs    []revision
}
我称generations[i]为第i代,当一个key从无到有的时候,generations[0]会被创建,其created字段记录了引起本次key创建的revision信息。
当用户继续更新这个key的时候,generations[0].revs数组会不断追加记录本次的revision信息(main,sub)。
在多版本中,每一次操作行为都被单独记录下来,那么用户value是怎么存储的呢?就是保存到bbolt中。
在bbolt中,每个revision将作为key,即序列化(revision.main+revision.sub)作为key。因此,我们先通过内存btree在keyIndex.generations[0].revs中找到最后一条revision,即可去bbolt中读取对应的数据。
相应的,etcd支持按key前缀查询,其实也就是遍历btree的同时根据revision去bbolt中获取用户的value。
如果我们持续更新同一个key,那么generations[0].revs就会一直变大,这怎么办呢?在多版本中的,一般采用compact来压缩历史版本,即当历史版本到达一定数量时,会删除一些历史版本,只保存最近的一些版本。
下面的是一个keyIndex在compact时,Generations数组的变化:
// For example: put(1.0);put(2.0);tombstone(3.0);put(4.0);tombstone(5.0) on key "foo"
// generate a keyIndex:
// key:     "foo"
// rev:
// generations:
//    {empty}
//    {4.0, 5.0(t)}
//    {1.0, 2.0, 3.0(t)}
//
// Compact a keyIndex removes the versions with smaller or equal to
// rev except the largest one. If the generation becomes empty
// during compaction, it will be removed. if all the generations get
// removed, the keyIndex should be removed.
// For example:
// compact() on the previous example
// generations:
//    {empty}
//    {4.0, 5.0(t)}
//    {2.0, 3.0(t)}
//
// compact()
// generations:
//    {empty}
//    {4.0, 5.0(t)}
//
// compact():
// generations:
//    {empty} -> key SHOULD be removed.
//
// compact():
// generations:
//    {empty} -> key SHOULD be removed. 
Tombstone就是指delete删除key,一旦发生删除就会结束当前的Generation,生成新的Generation,小括号里的(t)标识Tombstone。
compact(n)表示压缩掉revision.main <= n的所有历史版本,会发生一系列的删减操作,可以仔细观察上述流程。
多版本总结来说:内存btree维护的是用户key => keyIndex的映射,keyIndex内维护多版本的revision信息,而revision可以映射到磁盘bbolt中的用户value。
最后,在bbolt中存储的value是这样一个json序列化后的结构,包括key创建时的revision(对应某一代generation的created),本次更新版本,sub ID(Version ver),Lease ID(租约ID):
kv := mvccpb.KeyValue{
    Key:            key,
    Value:          value,
    CreateRevision: c,
    ModRevision:    rev,
    Version:        ver,
    Lease:          int64(leaseID),
} 
watch机制
etcd的事件通知机制是基于MVCC多版本实现的。
客户端可以提供一个要监听的revision.main作为watch的起始ID,只要etcd当前的全局自增事务ID > watch起始ID,etcd就会将MVCC在bbolt中存储的所有历史revision数据,逐一顺序的推送给客户端。
这显然和ZooKeeper是不同的,ZooKeeper总是获取最新数据并建立一个一次性的监听后续变化。而etcd支持客户端从任意历史版本开始订阅事件,并且会推送当时的数据快照给客户端。
那么,etcd大概是如何实现基于MVCC的watch机制的呢?
etcd会保存每个客户端发来的watch请求,watch请求可以关注一个key(单key),或者一个key前缀(区间)。
etcd会有一个协程持续不断的遍历所有的watch请求,每个watch对象都维护了其watch的key事件推送到了哪个revision。
etcd会拿着这个revision.main ID去bbolt中继续向后遍历,实际上bbolt类似于leveldb,是一个按key有序的K-V引擎,而bbolt中的key是revision.main+revision.sub组成的,所以遍历就会依次经过历史上发生过的所有事务(tx)记录。
对于遍历经过的每个k-v,etcd会反序列化其中的value,也就是mvccpb.KeyValue,判断其中的Key是否为watch请求关注的key,如果是就发送给客户端。
// syncWatchersLoop syncs the watcher in the unsynced map every 100ms.
func (s *watchableStore) syncWatchersLoop() {
defer s.wg.Done()
for {
    s.mu.RLock()
    st := time.Now()
    lastUnsyncedWatchers := s.unsynced.size()
    s.mu.RUnlock()
    unsyncedWatchers :=
     {
        unsyncedWatchers = s.syncWatchers()
    }
    syncDuration := time.Since(st)
    waitDuration :=  * time.Millisecond
    // more work pending?
     && lastUnsyncedWatchers > unsyncedWatchers {
        // be fair to other store operations by yielding time taken
        waitDuration = syncDuration
    }
    select {
    case <-time.After(waitDuration):
    case <-s.stopc:
        return
    }
}
} 
上述代码是一个循环,不停的调用syncWatchers:
// syncWatchers syncs unsynced watchers by:
//  . choose a set of watchers from the unsynced watcher group
//  . iterate over the set to get the minimum revision and remove compacted watchers
//  . use minimum revision to get all key-value pairs and send those events to watchers
//  . remove synced watchers in set from unsynced group and move to synced group
func (s *watchableStore) syncWatchers() int {
s.mu.Lock()
defer s.mu.Unlock()
 {
}
s.store.revMu.RLock()
defer s.store.revMu.RUnlock()
// in order to find key-value pairs from unsynced watchers, we need to
// find min revision index, and these revisions can be used to
// query the backend store of key-value pairs
curRev := s.store.currentRev
compactionRev := s.store.compactMainRev
wg, minRev := s.unsynced.choose(maxWatchersPerSync, curRev, compactionRev)
minBytes, maxBytes := newRevBytes(), newRevBytes()
revToBytes(revision{main: minRev}, minBytes)
revToBytes(revision{main: curRev + }, maxBytes)
// UnsafeRange returns keys and values. And in boltdb, keys are revisions.
// values are actual key-value pairs in backend.
tx := s.store.b.ReadTx()
tx.Lock()
revs, vs := tx.UnsafeRange(keyBucketName, minBytes, maxBytes, )
evs := kvsToEvents(wg, revs, vs)
tx.Unlock() 
代码比较长不全贴,它会每次从所有的watcher选出一批watcher进行批处理(组成为一个group,叫做watchGroup),这批watcher中观察的最小revision.main ID作为bbolt的遍历起始位置,这是一种优化。
你可以想一下,如果为每个watcher单独遍历bbolt并从中摘出属于自己关注的key,那性能就太差了。通过一次性遍历,处理多个watcher,显然可以有效减少遍历的次数。
也许你觉得这样在watcher数量多的情况下性能仍旧很差,但是你需要知道一般的用户行为都是从最新的Revision开始watch,很少有需求关注到很古老的revision,这就是关键。
遍历bbolt时,json反序列化每个mvccpb.KeyValue结构,判断其中的key是否属于watchGroup关注的key,这是由kvsToEvents函数完成的:
// kvsToEvents gets all events for the watchers from all key-value pairs
func kvsToEvents(wg *watcherGroup, revs, vals [][]byte) (evs []mvccpb.Event) {
for i, v := range vals {
    var kv mvccpb.KeyValue
    if err := kv.Unmarshal(v); err != nil {
        plog.Panicf("cannot unmarshal event: %v", err)
    }
    if !wg.contains(string(kv.Key)) {
        continue
    }
    ty := mvccpb.PUT
    if isTombstone(revs[i]) {
        ty = mvccpb.DELETE
        // patch in mod revision so watchers won't skip
        kv.ModRevision = bytesToRev(revs[i]).main
    }
    evs = append(evs, mvccpb.Event{Kv: &kv, Type: ty})
}
return evs
} 
可见,删除key对应的revision也会保存到bbolt中,只是bbolt的key比较特别:
put操作的key由main+sub构成:
ibytes := newRevBytes()
idxRev := revision{main: rev, sub: int64(len(tw.changes))}
revToBytes(idxRev, ibytes)
delete操作的key由main+sub+”t”构成:
idxRev := revision{main: tw.beginRev + , sub: int64(len(tw.changes))}
revToBytes(idxRev, ibytes)
ibytes = appendMarkTombstone(ibytes)
// appendMarkTombstone appends tombstone mark to normal revision bytes.
func appendMarkTombstone(b []byte) []byte {
if len(b) != revBytesLen {
    plog.Panicf("cannot append mark to non normal revision bytes")
}
return append(b, markTombstone)
}
// isTombstone checks whether the revision bytes is a tombstone.
func isTombstone(b []byte) bool {
return len(b) == markedRevBytesLen && b[markBytePosition] == markTombstone
} 
etcd 分布式数据库概念初探的更多相关文章
- 分布式数据库对比评测(Es,mongodb,redis)基础知识篇
		
前言 我建议大家看下这个,否则后面你不知道我在说什么. 1.ES数据库相关概念 啥是Es,说白了就是支持文档搜索的分布式数据库,专门方便搜索的,GITHUB京东现在都在用. 1.ES的数据库存放在哪里 ...
 - 分布式数据库中的Paxos 算法
		
分布式数据库中的Paxos 算法 http://baike.baidu.com/link?url=ChmfvtXRZQl7X1VmRU6ypsmZ4b4MbQX1pelw_VenRLnFpq7rMvY ...
 - 云时代的分布式数据库:阿里分布式数据库服务DRDS
		
发表于2015-07-15 21:47| 10943次阅读| 来源<程序员>杂志| 27 条评论| 作者王晶昱 <程序员>杂志数据库DRDS分布式沈询 摘要:伴随着系统性能.成 ...
 - 怎样打造一个分布式数据库——rocksDB, raft, mvcc,本质上是为了解决跨数据中心的复制
		
摘自:http://www.infoq.com/cn/articles/how-to-build-a-distributed-database?utm_campaign=rightbar_v2& ...
 - Amoeba:开源的分布式数据库Porxy解决方案
		
http://www.biaodianfu.com/amoeba.html 什么是Amoeba? Amoeba(变形虫)项目,该开源框架于2008年 开始发布一款 Amoeba for Mysql软件 ...
 - 浅述Oracle分布式事务概念
		
着系统的复杂性不断增加,我们所面对的分布式系统渐渐增加.分布式文件系统.分布式消息队列系统等等层出不穷,在一些行业特别是互联网行业应用广泛.分布式数据库也是目前使用比较常用的分布式系统之一. 简单来说 ...
 - 分布式数据库Google Spanner原理分析
		
Spanner 是Google的全球级的分布式数据库 (Globally-Distributed Database) .Spanner的扩展性达到了令人咋舌的全球级,可以扩展到数百万的机器,数已百计的 ...
 - 全球分布式数据库:Google Spanner(论文翻译)
		
本文由厦门大学计算机系教师林子雨翻译,翻译质量很高,本人只对极少数翻译得不太恰当的地方进行了修改. [摘要]:Spanner 是谷歌公司研发的.可扩展的.多版本.全球分布式.同步复制数据库.它是第一个 ...
 - 2017(5)软件架构设计,web系统的架构设计,数据库系统,分布式数据库
		
试题五(共 25 分) 阅读以下关于 Web 系统架构设计的叙述,在答题纸上回答问题1 至问题 3. [说明] 某公司开发的 B2C 商务平台因业务扩展,导致系统访问量不断增大,现有系统访问速度缓慢, ...
 
随机推荐
- 正则中str.match(pattern)与pattern.exec(str)的区别
			
这两个函数除了调用对象以及参数不同之外,<javascript高级程序设计>中对exec描述比较详细,对match只是说返回数组跟exec一样.书中并没有说只说了正则在非全局模式下的情况, ...
 - javascript对象属性的命名规则
			
JS标识符的命名规则,即变量的命名规则: 标识符只能由字母.数字.下划线和‘$’组成 数字不可以作为标识符的首字符 对象属性的命名规则 通过[]操作符为对象添加属性时,属性名称可以是任何字符串(包括只 ...
 - redis报Cannot allocate memory错误
			
昨天16:27开始将dp的日志使用ELK处理,当时redis使用内存的量不是很大,100M多点,结果今天早上到了一看xshell被关掉了,赶紧将各服务启动起来,elasticsearch启动没有问题, ...
 - Java虚拟机(二):JVM内存模型
			
所有的Java开发人员可能会遇到这样的困惑?我该为堆内存设置多大空间呢?OutOfMemoryError的异常到底涉及到运行时数据的哪块区域?该怎么解决呢?其实如果你经常解决服务器性能问题,那么这些问 ...
 - C++调用C代码的两种方式
			
由于C++支持函数重载,在编译函数代码的时候会加上参数类型的信息,而C编译只有函数名信息,导致C++直接调用C代码在链接的时候会出现函数未定义的问题.解决这种问题有两种方法.方法一:在写C代码的时候考 ...
 - Tomcat 配置上传文件到项目外的路径
			
使用 Tomcat 作为服务器的时候,将上传文件保存在项目路径下,每次重启服务或者打成 war 包的时候很容易丢失上传的文件,于是我们配置 Tomcat 把文件保存到项目外的其他磁盘路径: 1. 打开 ...
 - 在LaTeX中配置西夏文字体与环境
			
目录 1 配置字族 2 粗体.斜体设定 3 文本编辑器的字体设定(以Sublime Text为例) 4 附录:一些字体的下载源 警告:这篇文章的部分内容需要西夏文字体才能正常显示.若您需要安装,可参考 ...
 - C语言实现将彩色BMP位图转化为二值图
			
CTF做了图片的隐写题,还没有形成系统的认识,先来总结一下BMP图的组成,并通过将彩色图转为二值图的例子加深下理解. 只写了位图二进制文件的格式和代码实现,至于诸如RGB色彩和调色板是什么的一些概念就 ...
 - WPF备忘录(7)WPF图片资源路径介绍
			
在项目中增加两张图片Content.jpg和Resource.jpg,分别将其生成操作属性设置为Content和Resource. 在界面中增加两个Image控件ImgContent和ImgR ...
 - 什么是SOA
			
面向服务的架构(SOA)是一个组件模型,它将应用程序的不同功能单元(称为服务)通过这些服务之间定义良好的接口和契约联系起来.接口是采用中立的方式进行定义的,它应该独立于实现服务的硬件平台.操作系统和编 ...