Etcd简介

etcd的特点:

  • 简单:基于HTTP+JSON的API,用curl命令就可以轻松使用
  • 安全:可选的SSL客户认证机制
  • 快速:每个实例每秒支持一千次写操作
  • 可信:使用Raft算法充分实现了分布式

使用场景:

服务发现
1
2
3
4
从本质上讲,服务发现就是想要了解集群中是否有进程在监听_UDP__TCP_端口,并且通过对应的字符串(名字)信息就可以进行查找和链接。要解决这些问题需要以下三大支柱,缺一不可:
1. 一个强一致性,高可用的服务存储目录 基于Raft算法的etcd天生就是这样一个强一致性,高可用的服务存储目录
2. 一种注册服务和监控服务健康状态的机制 用户可以在etcd中注册服务,并且对注册服务设置_key TTL_,定时保持服务的心跳以达到监控健康状态的效果
3. 一种查找和链接服务的机制 通过在etcd指定的主题下注册的服务也能在对应的主题下被查找到。为了确保连接,可以在每个服务机器上都部署一个Proxy模式的etcd,这样就可以确保能访问etcd集群的服务都能互相连接。
消息发布与订阅
1
在分布式系统中最适合组件间通信的方式就是消息发布与订阅机制
负载均衡
1
这里所说的指的是软负载均衡。在分布式系统中,为了保证服务的高可用以及数据的一致性,通常会部署多份数据和服务。以达到对等服务,即使其中一个服务失效了,也不影响使用。这样虽然会在一定程度上导致数据写入性能下降,但却能实现数据访问的负载均衡。
分布式通知与协调
1
这里讨论的分布式通知与协调,与消息发布与订阅有些相似。两者都使用了etc中的Watcher机制,通过注册和异步通知机制,实现了分布式环境下不同系统之间的通知与协调,从而对数据变化进行实时处理。具体实现方法通常为:不同系统都在etc上对同一目录进行注册,同时设置Watcher监控该目录的变化。当某个系统更新了etcd的目录,那么设置了Watcher的系统就会收到通知,并做出相应的处理。
  • 通过etcd进行低耦合的心跳检测 检测系统和被检测系统通过etcd上某个目录关联起来而不是直接关联,这样就大大降低了耦合
  • 通过etcd完成系统调度 某系统由控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台做的一些操作,实际上只需要修改etcd上某些目录节点的状态,etcd就会自动把这些变化通知给注册了Watcher的推送系统客户端,推送系统再作出相应的推送服务。
  • 通过etcd完成工作汇报 大部分类似的任务分发系统会在子任务启动后,到etcd来注册一个临时目录,并且定时将自己的进度进行汇报(即将进度写入到这个临时目录),这样任务管理者就能实时知道任务进度
分布式锁与竞选
1
etcd使用Raft算法保持了数据的强一致性,某次操作存储到集群中的值必然是全局一致的,因此很容易实现分布式锁。

锁服务有两种方式

  • 保持独占

    所有试图获得锁的用户最终只有一个可以得到。etcd为此提供了一套实现分布式锁原子操作CAS(CompareAndSwap)的API。通过设置preExist值,可以保证在多个节点同时创建某个目录时,只有一个成功,而该用户即可认为获得了锁

  • 控制时序

    所有试图获得锁的用户都会进入等待队列,获得锁的顺序是全局唯一的,同时决定了队列的执行顺序。etcd也为此提供了一套API(自动创建有序健),对一个目录建值时指定为POST动作,这样etcd会自动在目录下生成一个当前最大的值为健,存储这个新的值(客户端编号),同时还可以使用API按顺序列出所有当前目录下的键值。此时这些健的值就是客户端的时序,而这些健中存储的值可以是代表客户端的编号。

    另外,使用分布式锁可以完成Leader竞选。对于一些长时间的CPU计算或者使用I/O操作,只需要由竞选出的Leader计算或者处理一次,再把结果复制给其他Follwer即可,从而避免重复劳动,节约计算资源。

分布式队列

分布式队列的常规用法与控制时序的分布式锁用法类似,即创建一个先进先出的队列,保证顺序。

1
2
3
4
另一种比较有意思的实现是在保证队列达到某个条件时再统一按顺序执行。这种方法的实现可以在/queue这个目录下另外建立一个/queue/condition的节点。
condition可以表示队列大小。例如,一个大的任务需要在很多小任务就绪情况下才能执行,每次有一个小任务就绪,就给condition数字加1,直到达到大任务规定的数字,再开始执行队列里的一系列小任务,最终执行大任务。
condition可以表示某个任务是否在队列。这个任务可以是所有排序任务的首个执行程序,也可以是拓扑结构中没有依赖的点。通常,必须执行这些任务后才能执行队列中的其它任务。
condition还可以表示其它的一类开始执行任务的通知。可以控制程序指定,当condition出现变化时,开始执行队列任务。
集群监控

通过etcd来进行监控,实现起来非常简单并且实时性强,主要用到了以下两点特性:

  • Watcher机制,当某个节点消失或有变动时,Watcher并第一时间发现并告知用户。
  • 节点可以设置TTL key,例如:每隔30秒向etcd发送一次心跳,代表节点仍然存活;否则说明节点消失。

Zookeeper应用场景一览

数据发布与订阅(配置中心)

发布与订阅模型,即所谓的配置中心,顾名思义就是发布者将数据发布到ZK节点上,供订阅者动态获取数据,实现配置信息的集中式管理和动态更新。例如全局的配置信息,服务式服务框架的服务地址列表等就非常适合使用。

  • 应用中用到的一些配置信息放到ZK上进行集中管理。这类场景通常是这样:应用在启动的时候会主动来获取一次配置,同时,在节点上注册一个Watcher,这样一来,以后每次配置有更新的时候,都会实时通知到订阅的客户端,从来达到获取最新配置信息的目的。

  • 分布式搜索服务中,索引的元信息和服务器集群机器的节点状态存放在ZK的一些指定节点,供各个客户端订阅使用。

  • 分布式日志收集系统。这个系统的核心工作是收集分布在不同机器的日志。收集器通常是按照应用来分配收集任务单元,因此需要在ZK上创建一个以应用名作为path的节点P,并将这个应用的所有机器ip,以子节点的形式注册到节点P上,这样一来就能够实现机器变动的时候,能够实时通知到收集器调整任务分配。

  • 系统中有些信息需要动态获取,并且还会存在人工手动去修改这个信息的发问。通常是暴露出接口,例如JMX接口,来获取一些运行时的信息。引入ZK之后,就不用自己实现一套方案了,只要将这些信息存放到指定的ZK节点上即可。

    注意:在上面提到的应用场景中,有个默认前提是:数据量很小,但是数据更新可能会比较快的场景。

负载均衡

这里说的负载均衡是指软负载均衡。在分布式环境中,为了保证高可用性,通常同一个应用或同一个服务的提供方都会部署多份,达到对等服务。而消费者就须要在这些对等的服务器中选择一个来执行相关的业务逻辑,其中比较典型的是消息中间件中的生产者,消费者负载均衡。

消息中间件中发布者和订阅者的负载均衡,linkedin开源的KafkaMQ和阿里开源的metaq都是通过zookeeper来做到生产者、消费者的负载均衡。这里以metaq为例如讲下:

生产者负载均衡:

metaq发送消息的时候,生产者在发送消息的时候必须选择一台broker上的一个分区来发送消息,因此metaq在运行过程中,会把所有broker和对应的分区信息全部注册到ZK指定节点上,默认的策略是一个依次轮询的过程,生产者在通过ZK获取分区列表之后,会按照brokerId和partition的顺序排列组织成一个有序的分区列表,发送的时候按照从头到尾循环往复的方式选择一个分区来发送消息。

消费负载均衡:

在消费过程中,一个消费者会消费一个或多个分区中的消息,但是一个分区只会由一个消费者来消费。MetaQ的消费策略是:

  • 每个分区针对同一个group只挂载一个消费者。
  • 如果同一个group的消费者数目大于分区数目,则多出来的消费者将不参与消费。
  • 如果同一个group的消费者数目小于分区数目,则有部分消费者需要额外承担消费任务。
    在某个消费者故障或者重启等情况下,其他消费者会感知到这一变化(通过 zookeeper watch消费者列表),然后重新进行负载均衡,保证所有的分区都有消费者进行消费。
命名服务(Naming Service)

命名服务也是分布式系统中比较常见的一类场景。在分布式系统中,通过使用命名服务,客户端应用能够根据指定名字来获取资源或服务的地址,提供者等信息。被命名的实体通常可以是集群中的机器,提供的服务地址,远程对象等等——这些我们都可以统称他们为名字(Name)。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用ZK提供的创建节点的API,能够很容易创建一个全局唯一的path,这个path就可以作为一个名称。

阿里巴巴集团开源的分布式服务框架Dubbo中使用ZooKeeper来作为其命名服务,维护全局的服务地址列表,点击这里查看Dubbo开源项目。在Dubbo实现中:

服务提供者在启动的时候,向ZK上的指定节点/dubbo/${serviceName}/providers目录下写入自己的URL地址,这个操作就完成了服务的发布。

服务消费者启动的时候,订阅/dubbo/${serviceName}/providers目录下的提供者URL地址, 并向/dubbo/${serviceName} /consumers目录下写入自己的URL地址。

*注意,所有向ZK上注册的地址都是临时节点,这样就能够保证服务提供者和消费者能够自动感应资源的变化。
另外,Dubbo还有针对服务粒度的监控,方法是订阅/dubbo/${serviceName}目录下所有提供者和消费者的信息。*

分布式通知/协调

ZooKeeper中特有watcher注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知与协调,实现对数据变更的实时处理。使用方法通常是不同系统都对ZK上同一个znode进行注册,监听znode的变化(包括znode本身内容及子节点的),其中一个系统update了znode,那么另一个系统能够收到通知,并作出相应处理

  • 另一种心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是通过zk上某个节点关联,大大减少系统耦合。
  • 另一种系统调度模式:某系统有控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台作的一些操作,实际上是修改了ZK上某些节点的状态,而ZK就把这些变化通知给他们注册Watcher的客户端,即推送系统,于是,作出相应的推送任务。
  • 另一种工作汇报模式:一些类似于任务分发系统,子任务启动后,到zk来注册一个临时节点,并且定时将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。

*总之,使用zookeeper来进行分布式通知和协调能够大大降低系统之间的耦合*

集群管理与Master选举
  • 集群机器监控:这通常用于那种对集群中机器状态,机器在线率有较高要求的场景,能够快速对集群中机器变化作出响应。这样的场景中,往往有一个监控系统,实时检测集群机器是否存活。过去的做法通常是:监控系统通过某种手段(比如ping)定时检测每个机器,或者每个机器自己定时向监控系统汇报“我还活着”。 这种做法可行,但是存在两个比较明显的问题:

集群中机器有变动的时候,牵连修改的东西比较多。

有一定的延时。

利用ZooKeeper有两个特性,就可以实时另一种集群机器存活性监控系统:

  • 客户端在节点 x 上注册一个Watcher,那么如果 x?的子节点变化了,会通知该客户端。
  • 创建EPHEMERAL类型的节点,一旦客户端和服务器的会话结束或过期,那么该节点就会消失。
    例如,监控系统在 /clusterServers 节点上注册一个Watcher,以后每动态加机器,那么就往 /clusterServers 下创建一个 EPHEMERAL类型的节点:/clusterServers/{hostname}. 这样,监控系统就能够实时知道机器的增减情况,至于后续处理就是监控系统的业务了。
  • Master选举则是zookeeper中最为经典的应用场景了

在分布式环境中,相同的业务应用分布在不同的机器上,有些业务逻辑(例如一些耗时的计算,网络I/O处理),往往只需要让整个集群中的某一台机器进行执行,其余机器可以共享这个结果,这样可以大大减少重复劳动,提高性能,于是这个master选举便是这种场景下的碰到的主要问题。

利用ZooKeeper的强一致性,能够保证在分布式高并发情况下节点创建的全局唯一性,即:同时有多个客户端请求创建 /currentMaster 节点,最终一定只有一个客户端请求能够创建成功。利用这个特性,就能很轻易的在分布式环境中进行集群选取了。

另外,这种场景演化一下,就是动态Master选举。这就要用到?EPHEMERAL_SEQUENTIAL类型节点的特性了。

上文中提到,所有客户端创建请求,最终只有一个能够创建成功。在这里稍微变化下,就是允许所有请求都能够创建成功,但是得有个创建顺序,于是所有的请求最终在ZK上创建结果的一种可能情况是这样: /currentMaster/{sessionId}-1 ,?/currentMaster/{sessionId}-2 ,?/currentMaster/{sessionId}-3 ….. 每次选取序列号最小的那个机器作为Master,如果这个机器挂了,由于他创建的节点会马上小时,那么之后最小的那个机器就是Master了。

  • 在搜索系统中,如果集群中每个机器都生成一份全量索引,不仅耗时,而且不能保证彼此之间索引数据一致。因此让集群中的Master来进行全量索引的生成,然后同步到集群中其它机器。另外,Master选举的容灾措施是,可以随时进行手动指定master,就是说应用在zk在无法获取master信息时,可以通过比如http方式,向一个地方获取master。
  • 在Hbase中,也是使用ZooKeeper来实现动态HMaster的选举。在Hbase实现中,会在ZK上存储一些ROOT表的地址和HMaster的地址,HRegionServer也会把自己以临时节点(Ephemeral)的方式注册到Zookeeper中,使得HMaster可以随时感知到各个HRegionServer的存活状态,同时,一旦HMaster出现问题,会重新选举出一个HMaster来运行,从而避免了HMaster的单点问题
分布式锁

分布式锁,这个主要得益于ZooKeeper为我们保证了数据的强一致性。锁服务可以分为两类,一个是保持独占另一个是控制时序

所谓保持独占,就是所有试图来获取这个锁的客户端,最终只有一个可以成功获得这把锁。通常的做法是把zk上的一个znode看作是一把锁,通过create znode的方式来实现。所有客户端都去创建 /distribute_lock 节点,最终成功创建的那个客户端也即拥有了这把锁。

控制时序,就是所有视图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里 /distribute_lock 已经预先存在,客户端在它下面创建临时有序节点(这个可以通过节点的属性控制:CreateMode.EPHEMERAL_SEQUENTIAL来指定)。Zk的父节点(/distribute_lock)维持一份sequence,保证子节点创建的时序性,从而也形成了每个客户端的全局时序。

分布式队列

队列方面,简单地讲有两种,一种是常规的先进先出队列另一种是要等到队列成员聚齐之后的才统一按序执行。

对于第一种先进先出队列,和分布式锁服务中的控制时序场景基本原理一致,这里不再赘述。

第二种队列其实是在FIFO队列的基础上作了一个增强。

通常可以在 /queue 这个znode下预先建立一个/queue/num 节点,并且赋值为n(或者直接给/queue赋值n),表示队列大小,之后每次有队列成员加入后,就判断下是否已经到达队列大小,决定是否可以开始执行了。这种用法的典型场景是,分布式环境中,一个大任务Task A,需要在很多子任务完成(或条件就绪)情况下才能进行。这个时候,凡是其中一个子任务完成(就绪),那么就去 /taskList 下建立自己的临时时序节点(CreateMode.EPHEMERAL_SEQUENTIAL),当 /taskList 发现自己下面的子节点满足指定个数,就可以进行下一步按序进行处理了。


etcd vs. Zookeeper?

etcd能实现的Zookeeper都能实现,但是与etcd相比Zookeeper有如下缺点:

  • 复杂 Zookeeper的部署维护复杂,而Paxos强一致性算法也素来以复杂闻名于世;另外Zookeeper使用也比较复杂,需要安装客户端,官方只提供了java和c两种语言的接口。
  • Java编写 java本身偏重于重型应用,他会引入大量依赖
  • 发展缓慢

而etcd作为后起之秀,优点明显:

  • 简单
  • 数据持久化 etcd默认数据一更新就进行持久化
  • 安全

本博客所有文章除特别声明外,均采用 CC BY-SA 4.0 协议 ,转载请注明出处!