1、前言
在大规模微服务架构的场景下,为了避免服务出现雪崩,要减少停机时间,尽可能的提高服务可用性。提高服务可用性,可以从很多方向入手,比如缓存、池化、异步化、负载均衡、队列和降级熔断等手段。
-
缓存以及队列等手段,增加系统的容量 -
限流和降级则是关心在到达系统瓶颈时系统的响应,更看重稳定性
缓存和异步等关注提高系统战力,而限流降级则关注增强系统防御,具体实施方法可以归纳为八字箴言,限流、降级、熔断、隔离。
2、限流&降级
2.1、限流
-
限流,顾名思义,即提前对各个类型的请求设置最高的QPS阈值,若高于设置的阈值则对该请求直接返回,不再调用后续资源。
-
限流需要结合压测等,了解系统的最高水位,也是在实际开发中应用最多的一种稳定性保障手段。
2.2、降级
-
降级,则是指在系统调用高峰时,优先保证核心服务,对于非核心服务可以选择将其关闭以保证核心服务的可用。 例如在淘宝双11时,支付功能是核心,其他诸如用户中心等非核心功能可以选择降级,优先保证交易。
-
从降级配置方式上,降级一般可以分为主动降级和自动降级
-
超时降级 -
失败次数降级 -
故障降级 -
主动降级是提前配置,自动降级则是系统发生故障时,如超时或者频繁失败,自动降级。 -
其中自动降级,又可以分为以下策略:
2.3、降级通知设计
在系统设计中,降级一般是结合系统配置中心,通过配置中心进行推送,下面是一个典型的降级通知设计:

3、 熔断&隔离
3.1、熔断
-
如果某个目标服务调用慢或者有大量超时,此时熔断该服务的调用,对于后续调用请求,不在继续调用目标服务,直接返回,快速释放资源。
-
熔断一般需要设置不同的恢复策略,如果目标服务情况好转则恢复调用。
3.2、隔离
“
服务隔离与前面的三个略有区别,我们的系统通常提供了不止一个服务,但是这些服务在运行时是部署在一个实例,或者一台物理机上面的,如果不对服务资源做隔离,一旦一个服务出现了问题,整个系统的稳定性都会受到影响!
-
服务隔离的目的就是避免服务之间相互影响。一般来说,隔离要关注两方面,一个是在哪里进行隔离,另外一个是隔离哪些资源。
-
何处隔离?
-
一次服务调用,涉及到的是服务提供方和调用方,我们所指的资源,也是两方的服务器等资源,服务隔离通常可以从提供方和调用方两个方面入手。 -
隔离什么?
-
广义的服务隔离,不仅包括服务器资源,还包括数据库分库,缓存,索引等,这里我们只关注服务层面的隔离。
3.3、降级和熔断的区别
服务降级和熔断在概念上比较相近,通过两个场景,谈谈我自己的理解。
-
熔断,一般是停止服务
典型的就是股市的熔断,如果大盘不受控制,直接休市,不提供服务,是保护大盘的一种方式。
-
降级,通常是有备用方案
从深圳到郑州,下雨导致航班延误,我可以乘坐高铁,如果高铁票买不到,也可以乘坐汽车或者开车过去。
-
两者的区别
降级一般是主动的,有预见性的,熔断通常是被动的,服务A降级以后,一般会有服务B来代替,而熔断通常是针对核心链路的处理。在实际开发中,熔断的下一步通常就是降级。
4、常用限流算法设计
4.1、计数器法
“
计数器法是限流算法里最简单也是最容易实现的一种算法。
-
假设一个接口限制一分钟内的访问次数不能超过100个,维护一个计数器,每次有新的请求过来,计数器加一,这时候判断,如果计数器的值小于限流值,并且与上一次请求的时间间隔还在一分钟内,允许请求通过,否则拒绝请求,如果超出了时间间隔,要将计数器清零。
-
计数器限流可以比较容易的应用在分布式环境中,用一个单点的存储来保存计数值,比如用Redis,并且设置自动过期时间,这时候就可以统计整个集群的流量,并且进行限流。
-
计数器方式的缺点是不能处理临界问题,或者说限流策略不够平滑。假设在限流临界点的前后,分别发送100个请求,实际上在计数器置0前后的极短时间里,处理了200个请求,这是一个瞬时的高峰,可能会超过系统的限制。
-
计数器限流允许出现
2*permitsPerSecond
的突发流量,可以使用滑动窗口算法去优化
4.2 漏桶算法
-
假设我们有一个固定容量的桶,桶底部可以漏水(忽略气压等,不是物理问题),并且这个漏水的速率可控的,那么我们可以通过这个桶来控制请求速度,也就是漏水的速度。
-
我们不关心流进来的水,也就是外部请求有多少,桶满了之后,多余的水会溢出。
漏桶算法的示意图如下:
-
将算法中的水换成实际应用中的请求,可以看到漏桶算法从入口限制了请求的速度。 -
使用漏桶算法,我们可以保证接口会以一个常速速率来处理请求,所以漏桶算法不会出现临界问题。漏桶算法无法解决系统突发流量的情况 -
可以使用 Guava
的SmoothWarmingUp
类,可以更好的控制漏桶算法,
4.3 令牌桶算法
-
假设一个大小恒定的桶,桶里存放着令牌(token)。桶一开始是空的,现在以一个固定的速率往桶里填充,直到达到桶的容量,多余的令牌将会被丢弃。
-
如果令牌不被消耗,或者被消耗的速度小于产生的速度,令牌就会不断地增多,直到把桶填满。后面再产生的令牌就会从桶中溢出。最后桶中可以保存的最大令牌数永远不会超过桶的大小,
-
每当一个请求过来时,就会尝试从桶里移除一个令牌,如果没有令牌的话,请求无法通过
-
在令牌桶算法中,只要令牌桶中存在令牌,那么就允许突发地传输数据直到达到用户配置的门限,因此它适合于具有突发特性的流量。
4.4、令牌桶和漏桶区别
-
漏桶是控制水流入的速度,令牌桶则是控制流出,通过控制token,调节流量。
-
令牌桶算法相对漏桶算法的优势在于可以处理系统的突发流量
-
这两种算法的主要区别在于漏桶算法能够强行限制数据的传输速率,而令牌桶算法在能够限制数据的平均传输速率外,还允许某种程度的突发传输。
5、使用RateLimiter实现限流
-
Google
开源工具包Guava
提供了限流工具类RateLimiter
,该类基于令牌桶算法实现流量限制,使用方便。 -
RateLimiter
使用的是令牌桶的流控算法,RateLimiter
会按照一定的频率往桶里扔令牌,线程拿到令牌才能执行,比如你希望自己的应用程序QPS不要超过1000,那么RateLimiter
设置1000的速率后,就会每秒往桶里扔1000个令牌,方法说明如下:
import com.google.common.util.concurrent.RateLimiter;
import java.util.concurrent.CountDownLatch;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
public class RateLimiterExample {
public static void main(String[] args) throws InterruptedException {
// qps设置为5,代表一秒钟只允许处理五个并发请求
RateLimiter rateLimiter = RateLimiter.create(5);
ExecutorService executorService = Executors.newFixedThreadPool(5);
int nTasks = 10;
CountDownLatch countDownLatch = new CountDownLatch(nTasks);
long start = System.currentTimeMillis();
for (int i = 0; i < nTasks; i++) {
final int j = i;
executorService.submit(() -> {
rateLimiter.acquire(1);
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
}
System.out.println(Thread.currentThread().getName() + " gets job " + j + " done");
countDownLatch.countDown();
});
}
executorService.shutdown();
countDownLatch.await();
long end = System.currentTimeMillis();
System.out.println("10 jobs gets done by 5 threads concurrently in " + (end - start) + " milliseconds");
}
}
5.1、算法原理
RateLimiter
基于令牌桶算法,它的核心思想主要有:
-
响应本次请求之后,动态计算下一次可以服务的时间,如果下一次请求在这个时间之前则需要进行等待。 SmoothRateLimiter
类中的nextFreeTicketMicros
属性表示下一次可以响应的时间。例如,如果我们设置QPS为1,本次请求处理完之后,那么下一次最早的能够响应请求的时间一秒钟之后。 -
RateLimiter
的子类SmoothBursty
支持处理突发流量请求,例如,我们设置QPS为1,在十秒钟之内没有请求,那么令牌桶中会有10个(假设设置的最大令牌数大于10)空闲令牌,如果下一次请求是acquire(20)
,则不需要等待20秒钟,因为令牌桶中已经有10个空闲的令牌。SmoothRateLimiter
类中的storedPermits
就是用来表示当前令牌桶中的空闲令牌数。 -
acquire
方法没有等待超时的概念,会一直阻塞直到满足本次请求。 -
RateLimiter
子类SmoothWarmingUp
不同于SmoothBursty
,它存在一个“热身”的概念。它将storedPermits
分成两个区间值:[0, thresholdPermits) 和 [thresholdPermits, maxPermits]。当请求进来时,如果当前系统处于”cold”的状态,从 [thresholdPermits, maxPermits] 区间去拿令牌,所需要等待的时间会长于从区间 [0, thresholdPermits) 拿相同令牌所需要等待的时间。当请求增多,storedPermits
减少到thresholdPermits
以下时,此时拿令牌所需要等待的时间趋于稳定。这也就是所谓“热身”的过程。这个过程后面会详细分析。
RateLimiter
主要的类的类图如下所示:

RateLimiter
是一个抽象类,SmoothRateLimiter
继承自RateLimiter
,不过 SmoothRateLimiter
仍然是一个抽象类,SmoothBursty
和SmoothWarmingUp
才是具体的实现类。
5.2、SmoothRateLimiter主要属性
storedPermits
表明当前令牌桶中有多少令牌。maxPermits
表示令牌桶最大令牌数目,storedPermits
的取值范围为:[0, maxPermits]。stableIntervalMicros
等于 1/qps
,它代表系统在稳定期间,两次请求之间间隔的微秒数。例如:如果我们设置的 qps 为5,则 stableIntervalMicros
为200ms。nextFreeTicketMicros
表示系统处理完当前请求后,下一次请求被许可的最短微秒数,如果在这之前有请求进来,则必须等待。
当我们设置了 qps 之后,需要计算某一段时间系统能够生成的令牌数目,那么怎么计算呢?一种方式是开启一个后台任务去做,但是这样代价未免有点大。RateLimiter
中采取的是惰性计算方式:在每次请求进来的时候先去计算上次请求和本次请求之间应该生成多少个令牌。
末
【面试系列】会持续更新,欢迎关注公众号“任冬学编程”,一起学习与进步!
原文始发于微信公众号(任冬学编程):高可用之限流降级
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/26099.html