Redis与分布式锁的问题已经是老生常谈了,本文尝试总结一些Redis、Zookeeper实现分布式锁的常用方案,并提供一些比较好的实践思路(基于Java)。不足之处,欢迎探讨。
Redis分布式锁
单机Redis下实现分布式锁
方案1:使用SET命令。
假如当前客户端需要占有一个user_lock的锁,它首次需要生成一个token(一个随机字符串,例如uiid),并使用该token进行加锁。
加锁命令:
redis> SET user_lock <token> EX 15 NX
OK
EX:该键会在指定时间后指定过期,单位为秒,类似参数还有PX、EXAT、PXAT。
NX:只有该键不存在的时候才会设置key的值。
如果user_lock键不存在,上面Redis命令会成功创建该Redis键,并设置该键在15秒后过期。
而其他客户端也使用该命令进行加锁,在这15秒时间内,其他客户端加锁失败(NX参数保证了该Redis键存在时命令执行失败)。
所以,当前客户端中锁定了user_lock,锁的有效时间为15秒。
为什么要使用token、有效期呢?有以下原因:
(1)锁的有效期可以保证不会发生死锁的情况。通常占有锁的客户端操作完成后需要释放锁(删除Redis键),使用锁有效期后,即使占有锁的客户端故障下线,15秒后锁也会自动失效,其他客户端就可以抢占该锁,不会出现死锁的情况。
(2)token的作用是防止客户端释放了不是自己占有的锁。如果不使用token,所以客户端都使用同一个值作为键user_lock的值,假如客户端A占有了锁user_lock,但由于过期时间到了,user_lock键被Redis服务器删除,这时客户端B占有了锁。而客户端A完成操作后,直接使用DEL命令删除当前user_lock键,这样客户端A就删除了非自己占有的锁。而为每个客户端分配一个token,并且客户端释放锁时需要检测该锁当前是否为自己所占有,即键user_lock的值是否为自己的token,如果是才可以删除该键,就可以避免该问题。
这里涉及两个命令,可以LUA脚本保证原子性。如下面命令:
> EVAL "if redis.call('GET',KEYS[1]) == ARGV[1] then return redis.call('DEL',KEYS[1]) else return 0 end" 1 user_lock <token>
(integer) 1
该方案可参考官方文档:https://redis.io/commands/set
从上面内容可以看到,该方案的分布式锁并不是安全的,占有锁的客户端将在锁有效时间过后自动失去锁,这时其他客户端就可以占有该锁,这样将出现两个客户端同时占有一个锁的情况,分布式锁失效了。
所以,该方案锁的有效时间就非常重要,锁的有效时间设置过短,可能会出现分布式锁失效的情况,而有效时间设置过长,那么占有锁的客户端下线后,其他客户端仍然要无效等待较长时间才可以占有该锁,性能较差。
有没有更好一点的方案?我们看一下方案2。
方案2:自动延迟锁有效时间。
我们可以在一开始给锁设置一个较短的有效时间,并启动一个后台线程,在该锁失效前,主动延迟该锁的有效时间,
例如,在一开始时给锁设置有效时间为10秒,并启动一个后台线程,每隔9秒,就将锁的过期时间修改为当前时间10秒后。
示意代码如下:
new Thread(new Runnable() {
public void run() {
while(lockIsExist) {
redis.call("EXPIRE user_lock 10");
Thread.sleep(1000 * 9);
}
}
}).start();
这样就可以保证当前占用客户端的锁不会因为时间到期而失效,避免了分布式锁失效的问题,并且如果当前客户端故障下线,由于没有后台线程定时延迟锁有效时间,该锁也会很快自动失效。
提示;当前客户端释放锁的时候,需要停止该后台线程或者修改lockIsExist为false。
Java客户端Redisson提供了该方案,使用非常方便。
下面介绍一下如何使用Redisson实现Redis分布式锁。
(1)添加Redisson引用。
<dependency>
<groupId>org.redisson</groupId>
<artifactId>redisson</artifactId>
<version>3.16.4</version>
</dependency>
(2)使用示例如下:
Config config = new Config();
config.useSingleServer().setAddress("redis://localhost:6379");
RedissonClient redissonClient = Redisson.create(config);
RLock lock = redissonClient.getLock("user_lock");
lock.lock();
try {
// process...
} finally {
lock.unlock();
}
如果没有特殊原因,建议直接使用Redisson提供的分布式锁。
但这种方式就一定安全吗?
大家考虑这样一种场景,假如获得锁的客户端因为CPU负载过高或者GC等原因,负责延迟锁过期时间的线程没法按时获得CPU去执行任务,则同样会出现锁失效的场景。
该场景暂时没有比较好的处理方案,也不展开。
Sentinel、Cluster模式下实现分布式锁
实际生产环境中比较少使用单节点的Redis,通常会部署Sentinel、Cluster模型部署Redis集群,Redis在这两种模式下线实现分布式锁会有一个很麻烦的问题了。
为了保证高性能,Redis主从同步使用的是异步模式,就是说Redis主节点返回SET命令成功响应时,Redis从节点可能还没有同步该命令。
如果这时主节点故障下线了,那么就会出现以下情况:
(1)Sentinel、Cluster模式会选举一个从节点成为新主节点,而这个主节点是没有执行SET命令的。也就是说这时客户端并没有占有锁。
(2)客户端收到(之前主节点返回的)SET命令的成功响应,以为自己占有锁成功。
这时其他客户端也请求这个锁,也能占有这个锁,这时就会出现分布式锁失效的情况。
出现这个情况的本质是Redis使用了异步复制的方式同步主从节点数据,并不严格保证主从节点数据的一致性。
对此,Redis作者提出了RedLock算法,大概方案是部署多个单独的Redis主节点,并将SET命令同时发送到多个节点,当收到半数以上Redis主节点返回成功后,则认为加锁成功。
这种机制感觉与分布式一致性算法(如Raft算法)中利用的“Quorum机制”基本一致吧。
关于该方案是否能真正保证分布式锁安全,Redis作者与另一位大佬Martin爆发了热烈的讨论,本文偏向实战内容,这里不一一展示RedLock算法细节。
即使该算法可以真正保证分布式锁安全,如果你要使用该方案,也很麻烦,需要另外部署多个Redis主节点,还需要支持该算法的可靠的客户端。考虑这些情况,如果在严格要求分布式锁安全的情况,使用ZooKeeper、Etcd等严格保证数据一致性的组件更合适。
Zookeeper分布式锁
Zookeeper由于保证集群数据一致,并自带Watch,客户端过期失效检测等机制,非常适合实现分布式锁。
Zookeeper实现分布式锁的方式很简单,客户端通过创建临时节点来锁定分布式锁,如果创建成功,则加锁成功,否则,说明该锁已经被其他客户端锁定,这时当前客户端监听该临时节点变化,如果该临时节点被删除,则可以再次尝试锁定该分布式锁。
虽然ZooKeeper实现分布锁的不同方案细节不同,但整体基本基于该方案进行扩展。
这里推荐使用Curator框架(Netflix提供的ZooKeeper客户端)实现分布式锁,非常方便。
下面介绍一下Curator的使用。
(1)引入Curator引用
<dependency>
<groupId>org.apache.curator</groupId>
<artifactId>curator-framework</artifactId>
<version>3.3.0</version>
</dependency>
<dependency>
<groupId>org.apache.curator</groupId>
<artifactId>curator-recipes</artifactId>
<version>3.3.0</version>
</dependency>
注意Curator版本与ZooKeeper版本对应。
(2)使用InterProcessMutex类实现分布式锁。
CuratorFramework client = CuratorFrameworkFactory.newClient("127.0.0.1:2181", 60000, 15000,
new ExponentialBackoffRetry(1000, 3));
client.start();
InterProcessMutex lock = new InterProcessMutex(client, "/user_lock");
lock.acquire();
try {
// process...
} finally {
lock.release();
}
Curator支持多种分布式锁,非常全面:
-
InterProcessMutex:可重入排它锁,例子展示就是这种锁。
-
InterProcessSemaphoreMutex:不可重入排它锁。
-
InterProcessReadWriteLock:分布式读写锁。
使用方式也非常简单,这里不一一展开。
那么Zookeeper实现分布式锁一定安全吗?
假如客户端Client1在ZooKeeper中加锁成功,即成功创建了临时ZK节点,但Client1由于GC长时间没有响应ZooKeeper的心跳检测请求,ZooKeeper将Client1判断为失效,从而将临时ZK节点删除,这时客户端Client2请求加锁就可以成功加锁。那么这时就会出现Client1、Client2同时占有一个分布式锁,即分布式锁失效。
该场景与上面说的Redis延迟线程没有按时执行的场景有点类型,该场景展示也没有较好的解决方案。
虽然理论上ZooKeeper存在分布式锁失效的可能,但发生的概率应该比较,也可以通过增加ZooKeeper判断客户端的时间来减少这种场景,所以ZooKeeper分布式锁是可以满足绝大数要求分布式锁的场景的。
总结一下:
(1)如果不严格要求分布式锁安全,可以考虑在Sentinel、Cluster模式下使用Redis实现分布式锁。例如多个客户端同时获取锁并不会导致严重的业务问题,或者只是要求性能优化避免多个客户端同时操作等场景,都可以使用Redisson提供的分布式锁。
(2)如果严格要求分布式锁安全,则可以使用ZooKeeper、Etcd等组件实现分布式锁。
当然,建议使用Redisson、Curator等成熟框架实现分布式锁,避免重复编码,也减少错误风险。
如需系统学习Redis,可参考作者新书《Redis核心原理与实践》。本书通过深入分析Redis 6.0源码,总结了Redis核心功能的设计与实现。通过阅读本书,读者可以深入理解Redis内部机制及最新特性,并学习到Redis相关的数据结构与算法、Unix编程、存储系统设计,分布式系统架构等一系列知识。
语雀平台预览:https://www.yuque.com/binecy/redis
原文始发于微信公众号(binecy):Redis、Zookeeper实现分布式锁——原理与实践
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/21255.html