Redis分布式锁以及ABP应用
分布式锁其实就是,控制分布式系统不同进程共同访问共享资源的一种锁的实现。如果不同的系统或同一个系统的不同主机之间共享了某个临界资源,往往需要互斥来防止彼此干扰,以保证一致性。
分布式锁的特征
一把靠谱的分布式锁应该有哪些特征:
- 互斥性:任意时刻,只有一个客户端能持有锁
- 锁超时释放:持有锁超时,可以释放,防止不必要的资源浪费,也可以防止死锁
- 可重入性:一个线程如果获取了锁之后,可以再次对其请求加锁
- 高性能和高可用:加锁和解锁需要开销尽可能低,同时也要保证高可用,避免分布式锁失效
- 安全性:锁只能被持有的客户端删除,不能被其他客户端删除
ABP使用分布式锁
ABP当前的分布式锁实现基于DistributedLock库.
安装
安装依赖包
1 | abp add-package Volo.Abp.DistributedLocking |
配置提供程序
DistributedLock库对Redis和ZooKeeper提供多种实现。
如果要Redis,需要将DistributedLock.Redis NuGet包添加到项目中,然后在模块类中注册,如下:
1 | using Medallion.Threading; |
配置appsettings.json
文件
1 | "Redis": { |
使用
有两种方法可以使用分布式锁API:ABP的IAbpDistributedLock
抽象和DistributedLock库的API。
使用IAbpDistributedLock服务
示例:使用IAbpDistributedLock.TryAcquireAsync
方法
1 | using Volo.Abp.DistributedLocking; |
TryAcquireAsync
可能无法获取锁. 如果无法获取锁, 则返回null
. 在这种情况下, 你不应该访问资源. 如果句柄不为null
, 则表示你已获得锁, 并且可以安全地访问资源.
TryAcquireAsync
方法拥有以下参数:
name
(string
, 必须): 锁的唯一名称. 不同的锁命名用于访问不同的资源.timeout
(TimeSpan
): 等待获取锁的超时值. 默认值为TimeSpan.Zero
, 这意味着如果锁已经被另一个应用程序拥有, 它不会等待.cancellationToken
: 取消令牌可在触发后取消操作.
配置
AbpDistributedLockOptions
AbpDistributedLockOptions
是配置分布式锁的主要选项类.
示例: 设置应用程序的分布式锁Key前缀
1 | Configure<AbpDistributedLockOptions>(options => |
Redis实现分布式锁方案
方案1:SETNX + EXPIRE
使用setnx
+ expire
命令,即先用setnx
来抢锁,如果抢到之后再用expire
给锁设置一个过期时间,防止忘记释放
SETNX 是SET IF NOT EXISTS的简写.日常命令格式是SETNX key value,如果 key不存在,则SETNX成功返回1,如果这个key已经存在了,则返回0。
假设某电商网站的某商品做秒杀活动,key可以设置为key_resource_id,value设置任意值,伪代码如下:
1 | if(jedis.setnx(key_resource_id,lock_value) == 1){ //加锁 |
但是这个方案中,setnx
和expire
两个命令分开了,不是原子操作。如果执行完setnx
加锁,正要执行expire
设置过期时间时,进程crash或者要重启维护了,那么这个锁就“长生不老”了,别的线程永远获取不到锁。
方案2:SETNX + Value值
为了解决方案1:发生异常锁得不到释放的场景,可以把过期时间放到setnx
的value
值里面。如果加锁失败,再拿出value值校验一下即可。
加锁代码如下:
1 | long expires = System.currentTimeMillis() + expireTime; //系统时间+设置的过期时间 |
这个方案的优点是,巧妙移除expire
单独设置过期时间的操作,把过期时间放到setnx
的value
值里面来。解决了方案一发生异常,锁得不到释放的问题。
但是这个方案还有别的缺点:
- 过期时间是客户端自己生成的(
System.currentTimeMillis()
是当前系统的时间),必须要求分布式环境下,每个客户端的时间必须同步。 - 如果锁过期的时候,并发多个客户端同时请求过来,都执行
jedis.getSet()
,最终只能有一个客户端加锁成功,但是该客户端锁的过期时间,可能被别的客户端覆盖 - 该锁没有保存持有者的唯一标识,可能被别的客户端释放/解锁。
方案3:使用Lua脚本
可以使用Lua脚本来保证原子性(包含setnx
和expire
两条指令),lua
脚本如下:
1 | if redis.call('setnx',KEYS[1],ARGV[1]) == 1 then |
加锁代码如下:
1 | String lua_scripts = "if redis.call('setnx',KEYS[1],ARGV[1]) == 1 then" + |
方案4:SET的扩展命令
除了使用Lua脚本保证SETNX + EXPIRE
两条指令的原子性,=还可以巧用Redis的SET指令扩展参数(SET key value[EX seconds][PX milliseconds][NX|XX]
),也是原子性的。
SET key value[ EX seconds ][PX milliseconds][NX|XX]
- NX :表示key不存在的时候,才能set成功,也即保证只有第一个客户端请求才能获得锁,而其他客户端请求只能等其释放锁,才能获取。
- EX seconds :设定key的过期时间,时间单位是秒。
- PX milliseconds: 设定key的过期时间,单位为毫秒
- XX: 仅当key存在时设置值
伪代码示例如下:
1 | if(jedis.set(key_resource_id, lock_value, "NX", "EX", 100s) == 1){ //加锁 |
这个方案还是可能存在问题:
- 问题一:锁过期释放了,业务还没执行完,假设线程a获取锁成功,一直在执行临界区的代码。但是100s过去后,它还没执行完。但是这时候锁已经过期了,此时线程b又请求过来。显然线程b就可以获得锁成功,也开始执行临界区的代码。那么问题就来了,临界区的业务代码都不是严格串行执行。
- 问题二:锁被别的线程误删,假设线程a执行完后,去释放锁。但是它不知道当前的锁可能是线程b持有的(线程a去释放锁时,有可能过期时间已经到了,此时线程b进来占有了锁)。那线程a就把线程b的锁释放掉了,但是线程b临界区业务代码可能都还没执行完。
方案5:方案4+唯一随机值
既然锁可能被别的线程误删,给value值设置一个标记当前线程唯一的随机数,在删除的时候,校验一下。
伪代码如下:
1 | if(jedis.set(key_resource_id, uni_request_id, "NX", "EX", 100s) == 1){ //加锁 |
在这里,判断是不是当前线程加的锁和释放锁不是一个原子操作。如果调用jedis.del()
释放锁的时候,可能这把锁已经不属于当前客户端,会解除他人加的锁。
为了更严谨,一般也是用lua
脚本代替:
1 | if redis.call('get',KEYS[1]) == ARGV[1] then |
方案6:Redisson框架
方案5还是可能存在锁过期释放,业务没执行完的问题。设想一下,是否可以给获得锁的线程,开启一个定时守护线程,每隔一段时间检查锁是否还存在,存在则对锁的过期时间延长,防止锁过期提前释放。
当前开源框架Redisson解决了这个问题。
只要线程一加锁成功,就会启动一个watch dog
看门狗,它是一个后台线程,会每隔10秒检查一下,如果线程1还持有锁,那么就会不断的延长锁key的生存时间。因此,Redisson
就解决了锁过期释放,业务没执行完问题。
方案7:集群分布式锁Redlock+Redisson
Redis一般都是集群部署
如果线程一在Redis的master节点上拿到了锁,但是加锁的key还没同步到slave节点。恰好这时,master节点发生故障,一个slave节点就会升级为master节点。线程二就可以获取同个key的锁啦,但线程一也已经拿到锁了,锁的安全性就没了。
为了解决这个问题,Redis作者 antirez提出一种高级的分布式锁算法:Redlock
:
搞多个Redis master部署,以保证它们不会同时宕掉。并且这些master节点是完全相互独立的,相互之间不存在数据同步。同时,需要确保在这多个master实例上,是与在Redis单实例,使用相同方法来获取和释放锁。
假设当前有5个Redis master节点,在5台服务器上面运行这些Redis实例。
RedLock
的实现步骤:
- 获取当前时间,以毫秒为单位。
- 按顺序向5个master节点请求加锁。客户端设置网络连接和响应超时时间,并且超时时间要小于锁的失效时间。(假设锁自动失效时间为10秒,则超时时间一般在5-50毫秒之间)。如果超时,跳过该master节点,尽快去尝试下一个master节点。
- 客户端使用当前时间减去开始获取锁时间(即步骤1记录的时间),得到获取锁使用的时间。当且仅当超过一半(N/2+1,这里是5/2+1=3个节点)的Redis master节点都获得锁,并且使用的时间小于锁失效时间时,锁才算获取成功。(如上图,10s> 30ms+40ms+50ms+4m0s+50ms)
- 如果取到了锁,key的真正有效时间就变,需要减去获取锁所使用的时间。
- 如果获取锁失败(没有在至少N/2+1个master实例取到锁,有或者获取锁时间已经超过了有效时间),客户端要在所有的master节点上解锁(即便有些master节点根本就没有加锁成功,也需要解锁,以防止有些漏网之鱼)。
简化下步骤就是:
- 按顺序向5个master节点请求加锁。
- 根据设置的超时时间来判断,是不是要跳过该master节点。
- 如果大于等于3个节点加锁成功,并且使用的时间小于锁的有效期,即可认定加锁成功啦。
- 如果获取锁失败,解锁。