Java与Mysql锁相关知识总结
作者:IntoTw 时间:2024-01-17 14:24:19
锁的定义
在计算机程序中锁用于独占资源,获取到锁才可以操作对应的资源。
锁的实现
锁在计算机底层的实现,依赖于CPU提供的CAS指令(compare and swsp),对于一个内存地址,会比较原值以及尝试去修改的值,通过值是否修改成功,来表示是否强占到了这个锁。
JVM中的锁
jvm中,有2个常用的锁
synchronized
synchronized是java提供的关键字锁,可以锁对象,类,方法。
在JDK1.6以后,对synchronized进行了优化,增加了偏向锁和轻量锁模式,现在synchronized锁的运行逻辑如下:
在初始加锁时,会增加偏向锁,即“偏向上一次获取该锁的线程”,在偏向锁下,会直接CAS获取该锁。该模式大大提高了单线程反复获取同一个锁的吞吐情况,在Java官方看来,大部分锁的争抢都发生在同个线程上。
如果偏向锁CAS获取失败,说明当前线程与偏向锁偏向的线程不同,偏向锁就会升级成轻量锁,轻量锁的特点就是通过自旋CAS去获取锁。
如果自旋获取失败,那么锁就会升级成重量锁,所有等待锁的线程将被JVM挂起,在锁释放后,再由JVM统一通知唤醒,再去尝试CAS锁,如果失败,继续挂起。
很显然,偏向锁设计的目的是“在Java官方看来,对同一个锁的争抢大部分都发生在同个线程上”。
轻量锁设计的目的是“在短期内,锁的争抢通过自旋CAS就可以获取到,短时间内的CPU自旋消耗小于线程挂起再唤醒的消耗”。
重量锁就是最初优化前的synchronized的逻辑了。
ReentrantLock
说到ReentrantLock,就不得不说到JUC里的AQS了。
AQS全称AbstractQueueSynchronizer,几乎JUC里所有的工具类,都依赖AQS实现。
AQS在java里,是一个抽象类,但是本质上是一种思路在java中的实现而已。
AQS的实现逻辑如下:
构造一个队列
队列中维护需要等待锁的线程
头结点永远是持有锁(或持有资源)的节点,等待的节点在头结点之后依次连接。
头结点释放锁后,会按照顺序去唤醒那些等待的节点,然后那些节点会再次去尝试获取锁。
在synchronized锁优化以后,AQS的本质与synchronized并没有太大不同,两者的性能也并没有太大差距了,所以AQS现在的特点是:
是在java api层面实现的锁,所以可以实现各种并发工具类,操作也更加灵活
因为提供了超时时间等机制,操作灵活,所以不易死锁。(相同的,如果发生死锁,将更难排查,因为jstack里将不会有deadlock标识)。
可以实现公平锁,而synchronized必定是非公平锁。
因为是JavaApi层实现的锁,所以可以响应中断。
到这里你会发现,其实ReentrantLock可以说是synchronized在JavaApi层的实现。
Mysql 锁
共享锁(S) 与排它锁(X)
作用范围
这两种锁都包括行级锁和表级锁。
获取共享锁时,如果该数据被其他事务的排它锁锁住,则无法获取,需要等待排它锁释放。
意向锁
作用范围
意向锁为表锁,在获取表锁之前,一定会检查意向锁。
意图锁定协议如下:
在事务获得表中某行的共享锁之前,它必须首先获得表上的 IS 锁或更强的锁。
在事务获得表中行的排他锁之前,它必须首先获得表的 IX 锁。
在获取任意表锁的共享锁或排它锁之前,一定会检查该表上的共享锁。
表锁以及意向锁的互斥规则如下:
X IX S IS
X Conflict Conflict Conflict Conflict
IX Conflict Compatible Conflict Compatible
S Conflict Conflict Compatible Compatible
IS Conflict Compatible Compatible Compatible
意向锁的作用在于:在获取表锁时,可以通过意向锁来快速判断能否获取。
因为获取行级锁时,会先获取对应的意向锁,这样另外的事务在获取表锁时就可以通过意向锁快速的判断,而不需要每行去扫描。
特别注意的是,意向锁是可以叠加的,即会存在多个,如T1事务获取了意向锁IX1和行级锁X1,T2事务依旧可以获取意向锁IX2和行级锁X2,所以仅在获取表级锁之前,才会检查意向锁。
记录锁
记录锁生效在索引上,用以在SELECT c1 FROM t WHERE c1 = 10 FOR UPDATE时保护该行数据不被其他事务更改。
记录锁在没有索引时依旧会生效,因为innodb会为每张表创建一个隐藏的索引。
记录锁是最基本的行锁。
间隙锁
间隙锁生效在索引上,用于锁定索引值后的行,防止插入,在select from table where index=? for update时会生效,例如index=1,则会锁住index=1索引节点相关的行,防止其他事务插入数据。
但是并不会防止update语句,哪怕update的数据不存在。
Next-Key Locks
这个锁是记录锁和间隙锁的组合,简而言之在select from table where index=? for update时,既会有间隙锁防止insert,也会有记录锁在index上防止这一条数据的update和delete。这个Next-key只是对这两种锁的一种概括,因为这两种锁在select for update时通常会一起出现。
Insert Intention Locks
插入意向锁,和意向锁类似。不过是特殊的间隙锁,并不发生在select for update,而是在同时发生insert时产生,例如在两个事务同时insert索引区间为[4,7]时,同时获得该区间的意向锁,此时事务不会阻塞,例如A:insert-5,B:insert-7,此时不会阻塞两个事务。
插入意向锁是一个特殊的间隙锁,是为了防止正常间隙锁锁区间的情况下,insert频繁阻塞而设计的,例如A:insert-5,B:insert-7,如果没有插入意向锁,那么5和7都要去尝试获取间隙锁,此时第二个事务就会被阻塞,但是通过插入意向锁,第二个事务就不会被阻塞,只有到插入的行确实冲突,才会被阻塞。
AUTO-INC Locks
自增锁,这个锁很明显是表级insert锁,为了保证自增主键的表的主键保持原子自增。
对于锁这个东西,大家应该多去理解各种锁设计运行的原理和模型,这样在加深理解后,在使用起来才会更加深入和透彻。
常见锁使用的场景和用法
double check
众所周知,mysql的事务对防止重复插入并没有什么卵用,唯一索引又存在很多缺点,业务上最好不要使用,所以一般来说防止重复插入的通用做法就是使用分布式锁,这就有一种比较常用的写法。
final WeekendNoticeReadCountDO weekendNoticeReadCountDO = weekendNoticeReadRepositoryService.selectByNoticeId(noticeRequestDTO.getNoticeId());
if (weekendNoticeReadCountDO == null) {
final String lockKey = RedisConstant.LOCK_WEEKEND_READ_COUNT_INSERT + ":" + noticeRequestDTO.getNoticeId();
ClusterLock lock = clusterLockFactory.getClusterLockRedis(
RedisConstant.REDIS_KEY_PREFIX,
lockKey
);
if (lock.acquire(RedisConstant.REDIS_LOCK_DEFAULT_TIMEOUT)) {
//double check
final WeekendNoticeReadCountDO weekendNoticeReadCountDO = weekendNoticeReadRepositoryService.selectByNoticeId(noticeRequestDTO.getNoticeId());
if (weekendNoticeReadCountDO == null) {
try {
lock.execute(() -> {
WeekendNoticeReadCountDO readCountDO = new WeekendNoticeReadCountDO();
readCountDO.setNoticeId(noticeRequestDTO.getNoticeId());
readCountDO.setReadCount(1L);
readCountDO.setCreateTime(new Date());
readCountDO.setUpdateTime(new Date());
weekendNoticeReadRepositoryService.insert(readCountDO);
return true;
});
} catch (ApiException err) {
throw err;
} catch (Exception e) {
log.error("插入", e);
throw new ApiException(ErrorEnum.SERVER_ERROR.getCode(), "服务端出错");
}
} else {
weekendNoticeReadRepositoryService.noticeCountAdd(weekendNoticeReadCountDO);
}
} else {
log.warn("redis锁获取超时,key:{}", lockKey);
throw new ApiException(ErrorEnum.SERVER_ERROR.getCode(), "服务器繁忙,请稍后重试");
}
}
在获取到锁之后,可能是经过等待才获取到的锁,此时上一个释放锁的线程可能已经插入了数据了,所以在锁内部,依旧要再次校验一下数据是否存在。
这种写法适合大多数需要唯一性的写场景。
避免死锁
如何避免死锁?最简单有效的方法就是:**不要在锁里再去获取锁,简而言之就是锁最好单独使用,不要套娃。
也要注意一些隐性锁,比如数据库。
事务A:
插入[5,7],插入意向锁。
select for update更新[100,150],间隙锁。
事务B:select for update更新[90,120],间隙锁。
插入[4,6],插入意向锁。
此时在并发场景下,就可能会出现A持有了[5,7]的间隙锁,在等待事务B[90,120]的间隙锁,事务B也一样,就死锁了。
**
顺带谈谈并发场景下常见的问题
读写混乱
在写业务代码,定义一些工具类或者缓存类的时候,很容易疏忽而发生类似的问题。
比如构建一个static缓存,没有使用ConcurrentHashMap中的putIfAbsent等方法,也没有加锁去构建,导致上面的线程刚put了,下面的线程就删掉了,或者重复构建2次缓存。
Redis或者一些并发操作释放锁或者资源,没有检查是否是当前线程持有
这点在Redis锁的示例代码也讲到了。
线程A获取到锁,此时B,C在等待,然后A执行时间过长,导致锁超时被自动释放了,此时B获取到了锁,在快乐的执行,然后A执行完了之后,释放锁时没有判断是否还是自己持有,导致B持有的锁被删除了,此时C又获取到了锁,BC同时在执行。
来源:https://www.cnblogs.com/intotw/p/17326540.html