记录生活中的点点滴滴

0%

mysql高级4:锁机制

这一篇博客来写一下MySQL锁机制,主要有概述、表锁、行锁和页锁。

锁是计算机协调多个进程或线程并发访问某一资源的机制。

MySQL中锁的分类:

  • 从对数据类型的操作类型(读/写)分:

    • 读锁(共享锁):针对同一份数据,多个读操作可以同时进行而不会互相影响。
    • 写锁(排它锁):当前写操作没有完成前,它会阻断其他读锁和写锁。
  • 从对数据操作的粒度分:

    • 表锁
    • 行锁

表锁(偏读)

特点:偏向MyISAM存储引擎,开销小,加锁块;无死锁;锁定粒度大;发生锁冲突的概率最高,并发度最低。

建表SQL

1
2
3
4
5
6
7
8
9
10
11
12
create table mylock(
id int not null primary key auto_increment,
name varchar(20)
)engine myisam;

insert into mylock(name) values('a');
insert into mylock(name) values('b');
insert into mylock(name) values('c');
insert into mylock(name) values('d');
insert into mylock(name) values('e');

select * from mylock;

加锁语法

【手动增加表锁】

1
lock table 表名字 read(write), 表名字2 read(write), 其他;

实验一下,给 mylock 上把读锁,给 staffs 上把写锁:

1
lock table mylock read,staffs write;

【查看表上加过的锁】

1
show open tables;

【释放表锁】

1
unlock tables;

执行之后两个表的读写锁都已经被释放了。

案例分析:读锁

先准备好两个连接MySQL的终端:

先用 session1 给 mylock 加个读锁:

1
lock table mylock read;

它自己能查询,session2 也能同时查询。

但是此时 session1 不能修改 mylock,修改之后会报错:

此时 session1 还不能查询其他表,如下:

此时 session2 也不能修改 mylock 表,此时如果要修改会被阻塞:

此时如果 session1 释放锁,之后 session2 中被阻塞的操作也就执行成功了,如下所示:

案例分析:写锁

接着我们用 session1 给 mylock 加一把写锁:

可以看到它还可以读 mylock 表,也可以修改 mylock 表。

但是如果此时 session2 去读 mylock 表,则会被阻塞:

案例结论

MyISAM在执行查询语句(SELECT)前,会自动给涉及到的所有锁加读锁;在执行增删改操作前,会自动给涉及的锁加写锁。

MySQL的表级锁有两种模式:表共享读锁(Table Read Lock) 表独占写锁(Table Write Lock)

锁类型 可否兼容 读锁 写锁
读锁
写锁

结论:

结合上表,所以对MyISAM表进行操作,会有以下情况:

  1. 对MyISAM表的读操作(加读锁),不会阻塞其他进程对同一表的读请求,但会阻塞对同一表的写请求。只有当读锁释放后,才会执行其他进程的写操作。
  2. 对MyISAM表的写操作(加写锁),会阻塞其他进程对同一表的读写操作,只有当写锁释放后,才会执行其他进程的读写操作。

简而言之,就是读锁会阻塞写,但是不会阻塞读;而写锁会把读和写都阻塞。

表锁分析

【看看哪些锁被加锁了】

1
show open tables;

【如何分析表锁定】

可以通过检查 table_locks_waited 和 table_locks_immediate 状态变量来分析系统上的表锁定

1
show status like 'table%';

这里有两个状态变量记录MySQL内部表级锁定的情况,两个变量说明如下:

Table_locks_immediate:产生表级锁定的次数,表示可以立即获取锁的查询次数,每此立即获取锁值加1;

Table_locks_waited:出现表级锁竞争而等待的次数(不能立即获取锁的次数,没等待一次锁值加1),此值越高说明存在着比较严重的表级锁争用情况。

此外,MyISAM的读写锁调度是写优先,这也是MyISAM不适合做写为主表的引擎。因为写锁后,其他线程不能做任何操作,大量的更新会使查询很难得到锁,从而造成永远阻塞。

行锁(偏写)

特点:偏向InnoDB存储引擎,开销大,加锁慢,会出现死锁;锁定粒度最小;发生锁冲突的概率最低;并发度也最高

InnoDB与MyISAM的最大不同有两点:一是支持事务(TRANSACTION),二是采用了行级锁。

事务

事务是一组由SQL语句组成的逻辑处理单元,事务具有以下四个属性,通常被称为事务的ACID属性:

  • 原子性(Atomicity):事务是一个原子操作单元,其对数据的操作要么全都执行,要么全都不执行
  • 一致性(Consistent):在事务开始和完成时,数据都必须保持一致状态,这意味着所有相关的数据规则都必须应用于事务的修改,以保持数据的完整性;事务结束时,所有的内部数据结构(如B树索引或双向链表)也都必须是正确的
  • 隔离性(Isolation):数据库系统提供一定的隔离机制,保证事务在不受外部并发操作影响的独立环境执行,这意味着事务处理过程中的中间状态对外部是不可见的,反之亦然
  • 持久性(Durable):事务完成之后,它对于数据的修改是永久性的,即使出现系统故障也能够保持

并发事务处理带来的问题:

  • 更新丢失(Lost Update)
  • 脏读(Dirty Reads)
  • 不可重复读(Non-Repeatable Reads)
  • 幻读(Phantom Reads)

稍微解释一下这些名词:

更新丢失:例如两个人同时修改同一个文件,每个人修改其副本然后保存,最后一个修改的会覆盖前一个人的更改;如果一个人完成并提交事务之前,另一个人不能访问同一文件,则可以避免此问题

脏读:事务A读取到了事务B已修改但未提交的数据、

不可重复读:一个事务在读取某个数据后的某个时间,再次读取以前读过的数据,却发现了已经改变

幻读:一个事务按照相同的查询条件重新选取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据;和脏读很类似,脏读是事务B里面修改了数据,幻读是事务B里面新增了数据

“脏读”、不可重复读、幻读其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。

读数据一致性及并发副作用隔离级别 读数据一致性 脏读 不可重复读 幻读
读未提交(Read uncommtited) 最低级别,只能保证不读取物理上损坏的数据
已提交读(Read committed) 语句级
可重复读(Repeatable read) 事务级
可序列化(Serializable) 最高级别(事务级)

数据库的事务隔离越严格,并发副作用越小,但付出的代价也就越大,因为事务隔离级别实质上就是使事务在一定程度上串行化进行的,这显然与并发是矛盾的。同时,不同的应用对读一致性和事务隔离级别程度的要求也是不同的,比如许多应用对不可重复读和幻读并不敏感,可能更关心数据并发访问的能力。

查看当前数据库的隔离级别:show variables like 'tx_isolation';

MySQL默认是 可重复读(Repeatable read),不存在脏读、不可重复读,但存在幻读。

建表SQL

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
create table test_innodb_lock (a int(11),b varchar(16))engine=innodb;

insert into test_innodb_lock values(1,'b2');
insert into test_innodb_lock values(3,'3');
insert into test_innodb_lock values(4,'4000');
insert into test_innodb_lock values(5,'5000');
insert into test_innodb_lock values(6,'6000');
insert into test_innodb_lock values(7,'7000');
insert into test_innodb_lock values(8,'8000');
insert into test_innodb_lock values(9,'9000');
insert into test_innodb_lock values(1,'b1');

create index test_innodb_a_ind on test_innodb_lock(a);
create index test_innodb_lock_b_ind on test_innodb_lock(b);

select * from test_innodb_lock;

行锁定基本演示

先把两个终端的 autocommit 都设置成0,关闭默认提交

然后再session1中更改数据,然后查询,可以看到能查询到相关更改之后的数据:

但是此时用seesion2查看这个表,会看到数据仍然是4000,没有更新,因为session1中还未提交,为避免脏读,所以就会下面这种情况:

之后如果想要session2能看到修改的数据,则先让session1提交,session2再提交,然后查询就可以看到修改后的4001了:

下面我们继续,在session1中更改但未提交,session2中也更改,然后它会进入阻塞状态:

然后 session1 中提交,此时 session2 中也就会停止阻塞,执行成功。

当然,之后session2中也要commit,session1中再执行commit之后,就能查询到更新之后的数据了。

我们上面的都是针对某一行,下面我们针对不同行,比如让session1去改a=4的那一行,让session2去改a=9的那一行,这样两者并不会阻塞,如下所示:

之后,两边都commit之后,再查询,则两行的数据全部都已经更新了:

无索引行锁升级为表锁

我们之前建表的时候,已经设置了索引,查询如下所示:

现在我们继续在两个session中同时更改不同行,如下所示:

是可以同时更新的,之后各自commit之后也能查询到两者更新之后的数据。

但是如果session1开始的时候把 b=’5000’ 的引号删去,那么此时索引失效,之后再执行session2中插入操作会怎么样呢?如下所示:

可以看到,此时session2会阻塞,这是为什么?

因为索引失效导致行锁变成了表锁。

之后session1提交,那么session2 的阻塞状态也会恢复正常。

间隙锁危害

【什么是间隙锁】

当我们使用范围条件而不是相等条件检索数据,并请求共享或排它锁时,InnoDB会给符合条件的已有数据记录的索引项加锁;对于键值在条件范围内但并不存在的记录,叫间隙(GAP)。

InnoDB也会对这个间隙加锁,这种锁机制就是所谓的间隙锁(Next-Key锁)。

【危害】

因为Query执行过程中通过范围查找的话,它会锁定整个范围内的所有的索引键值,即使这个键值不存在。

间隙锁有一个比较致命的弱点,就是当锁定一个范围键值之后,即使某些不存在的键值也会被无辜的锁定,而造成在锁定的时候无法插入锁定键值范围内的任何数据。在某些场景下可能会对性能造成很大的危害。

我们看下面的例子:

先在session2中给定范围内更改数据,但不提交,然后在session1中插入一个不存在a为2 b为’2000’ 的数据,看会怎么样?

可以看到,session1中执行之后会阻塞。因为 a=2 在session2的where a>1 and a<6 的范围之内。

对于MySQL而言,宁可错杀不可放过,所以就会变成这样的情况。

如何锁定一行

begin; xxx for update; 最后commit; 如下所示:

注意:这里的环境,我们的自动提交已经恢复了。

行锁分析

通过命令 show status like 'innodb_row_lock%'; 查看分析。

对各个状态量的说明如下:

  • Innodb_row_lock_current_waits:当前正在等待锁定的数量
  • Innodb_row_lock_time:从启动到现在锁定的总时间长度
  • Innodb_row_lock_time_avg:每次等待所花平均时间
  • Innodb_row_lock_time_max:从系统启动到现在等待最长的一次的所花费的时间
  • Innodb_row_lock_waits:系统启动后到现在总共等待的次数

尤其是当等待次数很高,而且每次等待时长也不少的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手指定优化计划。

优化建议

  • 尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁
  • 合理设计索引,尽量减少锁的范围
  • 尽可能减少检索条件,避免间隙锁
  • 尽量控制事务大小,减少锁定资源量和时间长度
  • 尽可能降低事务隔离级别

页锁

特点:开销和时间介于表锁和行锁之间;会出现死锁;锁定粒度介于表锁和行锁之间,并发度一般。