max_allowed_packet引起MySQL迁移丢失数据的问题


起因

最近迁移了服务器,运维同学给导了数据库,数据库也跟着一起迁移到了新机房。今天,有用户发现自己创建的一条记录不见了,我去新库查询确实没有,去旧库查询到了这条记录,确定了是数据丢失。

排查过程

起初,怀疑迁移到新库已经有几天了,是否是这几天用户手动删除了这条记录?还好对用户的改动做了记录,经过查询发现,用户并没有删除动作。

所以,大概率是数据库迁移引起的数据库丢失,具体是哪个环节出错,还要继续排查。

运维同学给出了当时从老库里导出的sql,发现是存在丢失的这条记录的,这证明了从老库导出没有问题,问题出现在往新库导入的时候。

找到了这条丢失记录的导入sql,由于有一个字段用了 longtext 类型,这个字段内存入了大量的json数据,将这条sql保存成txt后,竟然有1.7M大小。把这条语句通过命令行单独导入,报错 MySQL server has gone away

问题

通过上面的排查,基本上可以确定是由于sql语句过大,导致插入失败,引起迁移时数据丢失的问题。

解决

MySQL 中有一个 max_allowed_packet 参数,用来控制一次插入语句的大小,像Blob、longtext类型的字段很容易导致sql语句过长,而达到 max_allowed_packet的限制。

max_allowed_packet 当前大小是 1048576 (1024 X 1024 X 1),也就是 1M 大小,而我那条语句竟然达到了1.7M ,显然超过了上限。


mysql> show global variables like 'max_allowed_packet';

+--------------------+---------+

| Variable_name      | Value   |

+--------------------+---------+

| max_allowed_packet | 1048576 |

+--------------------+---------+

1 row in set (0.01 sec)

调大 max_allowed_packet 值


mysql> set global max_allowed_packet=1024*1024*16;

Query OK, 0 rows affected (0.00 sec)

对比新老两库后,发现了总共丢失了两条记录,在调大 max_allowed_packet 值后,分别重新插入,恢复了丢失的数据。

反思

经历了这次事件后的几个小反思:

1. Text 字段是个坑。

Text对数据库性能就已经有明显影响了。更何况了是LongText。LongText 最大能存 (2^32 -1)个字节,即 4GiB。使用LongText字段便是给自己和运维同学留下了一个坑。由于这个字段存储的是大文本 json ,日后可以考虑将此字段放入 MongoDB 。

  • TEXT | 65,535(2 16 -1)个字节= 64个KiB
  • MEDIUMTEXT | 16,777,215(2 24 -1)字节= 16 MiB
  • LONGTEXT | 4,294,967,295(2 32 -1)个字节= 4个GiB

2. 数据迁移失败日志。

运维同学说使用 mysqldump 导得数据,如果数据迁移时能有一个失败日志,那么就能及时发现这个问题。另外,迁移库后,如果我立即比较一下表的记录数,或许也能早点发现这个问题。


评论区(0)

评论