MySQL OOM问题处理一则

一个游戏业务的mysql数据库,多台服务器上mysql服务被OOM,但OOM的原因是什么呢?其实导致OOM的直接原因并不复杂,就是因为服务器内存不足,内核需要回收内存,回收内存就是kill掉服务器上使用内存最多的程序,而mysql服务是使用内存最多,所以就OOM了。

首先我们检查是什么原因导致内存不足,这台服务器物理内存为64G
# free -m
            total      used      free    shared    buffers    cached
Mem:        64375      57821      6553          0        554      16369
-/+ buffers/cache:      40897      23478
Swap:        16383          5      16378

被oom第一个怀疑的原因就是innodb_buffer_pool_size大小设置是否合理
141205 18:47:57 [Note] Plugin 'FEDERATED' is disabled.
141205 18:47:57 InnoDB: The InnoDB memory heap is disabled
141205 18:47:57 InnoDB: Mutexes and rw_locks use GCC atomic builtins
141205 18:47:57 InnoDB: Compressed tables use zlib 1.2.3
141205 18:47:57 InnoDB: Using Linux native AIO
141205 18:47:57 InnoDB: Initializing buffer pool, size = 58.0G
141205 18:48:04 InnoDB: Completed initialization of buffer pool
141205 18:48:04 InnoDB: highest supported file format is Barracuda.
从上面mysql启动的日志中,可以看到在14年mysql启动的时候,innodb_buffer_pool_size设置成了58G,一直到OOM,innodb_buffer_pool_size一直是58G
一台物理内存为64G的服务器,innodb_buffer_pool_size的这个设置确实有点大

另一个检查是vm.swappiness的设置
现在服务器上vm.swappiness设置为0,而RHEL/CentOS 6.4的内核从2.6.32-358这个版本以后,swappiness的行为就已经修改了,
最新的内核,建议把vm.swappiness设置1
# uname -r
2.6.32-431.el6.x86_64
 这里我们系统是最新的内核


但是通过下面的分析,发现innodb_buffer_pool_size,vm.swappiness两个参数设置的不合理只是OOM中的潜在问题,并不是触发OOM的直接原因


可以通过show engine innodb status,查看一下mysql内存的使用情况
.....
----------------------
BUFFER POOL AND MEMORY
----------------------
Total memory allocated 63979913216; in additional pool allocated 0
Internal hash tables (constant factor + variable factor)
    Adaptive hash index 7893457408      (7887918656 + 5538752)
    Page hash          61625224 (buffer pool 0 only)
    Dictionary cache    247241428      (246498992 + 742436)
    File system        111712  (82672 + 29040)
    Lock system        154077792      (154061624 + 16168)
    Recovery system    0      (0 + 0)
Dictionary memory allocated 742436
Buffer pool size        3801087
Buffer pool size, bytes 62277009408  --Buffer Pool大小
Free buffers            3686413  --Buffer Pool中有多少个空白页
Database pages          112368  --Buffer Pool中使用了多少页
Old database pages      22365
........
这里可以发现Buffer pool中大部分页都是Free的,其实mysql服务并未直接分配到58G的内存。


通过sar -B,发现了大量的与SWAP内存的交换,而这个频繁交换的时间是每半小时发生一次
10:00:01 AM  pgpgin/s pgpgout/s  fault/s  majflt/s  pgfree/s pgscank/s pgscand/s pgsteal/s    %vmeff
10:10:01 AM  24472.34  13779.62  10542.81      0.88  8986.53  1547.25    42.00  1556.45    97.94
10:20:01 AM    24.55  11989.73  10669.42      0.14  4369.46    138.54      0.11    138.64    100.00
10:30:01 AM      1.29  8991.32  9832.53      0.01  3596.49    20.53      0.55    21.08    100.00
10:40:01 AM  24522.56  17124.60  11295.04      0.75  9649.33  1710.20    51.21  1666.83    94.63
10:50:01 AM      4.68  8691.01  10355.18      0.08  3934.04    21.22      0.11    21.33    100.00
11:00:01 AM      3.71  10738.47  10384.87      0.09  4017.96    94.24      0.28    94.47    99.96
11:10:02 AM  24924.74  14603.99  11129.07      0.86  9504.08  1751.06    40.43  1642.30    91.67
11:20:01 AM    11.95  8548.50  10206.84      0.11  3819.67    48.74      0.11    48.85    100.00
Average:      8944.00  11658.11  10479.06      0.40  5958.60    687.73    18.04    668.62    94.74

每半个小时的SWAP内存交换是什么引起的呢?
[root@tlbb3d_yd_mxy_120-132-43-203_sx ~]# crontab -l
00 05 * * * /bin/bash /home/databak/scripts/xtrabackup.sh FULL_BACKUP
*/30 * * * * /bin/bash /home/databak/scripts/xtrabackup.sh INCRE_BACKUP
00 03 * * * /bin/bash /home/databak/dbbbak.sh xxx

通过crontab 发现,这台服务器每半个小时使用xtrabackup对mysql做一次增备,
这个增备的起点是基于每天凌晨5点的全备进行的,也就意味着随着时间增备的数据量会越来越大,
备份时长也会越来越长,也就意味着系统资源会越来越紧张,以下也可以看到数据的增长情况
# du -sh *
2.4G    201602261030
2.5G    201602261100

很显然通过以上的分析我们需要做以下三件事情来解决mysql的OOM
1.将innodb_buffer_pool_size设置为48G
2.将vm.swappiness设置为1
3.调整增量备份时间(需要和业务平衡),拉长增量备份的间隔,降低系统的资源消耗

相关推荐