记录一次 MongoDB aggregate的性能优化经历
mongod(ZN5mongo15printStackTraceERSo+0x41) [0x55bd3a2dd321]
mongod(ZN5mongo29reportOutOfMemoryErrorAndExitEv+0x84) [0x55bd3a2dc954]
mongod(ZN5mongo12mongoReallocEPvm+0x21) [0x55bd3a2d22b1]
mongod(ZN5mongo11BufBuilderINS21SharedBufferAllocatorEE15growreallocateEi+0x83) [0x55bd38981833]
mongod(ZN5mongo3rpc17OpMsgReplyBuilder22getInPlaceReplyBuilderEm+0x80) [0x55bd39d4b740]
mongod(+0xAB9609) [0x55bd389be609]
mongod(+0xABBA59) [0x55bd389c0a59]
下面是聚合的脚本,很简单,就是统计某辆车多个状态码的最新值(通过$first实现)。
db.getCollection("vinMsgOut").aggregate([ {"$match": {"vinCode": "LSGKR53L3HA149563"}}, {"$sort": {"postTime" : -1}}, {"$group": { "_id": "$messageType", "resultValue": {"$first": "$resultValue"} } } ],{ allowDiskUse: true })
第一反应是增加过滤条件及增加索引。
结合业务,增加时间条件过滤,将$match改为:
{"$match": {"vinCode": "LSGKR53L3HA149563", "createTime": {$gt: ISODate("2020-03-01T06:30:12.038Z")}}}
再分别为vinCode和createTime创建索引,执行,依旧是6秒多。。。
将$sort的字段改成索引字段createTime,{"$sort": {"createTime" : -1}}
再次执行,时间依旧是6秒多。。。
由于系统可分配内存有限,存储引擎已经默认是最快的wiredTiger,磁盘也没法更给力,只能从业务上再着手。考虑到这些最新状态的出现,一般都是同一个时间段,状态码只有几百个,如果sort之后,只从pipe取其中一部分进行group,会不会更快些?带着这个疑问,我加了一条limit。
db.getCollection("vinMsgOut").aggregate([ {"$match": {"vinCode": "LSGKR53L3HA149563", "createTime": {$gt: ISODate("2020-03-01T06:30:12.038Z")}}}, {"$sort": {"createTime" : -1}}, {"$limit": 1000}, {"$group": { "_id": "$messageType", "resultValue": {"$first": "$resultValue"} } } ],{ allowDiskUse: true })
结果是秒回!
去掉$match中的createTime条件,依旧秒回!这是否意味着createTime索引并没有起作用?带着疑问,将createTime索引删掉,返现时间变成5秒,所以createTime的索引是有用的,用在$sort而已。综上,完成了整个查询的优化,总结下来就是:
- $match条件需要增加索引,如果是多个,最好用组合索引;
- $sort的字段也需要增加索引;
- $group的_id也需要增加索引;
- limit可以大幅度降低时耗。