实时数据并发写入 Redis 优化
当前架构的逻辑是将并发请求数据写入队列中,然后起一个单独的异步线程对数据进行串行处理。这种方式的好处就是不用考虑并发的问题,当然其弊端也是显而易见的~
乐观锁实现数据的并发更新
根据当前业务的数据更新在秒级, key 的碰撞率较低的情况。笔者打算采用使用 CAS 乐观锁方案:使用 Lua 脚本实现 Redis 对数据的原子更新,即便是在并发的情况下其性能也会上一个级别。下面是 CAS 乐观锁实现数据并发更新的流程图:
根据上面的流程图设计出了 Lua 脚本:
可能存在问题及其解决方案
1,在并发冲突概率大的高竞争环境下,如果CAS一直失败,会一直重试,CPU开销较大。针对这个问题的一个思路是引入退出机制,如重试次数超过一定阈值后失败退出。如:
2, Lua 脚本执行时只能在同一台机器上生效,因此在 Redis 集群在就要求相关联的 key 分配到相同机器。这里很多同学可能会问为什么,其实很简单, Redis 是单线程的,倘若 Lua 脚本操作的 key 在不同机器上执行,也就无法保证其执行的原子性了。
解决方法还是从分片技术的原理上找,数据分片,就是一个 hash 的过程:对 key 做 md5 , sha1 等 hash 算法,根据 hash 值分配到不同的机器上。
为了实现将key分到相同机器,就需要相同的 hash 值,即相同的 key (改变 hash 算法也行,但比较复杂)。但 key 相同是不现实的,因为 key 都有不同的用途。但是我们让 key 的一部分相同对我们业务实现来说是可以实现的。那么能不能拿 key 一部分来计算 hash 呢?答案是肯定的,
允许用key的部分字符串来计算hash。当一个key包含 {} 的时候,就不对整个key做hash,而仅对 {} 包括的字符串做 hash。假设 hash 算法为sha1。对 user:{user1}:ids和user:{user1}:tweets ,其 hash 值都等同于 sha1(user1)。
end:如果你觉得本文对你有帮助的话,记得关注点赞转发,你的支持就是我更新动力。