木将 阿里云开发者
2024年09月11日 08:30 浙江
阿里妹导读
本文详细阐述了如何通过二级缓存架构设计提升高并发下的系统性能。
前言
随着k8s成为用云新界面,容器成为众多用户“弹性”的利器,因此容器的创建天生具备高并发特性。
高并发、大数据量下,为了提供更好的容器弹性体验,笔者通过二级缓存的设计,成功优化了系统性能、资源消耗、系统容量。
但持续压榨性能的道路是曲折的。各种缓存方案需要考虑非常多因素,包括缓存的多级架构、预热、击穿、刷新、运维等。
让我们先看看系统性能、资源消耗、系统容量,到底优化了多少?然后详细介绍带来性能提升的二级缓存架构,以及各种缓存方案的设计、比较、落地。
优化结果
笔者对系统进行多次压测,观察了二级缓存等优化手段上线前后,高QPS下的资源消耗、RT和系统容量。
1、资源消耗大幅下降
可以看到,上线了二级缓存等优化手段后,相同QPS下,CPU使用率大幅下降。
2、RT和系统容量优化
由于计算资源消耗的下降,同QPS下的平均RT也大幅下降。此外我们发现,优化前,随着QPS不断提升,RT明显变慢、变慢幅度很大,优化后,RT变慢的幅度明显减缓。这意味着,系统容量也更加深不可测了。
系统瓶颈在哪?
持续压榨性能,前提是知道瓶颈在哪。笔者怎么定位瓶颈的呢?-> cpuProfile火焰图。
高QPS下,分析了系统cpu火焰图,发现50%+的CPU瓶颈在大量的业务数据处理,主要两块:
1、从redis取业务pojoList时的fastjson array反序列化。背景是和redis交互的数据量特别大,笔者对缓存value进行过压缩,在解压缩后的string转为List<Pojo>的过程,本质用时间换了空间。
2、调用redis获取数据后的alibaba.cachejson的POJO解析。
在高并发、大数据量的业务背景下,这些过程的耗时被笛卡尔积地放大。
既然分布式缓存CPU资源消耗是瓶颈,那么引入本地缓存,就能解这个问题。另外,本地缓存还能提供服务容灾能力。
数据属性和缓存选型
数据属性
设计缓存方案前,先分析业务数据属性:
符合key -> value的数据模式读多写少变更频率低数据一致性要求不高简直就是缓存的绝佳使用场景!那么用本地缓存,还是分布式缓存呢?还是二级缓存?
本地/分布式缓存特性
基于业务属性,我们来match本地/分布式缓存特性:
本地缓存优点访问速度快;减少网络开销:不存在redis流量瓶颈(之前由于数据valueList量过大,导致redis网络流量超过redis实例SLA,还做过一次gzip压缩);缺点可用性相对差:如果应用实例宕机/重启, 缓存数据会丢失;资源限制:受限于单机内存大小,不适合大规模数据缓存(相对内存大小来说,本业务数据量还是较小,也是相对静态数据,在内存还是妥妥可存的核心业务数据);分布式缓存优点高可用:数据共享,不会因为业务机器重启丢失;大容量:可以水平扩展增加存储容量;缺点序列化cpu瓶颈(本系统大数据量+高调用量下尤其突出);网络开销:存在redis流量瓶颈(本系统大数据量+高调用量下尤其突出);本地+分布式二级缓存优点结合两者优势,层次化加速;缺点对本系统代码侵入较大,实现较复杂;资源消耗:额外的缓存层级会占用更多计算和存储资源;缓存方案比较
系统现状
结合业务场景和系统现状,提出以下三种方案。对多级架构、预热、击穿、刷新、运维多个角度分析。
方案1:本地缓存+guava refreshAfterWrite
1、架构
仅本地缓存。根据业务场景设置失效时间。
2、cache miss处理、刷新
使用Guava cache原生的refreshAfterWrite+异步reLoader机制,进行缓存的刷新,保证时效性。当对应key距离写入时间点存活超过TTL后,guava会自动执行我们在reLoader中写的业务逻辑,从提供实时数据的系统自动拉取最新的<key, value>,更新缓存值。
在本业务场景下,缓存的key&value设计有两种方案。
a. <key, value>。由于guava cache loader只能by key更新,所以,如果在单地域有N台机器,每个机器都查M个key,在缓存刷新时最大有M*N个查询请求打到提供实时数据的系统,无法使用批量查询能力,而M数量非常大,对下游压力会翻倍。
b. <"all_data"(hardCode), Map<key, value>>。这样可以使用到批量查询的能力,但是当某些<key, value>在本地缓存没有时,guava的loader就无法识别cache miss并从下游系统捞数据了。
3、预热
启动时全量预热。
4、运维
暴露dubbo/http服务,by host运维;或者重启机器。
因此:
优点无redis相关cpu资源、网络资源损耗;直接使用了Guava cache原生的loader机制;缺点对下游压力翻倍;由于对下游压力太大,放弃此方案。
方案2:二级缓存+刷新job
1、架构
本地+分布式二级缓存。本地缓存失效时间无穷大。
2、预热
启动时全量预热。
3、cache miss处理
不用guava cache loader。cache miss时业务上调用分布式缓存,再miss则调用下游服务。
4、刷新
使用spring单机job定时全量刷新缓存,保证一定时效性(数据变动频率很低,所以job频率设低即可)。但是由于本系统在间接引入quartz分布式定时任务框架时,没有直接支持单机job(quartz本身是支持的),所以需要额外使用spring单机job框架,会导致系统任务管理框架不统一。
5、运维
本地缓存:暴露dubbo/http服务,by host运维;或者重启机器。
分布式缓存:通过redis服务管理。
因此:
优点本地缓存命中率很高,基本不会发生redis瓶颈。缺点业务自行load+write back。使用了新的定时任务框架(for单机),系统任务管理框架不统一。方案3:二级缓存+guava expireAfterAccess
1、架构
本地+分布式二级缓存。根据业务设定本地缓存失效时间(expireAfterAccess)。
2、预热
启动时全量预热。这会导致应用重启,然后缓存预热后,部分本地缓存TTL可能批量到期失效,后面请求过来后可能直接大量击穿到下游服务,这是典型的缓存雪崩场景!
而且,当本地缓存雪崩,或者miss时,请求即使hit分布式缓存,也会导致redis相关序列化cpu瓶颈,会导致偶发的系统性能长尾。
3、cache miss处理
不用guava cache loader。cache miss时业务上调用分布式缓存,再miss则调用下游服务。
4、刷新
无刷新job。
5、运维
本地缓存:暴露dubbo/http服务,by host运维;或者重启机器。
分布式缓存:通过redis服务管理。
因此:
优点不需要额外刷新job;不强依赖运维方案(因为本地和分布式缓存都有失效时间);缺点存在缓存雪崩风险;redis相关序列化造成cpu瓶颈发生概率仍然较大;落地方案
根据上述优缺点、改造量评估, 基本按照方案2来执行。
1、架构
本地+分布式二级缓存,以本地缓存为主,保证本地缓存极高命中率。
2、CacheMiss处理
业务自行处理,和现有链路保持一致,localCache -> redis -> dubbo,这样能够快速上线。
3、预热
应用启动,提供服务前预热。
4、刷新
基于SpringCronJob。
5、运维
per host运维,提供dubbo/http服务。
除此之外,对guava cache还进行了包装,各个业务场景的各种local cache,统一存储在一个Map容器Map<${prefix}, Cache<${key}, ${value}>>里,对现有的本地缓存也进行了重构,通过缓存包装层统一交互统一管理,增加可复用性和代码简洁度。
写在最后
本文对多种缓存方案的架构、预热、击穿、刷新、运维等进行了比较分析,最终进行工程落地,完成了容器场景高并发、大数据量下的系统性能极致提升。后续的优化点有:
1、其他系统瓶颈:压测pattern较单一,可能因为缓存掩盖其他依赖服务的性能瓶颈。未来会用更全面的压测pattern继续压榨系统性能。
2、批量刷新能力:对于方案1的批量刷新能力缺陷,caffeine其实有相关feature,见Bulk refresh这个issue。
3、运维方案:缺乏集群批量invalid能力,待建设。
4、架构统一:分布式和单机job使用同一个job管理框架。
这个方案的落地,特别要感谢团队同学的宝贵建议,是大家多次对技术方案“battle”后的结果。虽然笔者不是哈工大的,但借用哈工大的校训来总结,reviewers的意见、对技术的追求,如同追求“规格严格,功夫到家”。Creating great software is crafting a piece of art. 继续加油!