昨天聊了,啥时候应该优化延时(Latency),啥时候应该优化吞吐量(Throughput)。
有一些评论,值得和大家扩展讨论下:
(1)有人说,延时与吞吐量是一回事,说延时下去了,吞吐量自然就上来了;(2)有人说,增加线程数,吞吐量就上来了;(3)有人说,增加线程数,吞吐量未必上来;【1】延时和吞吐量,是评估啥的指标?再次强调一下,在性能优化中:一个用户慢,就去优化延时。多个用户扛不住,就去优化吞吐量。延时,是偏性能(performance)的指标。
吞吐量,是偏扩展性(scalability)的指标。
performance和scalability,评估维度并不一样。
前端架构,为什么聊performance更多?
前端FE,Android,IOS的童鞋,经常说提升performance,很少说提升scalability。
压缩资源,缓存图片,异步加载,Webpack代码拆分,PWA等等这些技术,都是提升performance的,服务好一个用户,让一个用户速度快。
后端架构,要不要提升performance,当然要。数据库访问200ms,引入缓存20ms,速度更快了。
后端架构,为什么聊scalability会更多?
因为系统难点不在于1个用户的延时是200ms还是20ms,难的是:
(1)数据库里有1亿个用户时,系统扛不扛得住;
(2)10万个用户同时访问时,系统扛不扛得住;
而这些,就是scalability的范畴。
这,是后端架构设计的核心,是scalability相关的知识点,也是我在“100个架构知识点”里要重点讲的内容。
【2】线程数和吞吐量,到底是什么关系?我在短视频里举例:“增加线程数是提高吞吐量的方法之一,1个线程1秒钟处理5个请求,吞吐量是5,增加到10个线程,吞吐量变成50”。有朋友指出我说的不对,说增加线程数,有时候能提升吞吐量,有时候不能提升吞吐量。这位朋友说的对,我表达不严密,那么问题来:(1)啥时候增加线程数能提升吞吐量,啥时候不能?(2)设置线程数的依据是什么,是不是越大越好?(3)线程数设为多少,吞吐量能最大?下面稍微展开详细说下。首先,工作线程数是不是设置得越大越好?答案显然是否定的。(1)服务器CPU核数有限,能够同时并发的线程数有限,单核CPU设置1000个工作线程没有意义;(2)线程切换有开销,如果线程切换过于频繁,反而会使性能降低;第二个问题,调用sleep()函数的时候,线程是否一直占用CPU?不占用,休眠时会把CPU让出来,给其他需要CPU资源的线程使用。不止sleep,一些阻塞调用,例如网络编程中的:(1)阻塞accept(),等待客户端连接;(2)阻塞recv(),等待下游回包;都会让出CPU资源。第三个问题,单核CPU,设置多线程有没有意义?单核CPU,设置多线程能否提高并发性能?即使是单核,使用多线程也是有意义的,大多数情况也能提高并发。其一,多线程编码可以让代码更加清晰,例如:IO线程收发包,Worker线程进行任务处理,Timeout线程进行超时检测;其二,如果有一个任务一直占用CPU资源在进行计算,此时增加线程并不能增加并发,例如以下代码会一直占用CPU,并使得CPU占用率达到100%:while(1){ i++; }其三,通常来说,Worker线程一般不会一直占用CPU进行计算,此时即使CPU是单核,增加Worker线程也能够提高并发,因为这个线程在休息的时候,其他的线程可以继续工作;第四个问题,常见服务线程模型是怎样的?了解常见的服务线程模型,有助于理解服务并发的原理,一般来说互联网常见的服务线程模型是:IO线程与工作线程通过任务队列解耦模型。画外音:还有一种是无锁纯异步,可参考lighttpd的单线程模式,这种模型完全无锁,但无法利用多核优势。这类线程模型,示例如下:你们的线程数配置是多少?