前面的几篇文章里讨论过了进程上下文切换对系统性能的影响,我们今天再来看另外一个CPU吃货,那就是中断。你在用vmstat或者其他一些工具查看系统CPU消耗的时候,发现有两列是单独列出来的,分别是是hi和si。他们就是硬中断和软中断。 既然把这二位列出来了,就说明一个问题,中断吃起CPU来那也是毫不客气。
中断和系统调用开销对比
非常喜欢《深入理解Linux内核-第五章》开头的一句话。“你可以把内核看做是不断对请求进行响应的服务器,这些请求可能来自在CPU上执行的进程,也可能来自发出中断的外部设备。老板的请求相当于中断,而顾客的请求相当于用户态进程发出的系统调用”。
这句话,很形象地把中断和系统调用两个不相关的概念联系了起来,巧妙地找到了这二者之间的相似处。
中断和系统调用,都是需要内核停止掉当前用户态的工作,保存工作现场,然后陷入到内核态继续工作。待到工作完成之后,恢复用户态进程现场,继续工作。 而事实上,早期的系统调用也还真的是通过汇编指令int(中断)来实现的,当用户态进程发出int $0x80指令时,CPU切换到内核态并开始执行system_call函数。 只不过后来大家觉得系统调用实在是太慢了,因为int指令要执行一致性和安全性检查。后来内核又该用了Intel提供的“快速系统调用”的sysenter指令,才算是和中断脱离了一点点干系。
所以,从这点上来看,中断的开销应该是比系统调用的开销要多一些的。 根据以前的的实验结果,系统调用开销是200ns起步。
中断和进程上下文切换开销对比
《深入理解Linux内核-第五章》曰,“中断处理程序和进程切换有一个明显的差异,由中断或异常处理程序执行的代码不是一个进程。更确切地说,它是一个内核控制路径。作为一个内核控制路径,中断处理程序比一个进程要轻量。因为中断的上下文很少,建立或终止中断处理的时间要少。”
前面的实验结论表明,进程上下文切换的开销大约是3-5us。
开销估算
综上所述,中断的CPU耗时大约是在200ns到5us之间,我们通过一些简单的办法计算一下看看是不是符合。
- 查看系统软中断开销
首先用top命令可以看出每个核上软中断的开销占比,是在si列
top
top - 19:51:24 up 78 days, 7:53, 2 users, load average: 1.30, 1.35, 1.35
Tasks: 923 total, 2 running, 921 sleeping, 0 stopped, 0 zombie
Cpu(s): 7.1%us, 1.4%sy, 0.0%ni, 90.1%id, 0.1%wa, 0.2%hi, 1.2%si, 0.0%st
Mem: 65872372k total, 64711668k used, 1160704k free, 339384k buffers
Swap: 0k total, 0k used, 0k free, 55542632k cached
如上图所示,CPU大约花费了1.2%的时钟周期在软中断上,平均每个核花费12ms。
再用vmstat命令可以看到软中断的次数
$ vmstat 1
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r b swpd free buff cache si so bi bo in cs us sy id wa st
1 0 0 1231716 339244 55474204 0 0 6 496 0 0 7 3 90 0 0
2 0 0 1231352 339244 55474204 0 0 0 128 57402 24593 5 2 92 0 0
2 0 0 1230988 339244 55474528 0 0 0 140 55267 24213 5 2 93 0 0
2 0 0 1230988 339244 55474528 0 0 0 332 56328 23672 5 2 93 0 0
每秒大约有56000次左右的软中断(该机器上是web服务,网络IO密集型的机器,硬中断可以忽略不计)。
该机器是16核的物理实机,故可以得出每个软中断需要的CPU时间是=12ms/(56000/16)次=3.428us
从实验数据来看,一次软中断CPU开销大约3.4us左右
相关Linux命令
- top: si列展示软中断造成CPU开销
- vmstat 1:in列每秒展示软中断次数
- cat /proc/softirqs:展示所有软中断发生的总数,包括TIMER、NET_TX、NET_RX等
个人公众号“开发内功修炼”,打通理论与实践的任督二脉。
参考文献
- [深入理解Linux内核]
- 中断上下文切换
- CPU检测到中断信号时,怎么知道是发给哪个进程的?