服务器性能优化的正确姿势

服务器
性能最通俗的衡量指标就是“时间”,CPU的使用率指的是CPU用于计算的时间占比,磁盘使用率指的是磁盘操作的时间占比,当CPU使用率100%时,意味着有部分请求来不及计算,响应时间增加或者超时;当磁盘使用率100%时,意味着有部分请求需要等待IO操作,响应时间也会增加或者超时。

在系统运维中除了要维持平台的稳定运行以外,还需对服务器的性能进行优化,让服务器发挥出良好的工作性能是稳定运行的基础。腾讯互娱DBA团队的汪伟(simon)在这一领域里整理出了一套性能优化的资料,为大家在性能优化提供充足的方向。

概述

什么是性能?

性能最通俗的衡量指标就是“时间”,CPU的使用率指的是CPU用于计算的时间占比,磁盘使用率指的是磁盘操作的时间占比,当CPU使用率100%时,意味着有部分请求来不及计算,响应时间增加或者超时;当磁盘使用率100%时,意味着有部分请求需要等待IO操作,响应时间也会增加或者超时。换言之,所有的操作都在理想的时间内,就不存在“性能优化“的问题。我们在分析性能的时候,总是会首先要找到是什么引起响应时间变慢了,对应单机性能的分析,一般我们会将目光锁定在CPU和IO上,因为对于应用程序一般分为CPU bound型和IO bound型,即计算密集型或者读写密集型;至于内存,其性能因素往往也会反映到CPU或者IO上,因为内存的设计初衷就是提高内核指令和应用程序的读写性能,当内存不足,系统可能进行大量的交换操作,这时候磁盘可能成为瓶颈;而缺页、内存分配、释放、复制、内存地址空间映射等等问题又可能引起CPU的瓶颈;更严重的情况是直接影响功能,这个就不仅仅是性能的问题了。

[[232781]]

性能优化并不是一个孤立的课题,除了响应时间的考虑,我们往往还需要综合功能完整性、安全性等等方面的问题。

性能分析的基础

性能优化需要厚实的基础知识:

操作系统——操作系统管理着应用程序所需要的所有资源,例如CPU和IO,当任何一个组件出现问题,我们的分析也是基于操作系统的,例如文件系统类型,磁盘类型,磁盘raid类型都需要操作系统管理和支持。

系统编程技术——系统编程技术涉及到我们如何使用系统资源,例如对IO的操作我们可以使用buffering I/O,也可以使用Direct IO,可以采用同步的方式,也可以采用异步的方式,可以使用多进程,也可以使用多线程的方式。懂得不同编程技术的原理,有利于问题的分析。

应用程序——例如数据库组件的数据类型、引擎、索引、复制、配置参数、备份、高可用等等都可能是性能问题的元凶。

性能分析的方法论

问题分析方面,各类方法论如金字塔思维、5W2H、麦肯锡七步法等等。套用5W2H方法,可以提出性能分析的几个问题

  • What-现象的表现是什么样的
  • When-什么时候发生
  • Why-为什么会发生
  • Where-哪个地方发生的问题
  • How much-耗费了多少资源,问题解决后能减少多少资源耗用
  • How to do-怎么解决问题

但是这些只能给出方向,性能分析需要找到原因需要更具体的方法,怎么解决一个问题也需要更加具体的方式。

Brendan Gregg在《性能之巅:洞悉系统、企业与云计算》第二章中讲到大量的方法,比较突出的如Use方法、负载特征归纳、性能监控、静态性能调优、延时分析、工具法等等。其中工具法最具体,但是工具法也有自己的限制,如磁盘的饱和度,在磁盘使用率100%的时候,磁盘的负载可能还可以继续增加。在实际分析问题中,负载特征归纳更有指导意义,静态跟踪和动态跟踪让我们更容易更直观发现问题。

CPU

认识CPU

CPU本身的架构和内核调度器的架构这里不做详细讲述,具体可以参考操作系统类书籍。但是仍然需要清楚一些概念:

  • 处理器
  • 硬件线程
  • CPU内存缓存
  • 时钟频率
  • 每指令周期数CPI和每周期指令数IPC
  • CPU指令
  • 使用率
  • 用户时间/内核时间
  • 调度器
  • 运行队列
  • 抢占
  • 多进程
  • 多线程
  • 字长

针对应用程序,我们通常关注的是内核CPU调度器功能和性能

线程的状态分析主要是分析线程的时间用在什么地方,而线程状态的分类一般分为:

on-CPU:执行中,执行中的时间通常又分为用户态时间user和系统态时间sys

off-CPU:等待下一轮上CPU,或者等待I/O、锁、换页等等,其状态可以细分为可执行、匿名换页、睡眠、锁、空闲等状态

如果大量时间花在CPU上,对CPU的剖析能够迅速解释原因;如果系统时间大量处于off-cpu状态,定位问题就会费时很多。

分析方法与工具

在观察CPU性能的时候,按照负载特征归纳的方法,可以检查如下清单:

  • 整个系统范围内的CPU负载如何,CPU使用率如何,单个CPU的使用率呢?
  • CPU负载的并发程度如何?是单线程吗?有多少线程?
  • 哪个应用程序在使用CPU,使用了多少?
  • 哪个内核线程在使用CPU,使用了多少?
  • 中断的CPU用量有多少?
  • 用户空间和内核空间使用CPU的调用路径是什么样的?
  • 遇到了什么类型的停滞周期?

要回答上面的问题,使用系统性能分析工具最经济和直接,这里列举的工具足够回答上面的问题:

上述问题中,调用路径和停滞周期的分析可以使用perf工具,也可以使用DTrace等更灵活的工具。其中perf支持对各类内核时间的跟踪计数统计,可以使用perf list查看。例如停滞周期分析可能十分复杂,需要对CPU和调度器架构有较系统的认识和了解,停滞的周期可能发生在一级、二级或者三级缓存,如缓存未命中,也可能是内存IO和资源IO上的停滞周期,perf中有诸如L1-dcahce-loads,L1-icache-loads等事件的计数统计。

实际案例

火焰图帮助分析CPU的调用路径

我们在压测mysql在某机型上的非原地更新性能时,分析mysql服务器延时情况时,分析了CPU上主要的函数调用。使用perf top能够看到调用次数的排名,但是调用关系不能展示出来。火焰图很清晰地提供了调用关系的视图(如下两图中的比例不同是因为perf top加了-p参数,火焰图分析是针对整个系统)。

内存

认识内存

如前所述,内存是为提高效率而生,实际分析问题的时候,内存出现问题可能不只是影响性能,而是影响服务或者引起其他问题。同样对于内存有些概念需要清楚:

  • 主存
  • 虚拟内存
  • 常驻内存
  • 地址空间
  • OOM
  • 页缓存
  • 缺页
  • 换页
  • 交换空间
  • 交换
  • 用户分配器libc、glibc、libmalloc和mtmalloc
  • LINUX内核级SLUB分配器

分析方法与工具

Brendan在书中给出了一些问题,比如内存总线的平衡性,NUMA系统中,内存是否被分配到合适的节点中去等等,这些问题在实际分析问题的时候,并不能作为切入点,需要持续的分析。因此笔者简化为如下清单:

  • 系统范围内的物理内存和虚拟内存使用率
  • 换页、交换、oom的情况
  • 内核和文件系统缓存的使用情况
  • 进程的内存用于何处
  • 进程为何分配内存
  • 内核为何分配内存
  • 哪些进程在持续地交换
  • 进程或者内存是否存在内存泄漏?

内存的分析工具如下:

除了DTrace,所有的工具只能回答信息统计,进程的内存使用情况等等,至于是否发生内存泄漏等,只能通过分配跟踪。但是DTrace需要对内核函数有很深入的了解,通过D语言编写脚本完成跟踪。Perf也有一些诸如cache-miss、page-faults的事件用于跟踪,但是并不直观。

实际案例

关于内存泄漏,从监控和顶层观察很难发现问题,一般都是从底层程序代码来分析,案例中使用各种观察工具和跟踪工具都不能很确定原因所在,只能通过分析代码来排查问题。最终发现是lua脚本语言分配内存速度快,包驱动的周期性服务的用法中,lua自动回收不能迅速释放内存,而是集中回收,如果频繁回收又可能带来CPU的压力。开发项目组最后采用的解决方式为分步回收,每次回收一部分内存,然后周期性全量回收。

IO

逻辑IO vs 物理IO

通常在讨论问题时,总是会分析IO的负载,IO的负载通常指的是磁盘IO,也就是物理IO,例如我们使用iostat获取的avgqu-sz、svctm和until等指标。因为我们的读写最终都是来自或者去往磁盘的,关注磁盘的IO情况非常正确。但是我们在进行读写操作的时候,面向的对象大多数时候并不会直接面向磁盘,而是面向文件系统的,除非使用raw io的方式。

如下图为通用的IO结构图,如果你想了解更详细,可以查看第二张图片。

我们知道LINUX通过文件系统将所有的硬件设备甚至网络都抽象为文件来管理,例如read()调用时,实际就是就是调用了vfs_read函数,文件系统会确认请求的数据是否在页缓存中,如果不在内存中,于是将请求发送到块设备;此时内核会先获取到数据在物理设备上的实际位置,然后将读请求发送给块设备的请求队列中,IO调度器会通过一定的调度算法,将请求发送给磁盘设备驱动层,执行真正的读操作。在这一过程中可能发生哪些情况呢?如果应用程序执行的是大量的顺序读会怎样?随机读又会怎样?如果是顺序读,正确的做法就是进行预读,让请求的数据落到内存中,提升读效率。所以在应用程序发起一次读,从文件系统到磁盘的过程中,存在读放大的问题。

在写操作时同样存在类似的情况,应用程序发起对文件系统的IO操作,物理IO与应用程序之间,有时候会显得无关、间接、放大或者缩小。

无关:

  • 其他的应用程序:磁盘IO来自其他的应用程序,如监控,agent等
  • 其他用户:如同虚拟机母机下的其他用户
  • 其他内核任务:如重建raid,校验等

间接:

  • 文件系统预读:增加额外的IO,但是可能预读的数据无用
  • 文件系统缓冲:写缓存推迟或者合并回写磁盘,造成磁盘瞬时IO压力

放大:

  • 文件系统元数据:增大额外的IO
  • 文件系统记录尺寸:向上对齐等增加了IO大小

缩小:

  • 文件系统缓存:直接读取缓存,而不需要操作磁盘
  • 合并:一次性回写磁盘
  • 文件系统抵消:同一地址更新多次,回写磁盘时只保留最后一次修改
  • 压缩:减少数据量

图片来源:https://www.thomas-krenn.com/de/wikiDE/images/b/ba/Linux-storage-stack-diagram_v4.0.png

文件系统分析与工具

与文件系统相关的术语如下:

  • 文件系统
  • VFS
  • 文件系统缓存
  • 页缓存page cache
  • 缓冲区高速缓存buffer cache
  • 目录缓存
  • inode
  • inode缓存

如下图为文件系统缓存的结构图,页缓存缓存了虚拟内存的页面,包括文件系统的页面,提升了文件和目录的性能。

Linux将缓冲区高速缓存放入到了页缓存中,即page cache包含buffer cache。文件系统使用的内存脏页由内核线程写回磁盘,如图中的页面扫描器kswapd为后台的页面换出进程,当内存不足,超过一定时间(30s)或者有过多的脏页时都会触发磁盘回写。

文件系统延时指的是一个文件系统逻辑请求从开始到结束的时间,包括在文件系统、内核磁盘IO子系统以及等待磁盘设备响应的时间。

同步访问时,应用程序会在请求时阻塞,等待文件系统请求结束,异步方式下,文件系统对其并无直接影响,但是异步访问也分select、poll、epoll等方式,也就是所谓的异步阻塞、异步非阻塞。在异步方式下,一般是打印出用户层发起文件系统逻辑IO的调用栈,得到调用了哪个函数产生了IO。

Linux未提供查看文件系统延时的工具和接口,但是磁盘的指标信息却比较丰富,但是很多情况下,文件系统IO和磁盘IO之间并没有直接关系,例如应用程序写文件系统,但是根本不关心数据什么时候写到磁盘了,而后台刷数据到磁盘时,可能造成磁盘IO负载增加,从磁盘角度,应用程序的写入可能受到影响了,而实际上应用程序并没有等待。

文件系统的分析可以试着回答下面的问题:

  • 哪个应用程序在使用文件系统?
  • 在对哪些文件进行操作?
  • 在进行什么样的操作,读写比是多少,同步还是异步?
  • 文件系统的缓存有多大,目前的使用情况?
  • 有遇到什么错误吗?是请求不合法,还是文件系统自身的问题?

其实上面的问题,除了能够看到系统的内存情况,页缓存和buffer cache大小,能够看到哪些进程在进行读写操作,在读哪些文件,其他的比如应用程序对文件系统的读写比,同步还是异步,这些问题没有工具能给出明确的信息。当然我们可以通过跟踪应用程序的内核调用栈来发现问题,也可以在应用程序中输出日志来帮助分析。

磁盘分析与工具

在理解磁盘IO之前,同样我们需要理解一些概念,例如:

  • 虚拟磁盘
  • 扇区
  • I/O请求
  • 磁盘命令
  • 带宽
  • 吞吐
  • I/O延时
  • 服务时间
  • 等待时间
  • 随机IO/连续IO
  • 同步/异步
  • 磁盘接口
  • raid

对于磁盘IO,我们可以列出如下等问题来帮助我们分析性能问题:

  • 每块磁盘的使用率是多少?
  • 每块磁盘上有多长等待队列?
  • 平均服务时间和等待时间时多少?
  • 是哪个应用程序或者用户正在使用磁盘?
  • 应用程序读写的方式是怎样的?
  • 为什么会发起磁盘IO,内核调用路径是什么样的?
  • 磁盘上的读写比是多少?
  • 随机IO还是顺序IO?

Linux对磁盘的性能分析工具主要如下:

磁盘上是随机IO还是顺序IO,很多时候我们并没有很好的方式去判断,因为块设备回写磁盘的时候,随机IO可能已经被整理为顺序IO了。对于磁盘的分析同样可以使用perf跟踪事件或者DTrace设置探针。

在分析mysql在某机型上做非全cache非原地更新时,为什么单实例无法将机器性能压满的时候,我们在分析的过程中跟踪了块设备的内核事件。我们对比了多实例非原地更新和单实例非原地更新的时候,磁盘的操作情况。如下为非原地更新时跟踪的结果。对结果分析后看到,单实例非原地更新时,将近30%是blk_finish_plug,有70%是blk_queue_bio,而多实例时正好相反,大量的blk_finish_plug和少量的blk_queue_bio(当然,这不是为什么性能压不满的原因)。

责任编辑:武晓燕 来源: 21CTO
相关推荐

2021-11-05 10:36:19

性能优化实践

2022-02-16 14:10:51

服务器性能优化Linux

2021-11-29 11:13:45

服务器网络性能

2022-05-05 09:27:31

Linux服务器优化

2022-09-26 09:19:38

服务器优化

2011-03-11 15:52:59

LAMP优化

2015-12-30 19:19:37

云存储

2011-08-01 10:49:12

服务器

2023-07-04 07:19:17

物理服务器网络

2013-07-23 09:51:32

Tomcat性能优化服务器性能优化

2010-05-19 10:31:07

IIS服务器

2010-05-19 10:40:59

IIS服务器

2011-03-11 15:53:02

LAMP优化

2009-01-08 17:43:17

服务器性能磁盘

2019-08-12 14:46:56

Web服务器性能

2019-07-30 10:51:22

数据库MySQL固态硬盘

2011-07-29 11:17:28

服务器WAN性能安全

2014-04-23 16:43:05

Linux服务器性能分析

2011-03-11 15:52:57

LAMP优化

2021-01-13 05:27:02

服务器性能高并发
点赞
收藏

51CTO技术栈公众号