linux性能影响分析

    xiaoxiao2022-07-03  131

    系统性能一直是个热门话题。做运维这几年也一直在搞性能调优,写这个文章也算是对工作的总结。

    讲调优第一步是,要讲为什么要调优?也就是系统分析,分析还需要有指标,做好性能监控的情况下,看到确实需要调优才能进行。不能为了调优而 “调优“ 那不是调优,那是破坏。

    性能分析的目的

    找出系统性能瓶颈为以后的优化提供方案或者参考达到良好利用资源的目的。硬件资源和软件配置。

    影响性能的因素

    想确定有哪些因素,首先确定你的应用是什么类型的? 例如:

    cpu密集型 例如web服务器像nginx node.js需要CPU进行批处理和数学计算都属于此类型io密集型 例如数据库常见的mysql,大量消耗内存和存储系统,对CPU和网络要求不高,这种应用使用CPU来发起IO请求,然后进入sleep状态。

    确定了应用类型就开始分析有哪些情况能影响性能:

    大量的网页请求会填满运行队列、大量的上下文切换,中断大量的磁盘些请求网卡大量的吞吐以及内存耗尽等。。

    归结起来就是4个方面

    cpumemoryi/onetwork

    系统检测的工具

    我们知道了这四大块影响着我们的性能,那我们有什么工具进行检测呢?

    上图时某国外大神总结的。

    我个人在工作中常用到的有: htop vmstat iotop sar strace iftop ss lsof ethtool mtr等

    另外推荐阿里的tsar以及glances进行系统性能监控。

    CPU 性能监控以及调优

    我们可以 通过检查cpu使用量,通过工具观测上下文切换、中断以及代码调用等方面来进行优化。

    首先明确几个术语: 缓存:为了提供内存i/o性能cpu提供硬件级缓存。查看缓存可以用过 lscpu -p命令来查看

    # lscpu L1d cache: 32K L1i cache: 32K L2 cache: 256K L3 cache: 8192K

    1级缓存为静态缓存,分为数据缓存和指令缓存。 2级和3级缓存为动态缓存,其中2级缓存为共享缓存。

    为了提高cpu缓存命中率我们通常的做法是把cpu绑定在某一个核上,也就是”cpu亲和性” linux下我们可以通过”taskset”命令来实现

    # taskset -pc 0 73890 pid 73890's current affinity list: 0 pid 73890's new affinity list: 0

    但是这样还是有问题。例如不能保证本地内存分配,所以这时候我们需要使用numa来解决问题

    NUMA:非一致性内存访问机制。每个屋里核心都有一段自己使用的内存成为本地节点,都有自己的内存控制器,距离最近的内存节点成称为邻均节点。

    上图为numa的简单的拓扑,来源于互联网。

    numactl可以将程序绑定到特定的numa节点

    # numactl --show #查看当前的numa配置 policy: default preferred node: current physcpubind: 0 cpubind: 0 nodebind: 0 membind: 0

    注:数据库服务器不要用numa,如果要使用请在数据库启动请使用numactl —interleave=all。作为运维可能都被坑过。

    cpu调度策略

    实时调度策略 SCHED_FIFO 静态调度策略,一旦占用cpu则一直运行,一直运行直到有更高优先级任务到达或自己放弃。SCHED_RR 时间轮询策略,当进程的时间片用完,系统将重新分配时间片,并置于就绪队列尾。放在队列尾保证了所有具有相同优先级的RR任务的调度公平。 实时调度策略作用值为1-99,数字越大优先级越高。一般策略 SCHED_OTHER 默认调度策略通过nice和counter值决定权值,nice越小,counter越大,被调度的概率越大,也就是曾经使用了cpu最少的进程将会得到优先调度。作用值为100-139,数字越小优先级越高。SCHED_BATCHSCHED_IDLE

    chrt 修改实时优先级,生产中一般不要修改,默认是rr调度

    SCHED_OTHER 使用nice、renice修改。 另外other支持动态调整,如果手动直接nice修改即可。

    context switches:上下文切换

    linux内核将每一个core当作一个独立的处理器。一个内核可以同时运行50~50000个进程。每个线程将会分配一个时间片,直到这个线程的时间片用完,或是被更高优先级的线程抢占,它才会被重新放回cpu队列。切换线程的过程就是context switch。context switch越高,则内核调度的工作负担越大。

    vmstat 既可以看到 cs的高低

    run queue 运行队列

    每个cpu都有一个运行队列。线程,要么在sleep状态(阻塞并等待IO),要么在运行状态。运行队列越长,则等待cpu处理这个线程的时间越长。运行队列是全局的会被所有CPU共享

    load就是用来描述运行队列的。它的值等于当前正在处理的线程+运行队列里面的线程。

    比如当前系统核数是2,有两个线程正在执行行,还有4个线程在运行队列里面,那么它的load=2+4。

    vmstat w uptime 都可以观测运行队列负载情况。

    cpu性能监控

    说了这么多,那正常情况下需要观察哪些值呢? 首先numa 以及算法都是特殊情况下优化的,一般情况下不会去动这些,需要根据你的业务场景来进行绑定调整,像虚拟化,云计算等可能就需要进行调整。

    那么我们日常需要观测的性能点是:

    cpu利用率 us 60%-70%sy 30%-35%id 0%-5%cs上下文切换 cs和cpu利用率相关,如果能保持上面所说的利用率大量的切换可以接受运行队列 小于等于4最好

    例子:

    # vmstat 1 5 procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------ r b swpd free buff cache si so bi bo in cs us sy id wa st 3 0 1150840 271628 260684 5530984 0 0 2 1 0 0 22 4 73 0 0 5 0 1150840 270264 260684 5531032 0 0 0 0 5873 6085 13 13 73 0 0 5 0 1150840 263940 260684 5531040 0 0 0 4 6721 7507 15 13 72 0 0 4 0 1150840 263320 260684 5531068 0 0 0 0 6111 7117 10 13 76 0 0 4 0 1150840 262328 260684 5531072 0 0 0 0 6854 7673 18 13 68 0 0

    例子中cpu中断(in)以及上下文切换(cs)都比较高,说明内核不得不来回切换进程,同时in也是比较高说明cpu一直在请求资源。

    内存memory

    术语 MMU: CPU是不能与硬盘打交道的,只有数据被载入到内存中才可以被CPU调用。cpu在访问内存的时候需要先像内存监控程序请求,由监控程序控制和分配内存的读写请求,这个监控程序叫做MMU(内存管理单元)

    线性地址到物理地址的映射,如果按照1个字节1个字节映射的话,需要一张非常大的表,这种转换关系会非常的复杂。因此把内存空间又划分成了另外一种存储单元格式,通常为4K。

    每个进程如果需要访问内存的时候都需要去查找page table的话需要借助缓冲器TLB,但每次产找tlb没有或者大量查找还是会造成缓慢,所以又有了page table的分级目录。page table可以分为1级目录,2级目录和偏移量。

    另外让系统管理大量内存有两种方法:

    增加硬件内存管理单元中页表数

    增大页面大小 第一种方法不太现实,所有我们考虑第二种方法。即:大页面。 32位系统4m大页框64位系统2m大页框,页框越粗浪费越严重。 查看系统的大页面:

    cat /proc/meminfo

    AnonHugePages: 309248 kB HugePages_Total: 0 HugePages_Free: 0 HugePages_Rsvd: 0 HugePages_Surp: 0 Hugepagesize: 2048 kB DirectMap4k: 6144 kB DirectMap2M: 1042432 kB DirectMap1G: 0 kB AnonHugePages:透明大页面,THP是一个提取层,可自动创建、管理和使用超大页面的大多数方面。 另外HP必须在引导时设置。 手动设置大页面的页数: sysctl vm.nr_hugepages = 20

    DMA:直接读取内存 在实现DMA传输时,是由DMA控制器直接掌管总线,因此,存在着一个总线控制权转移问题。即DMA传输前,CPU要把总线控制权交给DMA控制器,而在结束DMA传输后,DMA控制器应立即把总线控制权再交回给CPU。一个完整的DMA传输过程必须经过DMA请求、DMA响应、DMA传输、DMA结束4个步骤。

    虚拟内存: 32位的系统上每一个进程在访问内存的时候,每一个进程都当做自己有4个G的内存空间可用,这叫虚拟内存(地址),虚拟内存转化成物理内存是通过MMU来完成的。生产中我们尽量不使用虚拟内存。

    影响系统性能的几个内存参数:

    overcommit_memory 过量使用内存 0 默认设置系统决定是否过量使用。1 不过量使用2 过量使用但有一定的比例默认百分值五十由overcommit_ratio决定(他就是默认的50),举个例子物理内存8g,swap4g,可以过量使用10g。 注:生产中尽量避免过量使用,例如redis要关闭过量使用。spappines -将不活跃的进程换进swap。注:尽量不去使用swap。 生产中设置: echp 10 > /proc/sys/vm/swappines回收内存 这个值设定为 1、2 或者 3 让内核放弃各种页缓存和 slab 缓存的各种组合。 1 系统无效并释放所有页缓冲内存即buffers 2 系统释放所有未使用的 slab 缓冲内存。即cached 3 系统释放所有页缓冲和 slab 缓冲内存。 生产中使用: 1.运行sync echo 3>/proc/sys/vm/drop_caches

    i/o

    IO子系统一般是linux系统中最慢的部分。一个原因是它距离CPU的距离,另一个原因是它的物理结构。因此尽量要减少磁盘IO。

    磁盘调度策略:

    # cat /sys/block/sda/queue/scheduler noop anticipatory deadline [cfq]

    其中当前使用cfq策略。 cfq:完全公平调度。在其时间片段中,进程每次最多可有八个请求(默 认)。调度程序会尝试根据历史数据估计某个程序是否会在近期发出更多 I/O,然后 CFQ 会闲置,等待那个 I/O,即使有其他进程正在等待发出 I/O deadline:每一个请求在指定的期限前必须得到服务。 noop:没有策略 anticipatory:已被抛弃,写多读少的场景使用。

    linux内核以page为单位访问磁盘IO,一般为4K。 查看page: /usr/bin/time -v date

    MPF linux会将内存物理地址空间映射到虚拟内存,内核仅会映射需要的内存页。当应用启动时,内核依次搜索CPU cache和物理内存,查找是否有相应的内存页,如果不存在,则内核将会发起一次MPF(major page fault),将磁盘中的数据读出并缓存到内存中。

    如果在buffer cache找到了对应的内存页,则将会产生一个MnPF(minor page fault).

    /usr/bin/time -v helloworld 第一次执行会发现大部分是MPF 第二次执行会发现大部分是MnPF

    The File Buffer Cache

    file buffer cache用来减少MPF,增加MnPF,它将会持续增长,直到可用内存比较少或是内核需要为其它应用来释放一些内存。free内存比较少,并不能说明系统内存紧张,只能说明linux系统充分使用内存来做cache.

    # cat /proc/meminfo MemTotal: 1004772 kB MemFree: 79104 kB Buffers: 105712 kB

    将数据页写回磁盘 可以使用fsync()或是sync()立即写回,如果没有直接调用这些函数,pdflush会定期刷回磁盘。

    iotop可以显示所有进程的IO占用情况 lsof可以查看所有的调用并打开的文件

    其他命令: vmstat sar iostat top htop等

    最新回复(0)