《Linux内核精髓:精通Linux内核必会的75个绝技》一HACK #11cpuset

    xiaoxiao2021-04-16  240

    HACK #11cpuset

    本节介绍控制物理CPU分配的cpuset。cpuset是Linux控制组(Cgroup)之一,其功能是指定特定进程或线程所使用的CPU组。另外,除CPU以外,同样还能指定内存节点的分配。以前的内核具有CPU affinity功能,该功能将线程分配给特定CPU。现在的内核中虽然也有affinity(taskset命令),但推荐使用cpuset。用法使用cpuset前,必须通过内核config启用cpuset功能。CONFIG_CPUSETS=y最近的发布版在标准中就已启用。cpuset就是作为Cgroup提供的一个功能。因此,使用cpuset时,就需要挂载 Cgroup文件系统。使用下列方法启用cpuset选项,挂载Cgroup后,就可以使用cpuset(参考Hack #7)。

    # mount -o cpuset -t cgroup cgroup /cgroup

    在这里创建一个新的CPU分配组GroupA。与其他Cgroup同样在挂载的Cgroup下创建新目录GroupA,作为分组GroupA。

    # mkdir /cgroup/GroupA

    编辑新创建分组GroupA的cpuset,修改CPU分配情况。这里以仅将CPU0分配给分组GroupA的情况为例进行说明。在分组GroupA下的特殊文件cpuset.cpus内写入要分配的CPU编号,使用下列命令,来控制分组的cpuset。

    # echo 0 > /cgroup/GroupA/cpuset.cpus

    到这一步,就完成了仅使用CPU0作为GroupA的CPU分配的设置。接下来,在这个分组GroupA中添加进程。这里将当前shell添加到GroupA中。使用下列命令,将PID(

    $$ 表示shell本身的PID)写入GroupA下的task文件。

    # echo $$ > /cgroup/GroupA/task

    此后由当前shell启动的进程全部在这个GroupA下,使用的CPU仅限于0号CPU。现在确认所使用的CPU数量是否受限,以及产生的效果如何。本节显示的是以Fedora 12为例的情况。本示例中使用的Fedora 12内核如下。

    # uname -a Linux fedora12 2.6.31.12-174.2.22.fc12.x86_64 #1 SMP Fri Feb 19 18:55:03 UTC 2010 x86_64 x86_64 x86_64 GNU/Linux

    如果使用cpuset改变所使用的CPU数量会怎么样?比较内核的编译时间。首先准备好要进行比较的编译。为了避免磁盘性能的影响,首先创建内存文件系统tmpfs,并在其中配置源文件。创建目录/tmp/build,挂载 tmpfs,命令如下所示。

    # mkdir /tmp/build # mount -t tmpfs none /tmp/build

    本次测量的是内核源代码每次在创建的tmpfs下解压缩tarball时,使用默认config所花费的内核编译时间。使用的一系列命令行如下。

    # cd /tmp/build/ # tar jxf /ext4data/kernel/linux-2.6.33.tar.bz2 # cd linux-2.6.33/ # make defconfig # time make -j 2

    首先测量Linux 2.6.33的编译时间。将Cgroup挂载到/cgroup,创建分组GroupA。

    # mount -o cpuset -t cgroup cgroup /cgroup # mkdir /cgroup/GroupA

    接下来看一下向分组GroupA分配两个CPU时的结果。

    # echo"0-1" > /cgroup/GroupA/cpuset.cpus # echo 0 > /cgroup/GroupA/cpuset.mems mems默认为空,因此需要填入值 # echo $$ > /cgroup/GroupA/tasks

    编译时间如下。

    # time make -j 2 real 4m55.568s user 2m42.066s sys 5m4.575s

    然后将CPU缩减到只有0号CPU。

    # echo 0 > /cgroup/GroupA/cpuset.cpus # echo 0 > /cgroup/GroupA/cpuset.mems # echo $$ > /cgroup/GroupA/tasks # mount -t tmpfs none /tmp/build # cd /tmp/build/ # tar jxf /ext4data/kernel/linux-2.6.33.tar.bz2 # cd linux-2.6.33/ # make defconfig # time make -j 2 real 7m44.491s user 2m47.319s sys 4m56.737s

    可以看到,CPU数量变为1,实际花费的时间(real)增加。下面以对虚拟化(KVM)进程所使用的CPU进行限制的情况为例,看一下将分配给KVM进程的CPU固定,并确保主机操作系统能够一直使用CPU后,是否能够减少虚拟化的影响。这个示例同样使用Fedora 12。首先使用KVM,启动两个客户端操作系统。然后,在客户端操作系统中循环进行内核编译,加大CPU负载。在解压缩Linux 2.6.33源代码的目录下,无限循环执行make clean和make命令,增加客户端操作系统的CPU负载。

    hshimamoto@ubuntu:~/kernel/linux-2.6.33$ while :; do make clean; time make; done hshimamoto@opensuse:~/kernel/linux-2.6.33> while :; do make clean; time make; done

    在这种情况下计算主机操作系统上的内核编译时间。同前例一样,需要创建tmpfs,消除磁盘性能的影响后再进行测量。计算结果如下。

    # time make -j 2 real 8m20.468s user 2m45.890s sys 4m51.091s

    然后,将KVM的qemu-kvm进程可以使用的CPU设置为只有0号CPU。

    # mount -o cpuset -t cgroup cgroup /cgroup # mkdir /cgroup/kvm # echo 0 > /cgroup/kvm/cpuset.meme 将kvm分组的cpuset设为只有0 # echo 0 > /cgroup/kvm/cpuset.cpus

    将启动中的qemu-kvm移动到kvm分组。

    # ps x | grep qemu 2495 pts/2 Sl+ 238:37 qemu-kvm 2628 pts/3 Sl+ 255:33 qemu-kvm # for i in '\ls /proc/2495/task/'; do echo $i > /cgroup/kvm/tasks; done # for i in '\ls /proc/2628/task/'; do echo $i > /cgroup/kvm/tasks; done

    另外,ksmd(参考Hack #36)也使用CPU,因此这里也将其加入kvm分组。

    # ps ux | grep ksmd root 35 2.2 0.0 0 0? SN Mar23 119:42[ksmd] # echo 35 > /cgroup/kvm/tasks

    现在,主机操作系统的内核编译时间就变成如下所示。

    # time make -j 2 real 7m55.081s user 2m43.303s sys 5m12.039s

    可以发现,内核编译所花费的实际时间减少了接近30秒。这是因为虚拟化的KVM进程只在CPU0上运行,在主机操作系统上就可以使用100%的CPU。小结本节介绍了使用Linux中的Cgroup的cpuset。通过使用这个功能,就可以限制特定进程所使用的CPU。从另一个角度来看,通过固定使用的CPU,还可以提高缓存的利用效率和性能。—Hiroshi Shimamoto

    相关资源:linux内核精华网站、国内顶尖Linux内核开发者精华文章

    最新回复(0)