Linux内核给每个进程都提供了一个独立的虚拟空间,并且这个地址空间是连续的。这样,进程就可以很方便地访问内存,更确切地说是访问虚拟内存。
虚拟地址空间的内部又被分为内核空间和用户空间两部分,不同字长(也就是单个CPU指令可以处理数据的最大长度)的处理器,地址空间的范围也不同。比如常见的32位和64位系统

进程在用户态时,只能访问用户空间内存;只有进入内核态后,才可以访问内核空间内存。虽然每个进程的地址空间都包含了内核空间,但这些内核空间其实关联的都是相同的物理内存。这样,进程切换到内核态后,就可以很方便地访问内核空间内存。既然每个进程都有一个这么大的地址空间,那么所有的虚拟内存加起来,自然要比实际的物理内存大很多。所以,并不是所有的虚拟内存都会分配物理内存,只有那些实际使用的虚拟内存才分配物理内存,并且分配后的物理内存,是通过内存映射来管理的。
内存映射,其实就是将虚拟内存地址映射到物理内存地址。为了完成内存映射,内核为每个进程都维护了一张页表,记录虚拟地址与物理地址的映射关系:

页表实际上存储在CPU的内存管理单元MMU中,正常情况下,处理器就可以直接通过硬件找出访问的内存。而当进程访问的内存地址在页表中查不到时,系统会产生一个缺页异常,进入内核空间分配物理内存、更新进程页表,最后在返回用户空间,恢复进程的运行。
TLB(Translation Lookaside Buffer,后备缓冲器)会影响CPU的内存访问性能:TLB其实就是MMU中页表的高速缓存。由于进程的虚拟地址空间是独立的,而TLB的访问速度又比MMU快很多,所以,通过减少上下文切换,减少TLB的刷新次数,就可以提高TLB缓存的使用率,进而提高CPU的内存访问性能。
MMU规定了一个内存映射的最小单位,也就是页,通常是4KB。每次内存映射,都需要关联4KB或者4KB整数倍的内存空间。由于页的大小只有4KB,导致的整个页表会变的非常大。例如:32位系统就需要100多万个页表项(4GB/4KB),才可以实现整个地址空间的映射。为了解决页表项过多的问题,Linux提供了两种机制:多级页表 和 大页(HugePage)
多级页表:把整个内存分成区块来管理,将原来的映射关系改成区块索引和区块内的偏移。由于虚拟内存空间通常只用了很少一部分,那么多级页表就只保存这些使用中的区块,这样就可以大大减少页表的选项。Linux用的正是四级页表来管理内存页,如图,虚拟地址被分为5个部分,前4个表项用于选择页,最后一个索引表示页内偏移。
大页:顾名思义就是比普通也更大的内存块,常见的大小有2MB和1GB。大页通常用在使用大量内存的进程上,比如Oracle、DPDK等。
粗略绘制32位系统的虚拟内存空间分布图

从此图可以看出,用户空间内存从低到高分别是五种不同的内存段。
在这五个内存段中,堆和文件映射段的内存是动态分配的。比如说,使用C标准库的malloc()或mmap(),就可以分别在堆和文件映射段动态分配内存。
malloc()是C标准库提供的内存分配函数,对应到系统调用上,有两种实现方式,即brk()和mmap()。
当这两种调用发生后,其实并没有真正分配内存。这些内存都只在首次访问时才分配,也就是通过缺页异常进入内核中,再由内核来分配内存。Linux使用伙伴系统来管理内存分配,与MMU的页管理一样,伙伴系统也是以页为单位来管理内存的,并通过相邻页的合并,较少内存碎片化(比如brk方式造成的内存碎片)。
对于内存来说,如果只分配而不释放,就会造成内存泄露,甚至会耗尽系统内存。所以,在应用程序用完内存后,需要调用 free() 或 unmap() ,来释放不用的内存。在发现内存紧张时,系统就会通过一系列机制来回收内存:
其中,第二种方式回收不常访问的内存时,会用到交换分区(Swap)。Swap其实就是吧一块磁盘空间当成内存来用。它可以吧进程暂时不用的数据存储到磁盘中(这个过程称为换出),当进程访问这些内存时,在从磁盘读取这些数据到内存(这个过程称为换入)。所以Swap把系统的可用内存变大了。不过通常只在内存不足时,才会发生Swap交换,并且由于磁盘读写的速度远比内存慢,Swap会导致严重的内存性能问题。
第三种方式提到的OOM,其实时内核的一种保护机制。它监控进程的内存使用情况,并且使用 oom_score 为每个进程的内存使用情况进行评分:
进程的oom_score越大,代表消耗的内存越多,也就越容易被OOM杀死,从而可以更好保护系统。结合实际需求,可以通过 /proc 文件系统,手动设置进程的 oom_adj,从而调整oom_score。oom_adj的范围是[-17,15],数值越大表示进程越容易被OOM杀死;数值越小表示进程越不容易被OOM杀死,其中 -17 表示禁止OOM。例如:手动调整sshd进程的oom_adj 为 -16,保障sshd进程不容易被OOM杀死
echo -16 > /proc/$(pidof sshd)/oom_adj 

使用man free查看
buffers Memory used by kernel buffers (Buffers in /proc/meminfo)cache Memory used by the page cache and slabs (Cached and SReclaimable in /proc/meminfo)buff/cache Sum of buffers and cache
使用man proc 查看
Buffers %lu Relatively temporary storage for raw disk blocks that shouldn't get tremendously large (20MB or so).Cached %lu In-memory cache for files read from the disk (the page cache). Doesn't include SwapCached.SReclaimable %lu (since Linux 2.6.19) Part of Slab, that might be reclaimed, such as caches.SUnreclaim %lu (since Linux 2.6.19) Part of Slab, that cannot be reclaimed on memory pressure.
清理系统缓存
#清理文件页、目录项、Inodes 等各种缓存echo 3 > /proc/sys/vm/drop_caches
终端1:首先输出vmstat

终端2:执行dd命令,通过读取随机设备,生成一个500MB大小的文件
dd if=/dev/urandom of=/tmp/file bs=1M count=500
终端1:继续观察vmstat中的Buffer 和 Cache。

发现在dd命令运行时,Cache 在不停地增长,而Buffer 基本保持不变:
终端2:清理缓存后,向磁盘/dev/sdb1 写入2GB的随机数据
#清理文件页、目录项、Inodes 等各种缓存echo 3 > /proc/sys/vm/drop_caches#运行dd 命令向磁盘分区 /dev/sdb1 写入2G数据dd if=/dev/urandom of=/dev/sdb1 bs=1M count=2048
终端1:观察内存和I/O变化

此时可以看出,虽然都是写数据,但是写磁盘和写文件的现象不太一样。写磁盘时(也就是bo大于0时),Buffer和Cache都在增长,但是显然Buffer增长的快很多。这说明,写磁盘用到了大量的Buffer。
关于Cache,在写文件时会用到Cache缓存数据,而写磁盘则会用到Buffer缓存数据。所以,Cache是文件读的缓存,实际Cache也会缓存写文件时的数据。
终端2:从文件/tmp/file中读取数据写入空设备
#清理文件页、目录项、Inodes 等各种缓存echo 3 > /proc/sys/vm/drop_caches#运行dd 命令读取文件数据dd if=/tmp/file of=/dev/null
终端1:vmstat观察内存和I/O变化情况

观察vmstat输出,发现读取文件时(bi大于)),Buffer保持不变,而Cache在不停增长。
终端2:清理缓存,从磁盘分区 /dev/sda1中读取数据,写入空设备
#清理文件页、目录项、Inodes 等各种缓存echo 3 > /proc/sys/vm/drop_caches#运行dd 命令读取文件数据dd if=/dev/sda1 of=/dev/null bs=1M count=1024
终端1:vmstat观察内存和I/O变化情况

发现在读磁盘时(bi大于0),Buffer和Cache都在增长,但显然Buffer增长的快很多。说明读磁盘时,数据缓存到了Buffer中。
c>总结
Buffer是对磁盘数据的缓存,而Cache是文件数据的缓存,它们既会用在读请求中,也会用在写请求中。