虚拟地址和物理地址
第一层理解
1、每个进程都有自己独立的4g内存空间,每个进程的内存空间都具有类似的结构。
2、一个新进程建立的时候,将会建立自己的内存空间,此进程的数据,代码等数据从磁盘拷贝到自己的进程空间,哪些数据在哪里,都由进程控制表中的task_struck记录,task_struck中记录一条链表,记录内存空间的分配情况,哪些地址有数据,哪些地址没有数据,哪些可读,哪些可写,都可以通过这个链表进行记录。
3、每个进程已经分配的内存及空间,都与对应的磁盘空间映射。
问题:
计算机明明没有那么多内存(n个进程的话需要n*4g)内存
建立一个进程,就要把磁盘上的程序文件拷贝到进程对应的内存中,对于一个程序对应多个进程这种情况,浪费内存。
第二层理解
1、每个进程的4G内存空间只是虚拟内存空间,每次访问内存空间的某个地址,都需要把地址翻译成实际物理内存地址
2、所有进程共享同一物理内存,每个进程只需要把自己目前需要的虚拟内存映射并存储到物理内存上。
3、进程要知道哪些内存地址的数据在物理内存上,哪些不在,还有在物理内存上哪里,需要用页表记录
4、页表的每一项分两部分,第一部分记录此页是否在物理内存上,第二部分记录物理内存页的地址(如果在的话)
5、当进程访问每个虚拟地址,去看页表,如果发现对应的数据不在物理内存中,则缺页异常。
6、缺页异常的处理过程,就是把进程需要的数据从磁盘上拷贝到物理内存中,如果内存已经满了,没有空地方了,那就找一个页覆盖(页面置换算法)
优点:
1、既然每个进程的内存空间都是一致并且固定,所以连接器在链接可执行文件时,可以设定内存地址,而不用去管这些数据最终实际的内存地址,这是独立内存空间的好处。
2、当不同的进程使用同样的代码时,比如库文件的代码,物理内存中可以值存储一份这样的代码,不同的进程只需要把自己的虚拟内存映射过去就可以了,节省内存。
3、在程序员需要分配连续的内存空间的时候,只需要在虚拟内存空间分配连续空间,而不需要实际物理内存的连续空间,可以利用内存碎片。
另外,事实上,在每个进程创建加载时,内核只是为进程“创建”了虚拟内存的布局,具体就是初始化进程控制表中内存相关的链表,实际上并不立即把虚拟内存对应位置的程序数据和代码拷贝到物理内存中,只是建立好虚拟内存和磁盘文件之间的映射就好(叫存储器映射),等到运行到对应的程序,才会通过缺页异常吗,来拷贝数据。还有进程运行过程中,要动态分配内存,比如malloc时,也只是分配了虚拟内存,即为这块虚拟内存对应的页表项做对应设置,进程真正访问到此数据时,才引发缺页异常。
补充理解:
虚拟存储器设计三个概念:虚拟存储空间,磁盘空间,内存空间
可以认为虚拟空间都被映射到了磁盘空间,(事实上也是按需映射到磁盘空间上,通过mmap),并且由页表记录位置,当访问某个地址的时候,通过页表中的有效位,可以得知此数据是否在内存中,如果不是,则通过缺页异常,将磁盘对应的数据拷贝到内存中,如果没有空闲的内存,则选择牺牲页面,替换其他页面。
物理内存:
在内核态申请内存比在用户态申请内存更直接,它没有采取用户态的那种延迟分配内存技术。内核认为一旦有内核函数申请,那么就必须立刻满足该申请内存的请求,并且这个请求一定正确合理。相反,对于用户态申请内存的请求,内核总是尽量延后分配物理内存,用户进程总是先获得一个虚拟内存的使用权,最终通过缺页异常获得一块真正的物理内存。
1、物理内存的内核映射
IA32架构中内核虚拟地址空间只有1G大小(从3G到4G),因此可以直接将1G大小的物理内存(即常规内存)映射到内核地址空间,但超出1G大小的物理内存(即高端内存)就不能映射到内核空间了。为此,内核采取了下面的方法使得内存可以使用所有的物理内存。
1、高端内存不能全部映射到内核空间,也就是说这些物理内存没有对应的线性地址。不过,内核为每个物理页框都分配了对应的页框描述符,所有的页框描述符都保存在mem_map数组中,因此每个页框描述符的线性地址都是固定存在的。内核此时可以使用alloc_pages()和alloc_page()来分配内存,因为这些函数返回框描述符的线性地址。
2、内核地址空间的后128MB专门用于映射高端内存,否则,没有线性地址的高端内存不能访问不能被内核所访问。这些高端内存的内核映射显然是暂时映射,否则也只能映射128MB的高端内存。当内核 需要访问高端内存时就临时在这个区域进行地址映射,使用完毕之后再用来进行其他高端内存的映射。
由于要进行高端内存的内核映射,因此直接能够映射物理内存得到大小只有896MB,该值保存在high_memory中。
内核采用了三种机制将高端内存映射到内核空间:永久内核映射,固定映射和vmlloc机制。
物理内存机制
基于物理内存在内核空间中的映射原理,物理内存的管理方式也是有所不同。内核中物理内存的管理机制主要有伙伴算法,slab高速缓存和vmalloc机制。其中伙伴算法和slab高速缓存都是在物理内存映射分配物理内存,而vmalloc机制则在高端内存映射区分配物理内存。
伙伴算法
伙伴算法负责大连续物理内存的分配和释放,以页框为基本单位。该机制可以避免外部的碎片。
per-CPU页框告诉缓存
内核经常请求和释放单个页框,该缓存包含预先分配的页框,用户满足本地cpu发出的单一页框请求。
slab缓存
slab缓存负责小块内存的分配,并且它可以作为告诉的缓存,主要针对内核中经常分配并释放的对象。
vmalloc机制
vmalloc机制使得内核通过连续的线性地址来访问非连续的物理页框,这样可以最大限度的使用高端物理内存。
物理内存的分配
内核发出内存申请的请求,根据内核函数调用接口将启用不同的内存分配器。
分区页框分配器
分区页框分配器 (zoned page frame allocator) ,处理对连续页框的内存分配请求。分区页框管理器分为两大部分:前端的管理区分配器和伙伴系统,如下图
管理区分配器负责搜索一个能满足请求页框块大小的管理区。在每个管理区中,具体的页框分配工作由伙伴系统负责。为了达到更好的系统性能,单个页框的申请工作直接通过per-CPU页框高速缓存完成。
该分配器通过几个函数和宏来请求页框,它们之间的封装关系如下图所示。
这些函数和宏将核心的分配函数__alloc_pages_nodemask()封装,形成满足不同分配需求的分配函数。其中,alloc_pages()系列函数返回物理内存首页框描述符,__get_free_pages()系列函数返回内存的线性地址。
slab分配器
slab 分配器最初是为了解决物理内存的内部碎片而提出的,它将内核中常用的数据结构看做对象。slab分配器为每一种对象建立高速缓存。内核对该对象的分配和释放均是在这块高速缓存中操作。一种对象的slab分配器结构图如下:
可以看到每种对象的高速缓存是由若干个slab组成,每个slab是由若干个页框组成的。虽然slab分配器可以分配比单个页框更小的内存块,但它所需的所有内存都是通过伙伴算法分配的。
slab高速缓存分专用缓存和通用缓存。专用缓存是对特定的对象,比如为内存描述符创建高速缓存。通用缓存则是针对一般情况,适合分配任意大小的物理内存,其接口即为kmalloc()。
非连续内存区内存的分配
内核通过vmalloc()来申请非连续的物理内存,若申请成功,该函数返回连续内存区的起始地址,否则,返回NULL。vmalloc()和kmalloc()申请的内存有所不同,kmalloc()所申请内存的线性地址与物理地址都是连续的,而vmalloc()所申请的内存线性地址连续而物理地址则是离散的,两个地址之间通过内核页表进行映射。
vmalloc()的工作方式理解起来很简单:
1、寻找一个新的连续线性地址空间;
2、依次分配一组非连续的页框;
3、为线性地址空间和非连续页框建立映射关系,即修改内核页表;
vmalloc()的内存分配原理与用户态的内存分配相似,都是通过连续的虚拟内存来访问离散的物理内存,并且虚拟地址和物理地址之间是通过页表进行连接的,通过这种方式可以有效的使用物理内存。但是应该注意的是,vmalloc()申请物理内存时是立即分配的,因为内核认为这种内存分配请求是正当而且紧急的;相反,用户态有内存请求时,内核总是尽可能的延后,毕竟用户态跟内核态不在一个特权级。
参考:https://www.cnblogs.com/dyllove98/archive/2013/06/12/3132940.html
本文参考链接:https://www.cnblogs.com/ricklz/p/11037814.html