loading...

23内存管理

内存概述

内存可存放数据

  • 程序执行前需要先放到内存中才能被CPU处理
  • 内存用于缓和CPU与外存之间速度的矛盾

内存地址从0开始,每个地址对应一个存储单元

  • 在操作系统中,一般按照字节编址,即一个地址可以存放一个字节的数据
  • 对于字长为16位的计算机,如果按字编址,则每个存储单元大小为1个字,即16位二进制

2\(^{10}\)= 1K (千)
2\(^{20}\)= 1M (兆,百万)
2\(^{30}\)= 1G (十亿,千兆)

指令工作过程

代码到程序运行需要经过编译、链接、装入三个过程

  • 编译:
    • 由编译程序将用户源代码编译成若干个目标模块(编译就是把高级语言翻译为机器语言)
  • 链接:
    • 由链接程序将编译后形成的一组目标模块,以及所需库函数链接在一起,形成一个完整的装入模块
  • 装入(装载):
    • 由装入程序将装入模块装入内存运行

整个过程描述

  • 开发人员使用高级语言代码进行编写,经过编译器编译、链接生成对应功能的机器指令序列,即可执行程序
  • 程序开始运行前,需要在主存中创建对应的进程,以告知操作系统程序执行状态,即在主存中创建PCB
  • 可执行程序运行过程,会将程序的机器指令序列加载到内存中,即进程的代码段
  • 程序运行过程中产生的各种数据也保存在贮存内,即进程的数据段
  • 当程序这些内容完整的装入到主存中后,其中包含的指令片段便可被CPU调用,并根据需要向CPU申请其他资源,如寄存器中的数据、外部设备

链接方式

静态链接:

  • 在程序运行之前,先将各目标模块及它们所需的库函数连接成一个完整的可执行文件(装入模块),之后不再拆开

装入时动态链接:

  • 将各目标模块装入内存时,边装入边链接的链接方式

运行时动态链接:

  • 在程序执行中需要该目标模块时,才对它进行链接。其优点是便于修改和更新,便于实现对目标模块的共享

进程的内存映像

img

  • 进程只能访问内存用户区中的数据,不能直接访问操作系统内核区中的数据
  • 对于32位系统,堆地址最多分配到0x4000 0000,因此堆区空间的大小取决于只读代码、读/写数据所占用的空间
  • 堆heap是像高地址增长的,用户栈stack是向低地址增长的
  • C语言中的宏定义语句,不会存放到主存空间中,在编译阶段编译器会直接将代码中的内容替换为相应数值,即直接作为指令的立即数

总结:

  • 操作系统内核区一般存放进程控制块PCB
  • 用户栈一般存放在函数局部变量、函数调用时传入的参数
  • 共享库存储映射区一般存放被调用的库函数
  • 堆区一般从放由malloc/free分配、回收的数据
  • 读/写数据区存放定义在函数外的全局变量、由static 关键字修饰的变量
  • 只读代码/数据存放程序代码、由const 关键字修饰的常变量

内存管理

操作系统内存管理方面:

  • 地址转换功能
    • 地址重定位过程交给操作系统完成,方便程序员在编写程序时不需要关注物理内存的实际存储情况
    • 包括绝对装入、可重定位装入、动态运行时装入
  • 内存空间的分配与回收
  • 从逻辑上对内存空间进行扩充
    • 如,覆盖技术、交换技术、虚拟内存技术
  • 存储保护
    • 保证各进程在各自存储空间内运行,互不干扰
    • 操作系统提供两种储存/内存保护方式:
      1. 在CPU中设置一对上、下限寄存器,存放进程的上、下限地址。进程的指令要访问某个地址时,CPU检查是否越界
      2. 采用重定位寄存器(又称基址寄存器)和界地址寄存器(又称限长寄存器)进行越界检查。重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址

装入主存方式

装入主存方式也被称为地址重定位

绝对装入:

  • 在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址/物理地址的目标代码
  • 装入程序按照装入模块中的地址,将程序和数据装入内存
  • 特点:
    • 绝对装入只适用于单道程序环境
  • 程序中使用的绝对地址,可在编译或汇编时给出,也可由程序员直接赋予
  • 通常情况下都是编译或汇编时再转换为绝对地址

静态重定位:

  • 又称可重定位装入。编译、链接后的装入模块的地址都是从0开始的,指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址
    • 即实际地址为相对地址+起始地址
  • 可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行"重定位",将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)
  • 特点:
    • 在一个作业装入内存时,必须分配其要求的全部内存空间
    • 如果没有足够的内存,就不能装入该作业
    • 作业一旦进入内存后,在运行期间就不能再移动,也不能再申请内存空间
    • 可重定位装入适用于早期的多道批处理操作系统

动态重定位:

  • 又称动态运行时装入。编译、链接后的装入模块的地址都是从0开始的
  • 装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行
  • 装入内存后所有的地址依然是逻辑地址
  • 动态重定位方式需要一个重定位寄存器的支持
    • 重定位寄存器用于存放装入模块存放的起始位置
  • 特点:
    • 采用动态重定位时允许程序在内存中发生移动
      • 支持将程序分配到不连续的存储区中
      • 在程序运行前只需装入它的部分代码即可投入运行,然后在程序运行期间,根据需要动态申请分配内存
      • 便于程序段的共享,可以向用户提供一个比存储空间大得多的地址空间
    • 现代操作系统大多采用动态运行时装入

内存空间分配与回收

内部碎片:分配给某进程的内存区域中,如果有些部分没有用上

外部碎片:指内存中的某些空闲分区由于太小而难以利用

外部碎片可通过紧凑/拼凑,Compaction技术解决

传统的内存分配管理方式包括连续分配管理方式、非连续管理方式

连续分配管理方式

连续分配指为用户进程分配的必须是一个连续的内存空间

单一连续分配:

  • 内存被分为系统区和用户区
    • 系统区通常位于内存的低地址部分,用于存放操作系统相关数据
    • 用户区用于存放用户进程相关数据
  • 内存中只能有一道用户程序,用户程序独占整个用户区空间
  • 优点:
    • 实现简单
    • 无外部碎片
    • 可以采用覆盖技术扩充内存
    • 不一定需要采取内存保护(eg:早期的PC 操作系统MS-DOS)
  • 缺点:
    • 只能用于单用户、单任务的操作系统中有内部碎片
    • 由于单个用户程序独占,有很大用户区空闲,存储器利用率极低

单一连续分配由于时单道程序独占,不需要额外的数据结构进行信息存储


固定分区分配:

  • 20世纪60年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会相互干扰
  • 将整个用户空间划分为若干个固定大小的分区,在每个分区中只装入一道作业,这样就形成了最早的、最简单的一种可运行多道程序的内存管理方式,即固定分区分配方式
  • 固定分区分配可采用两种方式:
    • 分区大小相等:
      • 缺乏灵活性,但是很适合用于用一台计算机控制多个相同对象的场合
      • 比如:钢铁厂有n个相同的炼钢炉,就可把内存分为n个大小相等的区域存放n个炼钢炉控制程序
    • 分区大小不等:
      • 增加了灵活性,可以满足不同大小的进程需求。根据常在系统中运行的作业大小情况进行划分
      • 比如:划分多个小分区、适量中等分区、少量大分区
  • 优点:
    • 实现简单,无外部碎片
  • 缺点:
    • 当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能
    • 会产生内部碎片,内存利用率低

分区说明表:操作系统专门设置的一个数据结构,用来实现各个分区的分配与回收

  • 每个表项对应一个分区,通常按分区大小排列
  • 每个表项包括对应分区的大小、起始地址、状态(是否已分配)
分区号 大小(MB) 起始地址(M) 状态
1 2 8 未分配
2 2 10 未分配
3 4 12 已分配
... ... ... ...
  • 当某用户程序要装入内存时,由操作系统内核程序根据用户程序大小检索该表,从中找到一个能满足大小的、未分配的分区,将之分配给该程序,然后修改状态为"已分配"

动态分区分配:

  • 又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要
  • 因此系统分区的大小和数目是可变的
    • eg:假设某计算机内存大小为64MB,系统区8MB,用户区共56 MB...
  • 动态分区分配可采用两种数据结构记录内存的使用情况:
    img
    • 空闲分区表:
      • 每个空闲分区对应一个表项。表项中包含分区号、分区大小、分区起始地址等信息
      • 表项的顺序不一定按照地址递增顺序排序,具体的排列方式取决于动态分区分配算法
    • 空闲分区链:
      • 每个分区的起始部分和末尾部分分别设置前向指针和后向指针。起始部分处还可记录分区大小等信息
  • 把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配给该作业
  • 分区的分配与回收机制:
    • 如果进程退出后需要进行回收区域的前面/后面有一个相邻的空闲分区,回收分区后需要将两个相邻空闲区域进行合并,更新分区大小与起始地址
    • 如果进程退出后需要进行回收区域的前面、后面各有一个相邻的空闲分区,回收分区后需要将三个相邻的空闲分区进行合并,更新分区大小与起始地址
    • 如果进程退出后需要进行回收区域前后没有相邻的空闲分区,则需要在空闲分区表/链中新增一个表项/节点
  • 特点:
    • 动态分区分配没有内部碎片,但是有外部碎片
    • 如果内存中空闲空间的总和本来可以满足某进程的要求,但由于进程需要的是一整块连续的内存空间,因此这些"碎片"不能满足进程的需求

动态分区分配算法

首次适应算法,First Fit:

  • 算法思想:
    • 每次都从低地址开始查找,找到第一个能满足大小的空闲分区
  • 如何实现:
    • 空闲分区以地址递增的次序排列。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区

最佳适应算法,Best Fit:

  • 算法思想:
    • 由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。因此为了保证当"大进程"到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区,即,优先使用更小的空闲区。
  • 如何实现:
    • 空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
  • 缺点:
    • 每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块。因此这种方法会产生很多的外部碎片

最坏适应算法,Worst Fit:又称最大适应算法,Largest Fit

  • 算法思想:
    • 为了解决最佳适应算法的问题——即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。
  • 如何实现:
    • 空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
  • 缺点:
    • 每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完。如果之后有"大进程"到达,就没有内存分区可用了

邻近适应算法,Next Fit:

  • 算法思想:
    • 首次适应算法每次都从链头开始查找的。这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销
    • 如果每次都从上次查找结束的位置开始检索,就能解决上述问题
  • 如何实现:
    • 空闲分区以地址递增的顺序排列(可排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
算法 算法思想 分区排列顺序 优点 缺点
首次适应 从头到尾找适合的分区 空闲分区以地址递增次序排列 综合看性能最好。算法开销小,回收分区后一般不需要对空闲分区队列重新排序 没有明显缺点
最佳适应 优先使用更小的分区,以保留更多大分区 空闲分区以容量递增次序排列 会有更多的大分区被保留下来,更能满足大进程需求 会产生很多太小的、难以利用的碎片;算法开销大,回收分区后可能需要对空闲分区队列重新排序
最坏适应 优先使用更大的分区,以防止产生太小的不可用的碎片 空闲分区以容量递减次序排列 可以减少难以利用的小碎片 大分区容易被用完,不利于大进程;算法开销大(原因同最佳适应)
邻近适应 由首次适应演变而来,每次从上次查找结束位置开始查找 空闲分区以地址递增次序排列(可排列成循环链表) 不用每次都从低地址的小分区开始检索。算法开销小(原因同首次适应算法) 会使高地址的大分区也被用完

非连续分配管理方式

非连续分配:为用户进程分配的可以是一些分散的内存空间

非连续分配管理方式分为基本分页式存储管理、基本分段式存储管理、段页式管理方式

基本分页式存储管理

分页存储:

  • 内存物理空间分为一个个大小相等的分区(比如:每个分区4KB),每个分区就是一个"页框"(页框=页帧=内存块=物理块=物理页面
    • 每个页框有一个编号,即"页框号"(页框号=页帧号=内存块号=物理块号=物理页号),页框号从0开始
  • 进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个"页"或"页面"。每个页面也有一个编号,即"页号",页号也是从0开始

操作系统以页框为单位为各个进程分配内存空间

  • 进程的每个页面分别放入一个页框中
    • 即,进程的页面与内存的页框有一一对应的关系
  • 各个页面不必连续存放,可以放到不相邻的各个页框中
  • 进程的最后一个页面可能没有一个页框那么大
    • 分页存储有可能产生内部碎片,因此页框不能太大,否则可能产生过大的内部碎片造成浪费

页表:

  • 操作系统为每个进程建立的一张表,用于存放进程每个页面在内存中的存放位置
    • 一个进程对应一张页表
    • 进程的每个页面对应一个页表项
    • 每个页表项由"页号"和"块号"组成
    • 页表记录进程页面和实际存放的内存块之间的映射关系
    • 每个页表项的长度是相同的

关于页表大小的设定:

  • 假设某系统物理内存大小为4GB,页面大小为4KB,则每个页表项至少应该为多少字节
    • 内存块大小=页面大小=4KB
    • 4GB内存分为4GB/4KB=2\(^{20}\)个内存块
    • 内存块号需要20个bit,即块号编号为0 ~ 2\(^{20}\)-1
    • 块号至少需要4B存放(24bit > 20bit)
  • 页表项连续存放,因此页号可以是隐含的,不占存储空间(类比数组)
    • 计算机中内存块的数量决定了页表项中块号至少占多少字节
    • 假设每个页表项占3B,且都是连续存放,页表中的各页表项从内存地址为X的地方开始连续存放,则i号页表项的存放地址 = X + 3*i
    • 页表记录的只是内存块号,而不是内存块的起始地址。J号内存块的起始地址 = J * 内存块大小

关于逻辑地址和物理地址的转换:

  • 虽然进程的各个页面是离散存放的,但是页面内部是连续存放的
  • 逻辑地址A对应的物理地址 = P号页面在内存中的起始地址 + 页内偏移量W
  • 假设在某计算机系统中,页面大小是50B。某进程逻辑地址空间大小为200B,则逻辑地址110对应的页号、页内偏移量
    • 页号 = 逻辑地址/页面长度(取除法的整数部分)
    • 页内偏移量 = 逻辑地址%页面长度(取除法的余数部分)
    • 页号 = 110 / 50 = 2,页内偏移量 = 110 % 50 = 10
    • 通过页号查询页表,可知页面在内存中的起始地址。页面在内存中的起始地址 + 页内偏移量 = 实际的物理地址

在计算机内部,地址是用二进制表示的,如果页面大小刚好是2的整数幂,则计算机硬件可以很快速的把逻辑地址拆分成(页号,页内偏移量)

  • 如果每个页面大小为2\(^K\)B,用二进制数表示逻辑地址,则末尾K位即为页内偏移量,其余部分就是页号
  • 假设某计算机用32个二进制位表示逻辑地址,页面大小为4KB =2\(^{12}\)B=4096B
页号 逻辑地址 二进制
0号 0 ~ 4095 00000000000000000000000000000000 - 00000000000000000000111111111111
1号 4096~8191 00000000000000000001000000000000 - 00000000000000000001111111111111
2号 8192~12287 00000000000000000010000000000000 - 00000000000000000010111111111111
3号 12288~16384 00000000000000000011000000000000 - 00000000000000000011111111111111

分页存储管理的逻辑地址结构:

  • 前一部分为页号,后一部分为页内偏移量W
  • 假设地址长度为32位,其中011位为"页内偏移量",或称"页内地址";1231位为"页号"
    • 如果有K位表示"页内偏移量",则说明该系统中一个页面的大小是2K个内存单元
    • 如果有M位表示"页号",则说明在该系统中,一个进程最多允许有2M个页面

基本地址变换机构

基本地址变换机构:借助进程的页表实现将逻辑地址转换为物理地址的硬件结构

  • 通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的起始地址F页表长度M
  • 进程未执行时,页表的始址和页表长度放在进程控制块(PCB)中,当进程被调度时,操作系统内核会把它们放到页表寄存器中
  • 设页面大小为L,逻辑地址A到物理地址E的变换过程
    img
    • PCB中存放进程切换相关的内核程序负责恢复进程运行环境,包括进程页面存放的物理块地址

    • 程序计数器PC中存放指向下一条指令的逻辑地址A

    • 1) 计算页号P和页内偏移量W

      • 如果用十进制数手算,则P=A/L,W=A%L
      • 但是在计算机实际运行时,逻辑地址结构是固定不变的,因此计算机硬件可以更快地得到二进制表示的页号、页内内偏移量

      2) 比较页号P和页表长度M,若P≥M,则产生越界中断,否则继续执行

      • 其中,页号是从0开始的,而页表长度至少是1,因此P=M时也会越界

      3) 页表中页号P对应的页表项地址 = 页表起始地址F + 页号P * 页表项长度,取出该页表项内容b,即为内存块号

      • 页表长度指的是这个页表中总共有几个页表项,即总共有几个页
      • 页表项长度指的是每个页表项占多大的存储空间
      • 页面大小指的是一个页面占多大的存储空间

      4) 计算E=b* L+W,用得到的物理地址E去访存

      • 如果内存块号、页面偏移量是用二进制表示的,那么把二者拼接起来就是最终的物理地址了

      5) 访问目标内存单元

    • 因此地址变换过程需要进行两次访存:第一次访存是在页表中找到对应的页表项;第二次访存是访问目标内存单元


例题:若页面大小L为1K字节,页号2对应的内存块号b=8,将逻辑地址A=2500转换为物理地址E。

  • 等价描述:某系统按字节寻址,逻辑地址结构中,页内偏移量占10位,页号2对应的内存块号b=8,将逻辑地址A=2500转换为物理地址E
  • 计算页号、页内偏移量:
    • 页号P = A / L = 2500 / 1024 = 2;
    • 页内偏移量W = A % L = 2500 % 1024 = 452
  • 根据题中条件可知,页号2没有越界,其存放的内存块号b = 8
  • 物理地址E = b * L + W = 8 * 1024 + 425 = 8644
  • 在分页存储管理(页式管理)的系统中,只要确定了每个页面的大小,逻辑地址结构就确定了
    • 页式管理中地址是一维的。即,只要给出一个逻辑地址,系统就可以自动地算出页号、页内偏移量两个部分,并不需要显式地告诉系统这个逻辑地址中,页内偏移量占多少位

实际应用中,通常使一个页框恰好能放入整数个页表项。为了方便找到页表项,页表一般是放在连续的内存块中的

例题:假设某系统物理内存大小为4GB,页面大小为4KB,内存总共会被分为 2\(^{32}\)/2\(^{12}\)=2\(^{20}\)个内存块

  • 因此内存块号的范围应该是0~ 2\(^{20}\)-1,至少要20个二进制位才能表示这么多的内存块号,因此每个页表项至少要3个字节才够存放(每个字节8个二进制位,3个字节共24个二进制位)
  • 如果各页表项会按顺序连续地存放在内存中,假设该页表在内存中存放的起始地址为X,则
    M号页对应的页表项是存放在内存地址为X + 3 * M
    • 1个页面为4KB,则每个页框可以存放4096 / 3 ≈ 1365个页表项,但是这个页框会剩余4096 % 3 = 1B 页内碎片
  • 如果每个页表项占4字节,则每个页框刚好可存放1024个页表项
    • 1024号页表项虽然是存放在下一个页框中的,但是它的地址依然可以用X + 4 * 1024得出
  • 理论上,页表项长度为3B即可表示内存块号的范围,但是,为了方便页表的查询,常常会让一个页表项占更多的字节,使得每个页面恰好可以装得下整数个页表项
    • 如果计算页表最小占用的大小,则按每个页表项所占大小计算即可
    • 进程页表通常装在连续的内存块中,便于逻辑地址和物理地址的转换

具有快表的地址变换机构

快表地址变换机构:基本地址变换机构的改进版本

  • 快表:
    • 又称联想寄存器TLB,translation lookaside buffer ,是一种访问速度比内存快很多的高速缓存,用来存放最近访问的页表项的副本,可以加速地址变换的速度
    • 与此对应,内存中的页表常称为慢表。因此快表并不是内存
    • 快表TLB和高速缓存Cache一般集成在CPU内部
  • 假设某进程执行过程中要依次访问(0, 0)、(0, 4)、(0, 8) 这几个逻辑地址,访问TLB只需1 us,访问内存需要100 us
    img
    • 在进程未被调度时,其页表信息存放在主存的PCB中;只有当该进程被调度时,才会将页表信息传入段表寄存器中
    1. CPU给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较
    2. 如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表命中,则访问某个逻辑地址仅需一次访存即可
    3. 如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面存放的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表未命中,则访问某个逻辑地址需要两次访存。同时,在找到页表项后,应同时将其存入快表,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换
  • 由于查询快表的速度比查询页表的速度快很多,因此只要快表命中,就可以节省很多时间。因为局部性原理,一般来说快表的命中率可以达到90% 以上
    img
    • 若快表的命中率为90%,那么访问一个逻辑地址的平均耗时为(1+100) * 0.9 + (1+100+100) * 0.1 = 111 us
    • 有的系统支持快表和慢表同时查找,如果是这样,平均耗时应该是(1+100) * 0.9 + (100+100) * 0.1 = 110.9 us
    • 若未采用快表机制,则访问一个逻辑地址需要100+100 = 200us

TLB中只会存放页表项的副本,而普通Cache中会存放各种数据的副本

二级页表

单级页表存在的问题:

  • 违背离散存放原则:
    • 页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框
    • 解决思路:
      • 把页表再分页并离散存储,然后再建立一张页表记录页表各个部分的存放位置,称为页目录表,或称外层页表,或称顶层页表
  • 出于局部性原理,单页表利用率低:
    • 没有必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某几个特定的页面
    • 解决思路:
      • 在需要访问页面时才把页面调入内存(虚拟存储技术)
      • 若想访问的页面不在内存中,则产生缺页中断(内中断/异常),然后将目标页面从外存调入内存

二级页表结构的逻辑地址结构:

  • 一级页号(页目录号) + 二级页号(页表索引) + 页内偏移量
    img
  • 二级页表地址转换过程:
    • 按照地址结构将逻辑地址拆分成三部分
    • 从PCB 中读出页目录表始址,再根据一级页号查页目录表,找到下一级页表在内存中的存放位置
    • 根据二级页号查二级页表,找到最终想访问的内存块号
    • 结合页内偏移量得到物理地址
  • 在二级页表中,页表项中增加一个标志位,用于表示该页面是否已经调入内存
    • 结构变为 二级页号 + 内存块号 + 标志位

若分为两级页表后,页表依然很长,则可以采用更多级页表,一般来说各级页表的大小不能超过一个页面

  • 某系统按字节编址,采用40 位逻辑地址,页面大小为4KB,页表项大小为4B,假设采用纯页式存储
    • 页面大小4KB=2\(^{12}\)B,按地址编址,偏移量占12位
    • 单个页面的最大页表项数量 = 4KB/4B = 2\(^{10}\)
    • 页号=40-12=28,页号占28位,因此共有2\(^{28}\)个页
    • 每级页表最多放2\(^{10}\)个页表项,因此需要使用三级页表10-10-8表示整个主存逻辑空间
  • 即40位的逻辑地址结构为 一级页号(8位) + 二级页号(10位) + 三级页号(10位) + 页内偏移量(12位)

两级页表的访存次数分析,假设没有快表机构

  • 第一次访存:访问内存中的页目录表
  • 第二次访存:访问内存中的二级页表
  • 第三次访存:访问目标内存单元

基本分段存储管理

分段存储管理:

  • 不同于分页存储,分段存储管理在离散分配时所分配的地址空间使用不同的基本单位
  • 进程的地址空间划分:
    • 按照程序自身的逻辑关系划分为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程),每段从0开始编址
  • 内存分配规则:
    • 以段为单位进行分配,每个段在内存中占据连续空间,但各段之间可以不相邻

img

  • 程序员使用段名区分不同的段;操作系统使用段号区分不同的段
    • 写程序时使用的段名[D]、[X] 会被编译程序翻译成对应段号
    • <A>单元、<B>单元会被编译程序翻译成段内地址

分段存储逻辑地址结构:

  • 分段存储逻辑地址结构由段号(段名)和段内地址(段内偏移量)所组成
    • 段号的位数决定了每个进程最多可以分几个段
    • 段内地址位数决定了每个段的最大长度是多少
  • 若系统是按字节寻址的,逻辑地址为32位,段号、段内地址各占16位
    • 在该系统中,每个进程最多有2\(^{16}\)= 64K 个段;每个段的最大长度是2\(^{16}\)= 64KB

段表:

  • 为保证各段离散的程序能正常运行,操作系统为每个进程建立一张段映射表,存放各个逻辑段在物理内存中存放的位置
    • 每个段对应一个段表项,其中记录了该段在内存中的起始位置(又称"基址")和段的长度

    由于段表也是连续存放的,段号就不需要额外占用空间

    • 各个段表项的长度是相同的
      • 例如:某系统按字节寻址,采用分段存储管理,逻辑地址结构为(段号16位, 段内地址16位),物理内存大小为4GB
      • 因此可用16位即可表示最大段长,可用32位表示整个物理内存地址空间,那么每个段表项占 段长16位 + 基址32位 = 48位,即6B
      • 通过基址 + 段长度,直接确定了段在物理内存中的地址范围,不再需要在段表中存放段号这个信息
      • 由于段表项长度相同,若段表存放的起始地址为M,则K号段对应的段表项存放的地址为M + K*6

段表的地址转换过程:
img

  • 在进程未被调度时,其段表信息存放在主存的PCB中;只有当该进程被调度时,才会将段表信息传入段表寄存器中
段表、页表对比
  • 页表管理:

    • 页是信息的物理单位。页的大小固定且由系统决定
    • 分页的主要目的是为了实现离散分配,提高内存利用率
    • 分页仅仅是系统管理上的需要,完全是系统行为,对用户是不可见的
    • 分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址
      • 只要拥有进程某页面的页号,则可通过查页表(一次访存)即可找到该页面在主存的物理地址,即唯一确定的实际存储单元
  • 段表管理:

    • 段是信息的逻辑单位。段的长度不固定,决定于用户编写的程序
    • 分段的主要目的是更好地满足用户需求
    • 一个段通常包含着一组属于一个逻辑模块的信息
    • 分段对用户是可见的,用户编程时需要显式地给出段名
    • 分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址
      • 在确定段名的前提下,只要拥有相应功能段的段号,则可通过查段表(一次访存),可获得该段的基址以及段长,从而确定该段的物理地址范围

分段比分页更容易实现信息的共享和保护

  • 分段将程序的功能代码段进行了划分,同时整个段的功能都指向一块"内存物理空间"区域。如果其他进程需要使用该功能段,只需在其段表中指向同一个段
    • 不能被修改的代码称为纯代码或可重入代码(不属于临界资源),这样的代码是可以共享的
    • 可修改的代码是不能共享的
      • 比如,有一个代码段中有很多变量,各进程并发地同时访问可能造成数据不一致

img

分页(单级页表):

  • 第一次访存——查内存中的页表,第二次访存——访问目标内存单元。总共两次访存

分段:

  • 第一次访存——查内存中的段表,第二次访存——访问目标内存单元。总共两次访存
  • 与分页系统类似,分段系统中也可以引入快表机构,将近期访问过的段表项放到快表中,这样可以少一次访问,加快地址变换速度

段页式管理方式

分页、分段优缺点分析

类型 优点 缺点
分页管理 内存空间利用率高,不会产生外部碎片,只会有少量的页内碎片 不方便按照逻辑模块实现信息的共享和保护
分段管理 很方便按照逻辑模块实现信息的共享和保护 如果段长过大,为其分配很大的连续空间会很不方便。
另外,段式管理会产生外部碎片

分段管理中产生的外部碎片也可以用"紧凑"来解决,只是需要付出较大的时间代价

img

段页式系统的逻辑地址结构:

  • 由段号 + 页号 + 页内地址(页内偏移量)组成
    • 段号的位数决定了每个进程最多可以分几个段
    • 页号位数决定了每个段最大有多少页
    • 页内偏移量决定了页面大小、内存块大小是多少
  • "分段"对用户是可见的,程序员编程时需要显式地给出段号、段内地址
  • 而将各段"分页"对用户是不可见的。系统会根据段内地址自动划分页号和页内偏移量
  • 段页式管理的地址结构是二维的
    • 每个段对应一个段表项,每个段表项由段号、页表长度、页表存放块号(页表起始地址)组成。每个段表项长度相等,段号是隐含的
    • 每个页面对应一个页表项,每个页表项由页号、页面存放的内存块号组成。每个页表项长度相等,页号是隐含的

段页式地址转换:
img

内存空间进行扩充

在传统存储管理方式的基础上引入了交换技术、覆盖技术,使得内存利用率有所提升,并且能从逻辑上扩充内存容量

内存的覆盖与交换(仅了解)

覆盖技术:

  • 早期为了解决程序大小超过物理内存总和问题的方式
  • 设计思想:
    • 将程序分为多个段(多个模块)
    • 常用的段常驻内存,不常用的段在需要时调入内存
  • 内存中分为一个"固定区"和若干个"覆盖区"
    • 需要常驻内存的段放在"固定区"中,调入后就不再调出(除非运行结束)
    • 不常用的段放在"覆盖区",需要用到时调入内存,用不到时调出内存
      img
  • 不同模块如果不能同时被访问,则可以共享同一个覆盖区。共享的覆盖区大小由最大的模块决定
  • 覆盖结构必须由程序员声明,操作系统完成自动覆盖
  • 缺点:
    • 覆盖过程对用户不透明,增加了用户编程负担
  • 覆盖技术只用于早期的操作系统中,现在已成为历史

交换技术:

  • 设计思想:
    • 内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)
  • 交换技术就是操作系统的中级调度(内存调度)功能,决定将哪个处于挂起状态的进程重新调入内存
    • 尽管进程被换出外存,主存中依旧保存进程的PCB(PCB不会被换出),以便在具备运行条件时能够在外存中找到被换出的内容

关于与外存交换时存放的位置:

  • 具有对换功能的操作系统中,通常把磁盘空间分为文件区和对换区两部分
    • 文件区主要用于存放文件,主要追求存储空间的利用率,因此对文件区空间的管理采用离散分配方式
    • 对换区空间只占磁盘空间的小部分,被换出的进程数据就存放在对换区
  • 由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理主要追求换入换出速度,因此通常对换区采用连续分配方式
  • 对换区的I/O速度比文件区的更快

关于交换的时机:

  • 交换通常在许多进程运行且内存吃紧时进行,而系统负荷降低就暂停
    • 例如:在发现许多进程运行时经常发生缺页,就说明内存紧张,此时可以换出一些进程
    • 如果缺页率明显下降,就可以暂停换出

关于被交换的进程选择:

  • 可优先换出阻塞进程
  • 可换出优先级低的进程
  • 为了防止优先级低的进程在被调入内存后很快又被换出,有的系统还会考虑进程在内存的驻留时间

虚拟内存技术

传统存储管理中(包括连续分配、非连续分配),很多暂时不适用的数据会长期占用内存,导致内存利用率不高

  • 一次性:作业必须一次性全部装入内存后才能开始运行
    • 当作业很大时,不能全部装入内存,导致大作业无法运行
    • 大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度下降
  • 驻留性:一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束
    • 事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行
    • 作业一直驻留在主存,直接导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源

时间局部性:

  • 如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;
  • 如果某个数据被访问过,不久之后该数据很可能再次被访问
    • 如,程序中存在大量的循环

快表机制就是将近期长访问的页表项副本放到更高速的"联想"寄存器中

空间局部性:

  • 一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问
    • 很多数据在内存中都是连续存放的,并且程序的指令也是顺序地在内存中存放的

高速缓冲技术的思想:

  • 将近期会频繁访问到的数据放到更高速的存储器中,暂时用不到的数据放在更低速存储器中
  • 在高速缓冲技术的基础上,衍生出了虚拟内存技术

虚拟内存:在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存

  • 虚拟内存是操作系统虚拟性的一个体现,实际的物理内存大小没有变,只是在逻辑上进行了扩充
  • 基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存,暂时用不到的部分留在外存,就可以让程序开始执行
  • 在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序
  • 若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存

虚拟内存特征:

  • 多次性:
    • 无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存
  • 对换性:
    • 在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入、换出
  • 虚拟性:
    • 从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量

虚拟内存技术实现:

  • 虚拟内存技术允许一个作业分多次调入内存。如果采用连续分配方式,会不方便实现。因此,虚拟内存的实现需要建立在离散分配的内存管理方式基础上
  • 虚拟内存技术主要通过请求分页存储管理、请求段页存储管理、请求段页式存储管理三种方式实现
  • 虚拟内存技术与传统非连续分配存储管理在实现上的区别:
    • 在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序
      • 外存调入主存,要求操作系统提供请求调页/请求调段功能
    • 若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存
      • 将闲置存储信息换出外存,要求操作系统提供页面置换/段置换功能

请求分页管理方式

页表机制:

  • 实现"请求调页":
    • 操作系统需要知道每个页面是否已经调入内存;
    • 如果还没调入,那么也需要知道该页面在外存中存放的位置
  • 实现"页面置换":
    • 操作系统需要通过某些指标来决定到底换出哪个页面;
    • 有的页面没有被修改过,就不用再浪费时间写回外存。有的页面修改过,就需要将外存中的旧数据覆盖
    • 因此,操作系统也需要记录各个页面是否被修改的信息
  • 请求分页存储管理的页表结构
页号 内存块 状态位 访问字段 修改位 外存地址
0 0 0 0 x
1 b 1 10 0 y
2 c 1 6 1 z
  • 页号是隐藏的,并不占用存储空间,页表中不需要存放页号
  • 相比基本分页存储管理页表,请求页表项增加了四个字段
    • 状态位:标识该内存块是否已经从外存调入内存
    • 访问字段:可记录最近被访问过几次,或记录上次访问的时间,供置换算法选择换出页面时参考
    • 修改位:页面调入内存后是否被修改过
    • 外存地址:页面在外存中的存放位置

缺页中断机构

  • 假设此时要访问逻辑地址=(页号,页内偏移量)=(0, 1024)
  • 在请求分页系统中,每当要访问的页面不在内存时,便产生一个缺页中断,然后由操作系统的缺页中断处理程序处理中断
  • 此时缺页的进程阻塞,放入阻塞队列,调页完成后再将其唤醒,放回就绪队列
  • 如果内存中有空闲块,则为进程分配一个空闲块,将所缺页面装入该块,并修改页表中相应的页表项
  • 如果内存中没有空闲块,则由页面置换算法选择一个页面淘汰
    • 若该页面在内存期间被修改过,则要将其写回外存
    • 未修改过的页面不用写回外存

缺页中断补充:

  • 当进程发生缺页中断时,进程会从运行态转为阻塞态,放入阻塞队列中。等待页面调入以及置换完成后,该进程会从阻塞队列中移出,加入就绪队列,等待合适机会CPU再次调度该进程
  • 因此进程发生缺页中断时,并不会直接从运行态转为就绪态
    • 进程从运行态直接转为就绪态发生的事件一般如下:
      • 时钟中断:
        • 周期性的时钟信号用于作为并发的关键,将独占处理机的进程打断收回处理机,进行调度
      • 进程调度:
        • 当前某些事件完成后,由于可抢占的调度策略,将剥夺当前运行态的处理机,转而将给进程高优先级或优先进行调度进程变为运行态
      • 内存管理事件:
        • 当操作系统由于某些事件突然释放或者占用大量内存,导致系统需要重新评估运行环境,触发调度策略重新调度进程,剥夺当前进程的处理机
      • 系统调用:
        • 进程请求自行放弃处理器的系统调用(无额外操作,仅放弃CPU)
  • 一条指令在执行期间,可能产生多次缺页中断
    • 如:copy A to B,即将逻辑地址A中的数据复制到逻辑地址B,而A、B属于不同的页面,则有可能产生两次中断

地址变换过程:
img

  1. 请求调页(查到页表项时进行判断)
  2. 页面置换(需要调入页面,但没有空闲内存块时进行)
  3. 需要修改请求页表中新增的表项

地址变换过程细节补充:
img

  • 图中红色框选部分是请求分页管理相比基本分页管理地址变换过程新增的步骤
  1. 只有"写指令"才需要修改"修改位"。并且,一般来说只需修改快表中的数据,只有要将快表项删除时才需要写回内存中的慢表。这样可以减少访存次数
  2. 和普通的中断处理一样,缺页中断处理依然需要保留CPU现场。
  3. 需要用某种"页面置换算法"来决定一个换出页面
  4. 换入/换出页面都需要启动慢速的I/O操作,可见,如果换入/换出太频繁,会有很大的开销。
  5. 页面调入内存后,需要修改慢表,同时也需要将表项复制到快表中
  • 在具有快表机构的请求分页系统中,访问一个逻辑地址时,若发生缺页,则地址变换步骤是:
    • 查快表(未命中)——查慢表(发现未调入内存)——调页(调入的页面对应的表项会直接加入快表)——查快表(命中)——访问目标内存单元

页面分配策略

驻留集:

  • 指请求分页存储管理中给进程分配的物理块的集合
  • 在采用了虚拟存储技术的系统中,驻留集大小一般小于进程的总大小
    • 若驻留集太小,会导致缺页频繁,系统要花大量的时间来处理缺页,实际用于进程推进的事件很少
    • 若驻留集太大,又会导致多道程序并发度下降,资源利用率降低

驻留集大小分配策略:

  • 固定分配:
    • 操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不再改变。即,驻留集大小不变
  • 可变分配:
    • 先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少。即,驻留集大小可变

驻留集置换策略:

  • 局部置换:
    • 发生缺页时只能选进程自己的物理块进行置换
  • 全局置换:
    • 可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程
    • 全局置换意味着一个进程拥有的物理块数量必然会改变,因此不可能是固定分配

页面分配策略

固定分配局部置换:

  • 系统为每个进程分配一定数量的物理块,在整个运行期间都不改变
  • 若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面
  • 特点:
    • 很难在刚开始就确定应为每个进程分配多少个物理块才算合理
    • 采用这种策略的系统可以根据进程大小、优先级、或是根据程序员给出的参数来确定为一个进程分配的内存块数,但依旧无法合理的确定

可变分配全局置换:

  • 刚开始会为每个进程分配一定数量的物理块,操作系统会保持一个空闲物理块队列
  • 当某进程发生缺页时,从空闲物理块中取出一块分配给该进程;
  • 若已无空闲物理块,则可选择一个未锁定的页面换出外存,再将该物理块分配给缺页的进程
    • 操作系统会锁定一些页面,这些页面中的内容跟不能置换出外存。如,重要的内核数据可设为"锁定"
  • 特点:
    • 采用这种策略时,只要某进程发生缺页,都将获得新的物理块,仅当空闲物理块用完时,系统才选择一个未锁定的页面调出
    • 被选择调出的页可能是系统中任何一个进程中的页,因此这个被选中的进程拥有的物理块会减少,缺页率会增加

可变分配局部置换:

  • 刚开始会为每个进程分配一定数量的物理块
  • 当某进程发生缺页时,只允许从该进程自己的物理块中选出一个进行换出外存
  • 如果进程在运行中频繁地缺页,系统会为该进程多分配几个物理块,直至该进程缺页率趋势适当程度;反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块
  • 特点:
    • 根据发生缺页的频率来动态地增加或减少进程的物理块

调入页面的时机

预调页策略:

  • 根据局部性原理,一次调入若干个相邻的页面可能比一次调入一个页面更高效;但如果提前调入的页面中大多数都没被访问过,则又是低效的
  • 因此可以预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测成功率只有50%左右
  • 故这种策略主要用于进程的首次调入,由程序员指出应该先调入哪些部分

请求调页策略:

  • 进程在运行期间发现缺页时才将所缺页面调入内存
  • 由这种策略调入的页面一定会被访问到,但由于每次只能调入一页,而每次调页都要磁盘I/O操作,因此I/O开销较大

在实际应用中,两种策略会结合使用:预调页策略用于运行前调入,请求调页策略用于运行时调入


调入页面的来源

系统拥有足够的对换区空间:

  • 页面的调入、调出都是在内存与对换区之间进行,这样可以保证页面的调入、调出速度很快
  • 在进程运行前,需将进程相关的数据从文件区复制到对换区
    img

系统缺少足够的对换区空间:

  • 凡是不会被修改的数据都直接从文件区调入,由于这些页面不会被修改,因此换出时不必写回磁盘
  • 下次需要时再从文件区调入即可。对于可能被修改的部分,换出时需写回磁盘对换区,下次需要时再从对换区调入
    img

UNIX 方式:

  • 运行之前进程有关的数据全部放在文件区。所以未使用过的页面,都可从文件区调入
  • 若被使用过的页面需要换出,则写回对换区,下次需要时从对换区调入
    img

抖动(颠簸)现象:

  • 刚刚换出的页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为称为抖动,或颠簸
  • 产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数(分配给进程的物理块不够)
    • 为进程分配的物理块太少,会使进程发生抖动现象
    • 为进程分配的物理块太多,又会降低系统整体的并发度,降低某些资源的利用率

工作集:

  • 指在某段时间间隔里,进程实际访问页面的集合
  • 操作系统会根据"窗口尺寸"来算出工作集
    • 某进程的页面访问序列如下,窗口尺寸为4,各时刻的工作集为?
      img
    • 当前访问的页面为界,以窗口大小为宽度,将最近访问的几个页面作为整个工作集
  • 工作集大小可能小于窗口尺寸,实际应用中,操作系统可以统计进程的工作集大小,根据工作集大小给进程分配若干内存块
    • 如:窗口尺寸为5,经过一段时间的监测发现某进程的工作集最大为3,那么说明该进程有很好的局部性,可以给这个进程分配3个以上的内存块即可满足进程的运行需要
  • 一般来说,驻留集大小不能小于工作集大小,否则进程运行过程中将频繁缺页

扩展:

  • 基于局部性原理可知,进程在一段时间内访问的页面与不久之后会访问的页面是有相关性的
  • 因此可以根据进程近期访问的页面集合(工作集)来设计一种页面置换算法:选择一个不在工作集中的页面进行淘汰

页面置换算法

页面的换入、换出需要磁盘I/O,会有较大的开销,因此好的页面置换算法应该追求更少的缺页率

最佳置换算法OPT,Optimal:

  • 每次选择淘汰的页面将是以后永不使用,或者在最长时间内不再被访问的页面,这样可以保证最低的缺页率
  • 最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能知道接下来会访问到的是哪个页面。操作系统无法提前预判页面访问序列。因此,最佳置换算法是无法实现的

先进先出置换算法FIFO:

  • 每次选择淘汰的页面是最早进入内存的页面
    • 把调入内存的页面根据调入的先后顺序排成一个队列,需要换出页面时选择队头页面即可。队列的最大长度取决于系统为进程分配了多少个内存块
  • 只有FIFO 算法会产生Belady 异常
    • Belady 异常:当为进程分配的物理块数增大时,缺页次数不减反增的异常现象
  • FIFO算法虽然实现简单,但是该算法与进程实际运行时的规律不适应
    • 因为先进入的页面也有可能最经常被访问,导致算法性能差

最近最久未使用置换算法LRU,least recently used:

  • 每次淘汰的页面是最近最久未使用的页面
    • 赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间t。当需要淘汰一个页面时,选择现有页面中t 值最大的,即最近最久未使用的页面
  • 该算法的实现需要专门的硬件支持,虽然算法性能好,但是实现困难,开销大

在手动做题时,若需要淘汰页面,可以逆向检查此时在内存中的几个页面号。在逆向扫描过程中最后一个出现的页号就是要淘汰的页面


简单时钟置换算法CLOCK:又称最近未用算法NRU,NotRecently Used

  • 一种性能和开销较均衡的算法
    • 为每个页面设置一个访问位,再将内存中的页面都通过链接指针链接成一个循环队列
    • 访问位为1,表示最近访问过;访问位为0,表示最近没访问过
    • 当某页被访问时,其访问位置为1。当需要淘汰一个页面时,只需检查页的访问位
    • 如果是0,就选择该页换出;如果是1,则将它置为0,暂不换出,继续检查下一个页面,若第一轮扫描中所有页面都是1,则将这些页面的访问位依次置为0后,再进行第二轮扫描
  • CLOCK算法第二轮扫描中一定会有访问位为0的页面,因此简单的CLOCK 算法选择一个淘汰页面最多会经过两轮扫描
  • 简单的时钟置换算法仅考虑到一个页面最近是否被访问过
    • 事实上,如果被淘汰的页面没有被修改过,就不需要执行I/O操作写回外存
    • 只有被淘汰的页面被修改过时,才需要写回外存

改进型时钟置换算法:

  • 除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过。在其他条件都相同时,应优先淘汰没有修改过的页面,避免I/O操作
    • 修改位=0,表示页面没有被修改过;修改位=1,表示页面被修改过
    • (访问位,修改位)表示各页面状态,如(1,1)表示一个页面近期被访问过,且被修改过
    • 算法规则如下:
      • 将所有可能被置换的页面排成一个循环队列
      • 第一轮:从当前位置开始扫描到第一个(0, 0)的帧用于替换。本轮扫描不修改任何标志位

        第一优先级:最近没访问,且没修改的页面

      • 第二轮:若第一轮扫描失败,则重新扫描,查找第一个(0, 1)的帧用于替换。本轮将所有扫描过的帧访问位设为0

        第二优先级:最近没访问,但修改过的页面

      • 第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0, 0)的帧用于替换。本轮扫描不修改任何标志位

        第三优先级:最近访问过,但没修改的页面

      • 第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0, 1)的帧用于替换。

        第四优先级:最近访问过,且修改过的页面

  • 由于第二轮已将所有帧的访问位设为0,因此经过第三轮、第四轮扫描一定会有一个帧被选中,因此改进型CLOCK置换算法选择一个淘汰页面最多会进行四轮扫描
算法 算法规则 优缺点
OPT 优先淘汰最长时间内不会被访问的页面 缺页率最小,性能最好;
但无法实现
FIFO 优先淘汰最先进入内存的页面 实现简单;
但性能很差,可能出现Belady异常
LRU 优先淘汰最近最久没访问的页面 性能很好;
但需要硬件支持,算法开销大
CLOCK(NRU) 循环扫描各页面第一轮淘汰访问位=0的,并将扫描过的页面访问位改为1。
若第一轮没选中,则进行第二轮扫描。
实现简单,算法开销小;
但未考虑页面是否被修改过。
改进型CLOCK(改进型NRU) 若用(访问位, 修改位)的形式表述,则
第一轮:淘汰(0, 0)
第二轮:淘汰(0, 1),并将扫描过的页面访问位都置为0
第三轮:淘汰(0, 0)
第四轮:淘汰(0, 1)
算法开销较小,性能也不错

内存映射文件

传统文件访问方式:

  • 在磁盘中,以块作为最小存储单位,因此存放在磁盘中的文件也会被拆分成若干个块
  • 文件的块不一定是连续存放在磁盘中,可能是离散的存放,但读入文件依旧按照顺序以块为单位读取
  • 当进程需要操作某个文件时,操作系统提供了以下几个系统调用
    • open 系统调用:打开文件
    • seek 系统调用:将读写指针移到文件中的某个位置(相对位置)
    • read 系统调用:从读写指针所指位置读入若干数据
      • 数据会从磁盘读入内存,进程可以在内存中任意修改数据,但是并不会同步到磁盘中
    • write 系统调用——将内存中的指定数据,写回磁盘
      • 根据读写指针确定要写回什么位置,将进程虚拟地址空间中的数据写回文件中

内存映射文件,Memory-MappedFiles:

  • 操作系统向上层程序员提供的功能(系统调用)
    • open 系统调用:打开文件
    • close 系统调用:关闭文件
    • mmap 系统调用:将文件映射到进程的虚拟地址空间
      • 虚拟地址空间从低地址向高地址生长
      • mmap系统调用会返回给进程一个指针,指向映射的虚拟地址空间的起始地址
  • 特征:
    • 方便程序员访问文件数据:
      • 在进程打开文件后,文件的每个块映射到了虚拟地址空间的块,但文件的数据并没有装入主存,所有的块均处于缺页状态。发生缺页中断的处理全部交给操作系统完成
      • 由于主存虚拟地址空间的块与文件的块一一对应,进程可以以访问内存的方式访问文件
      • 当进程关闭文件时,操作系统自动将文件被修改的数据写回磁盘
    • 方便多个进程访问同一个文件
      • 当多个进程访问同一个文件时,文件的块存放在各个进程的虚拟地址空间中
      • 操作系统可以通过页表实现各个进程的虚拟地址空间均映射在同一个主存物理地址,从而实现共享
      • 在物理内存中,一个文件对应同一份数据,当一个进程修改文件数据时,另一个进程可以立马"看到",直接实现了同步
  • 优点:
    • 程序员编程更简单,已建立映射的文件,只需按照访问内存的方式读写即可
    • 文件数据的读入/写出完全由操作系统负责,I/O效率可以由操作系统负责优化
      • 如,预读入、缓写出等
posted @ 2024-08-30 01:11  GK_Jerry  阅读(152)  评论(0)    收藏  举报