2022年操作系统设计方案与实现四 .pdf
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《2022年操作系统设计方案与实现四 .pdf》由会员分享,可在线阅读,更多相关《2022年操作系统设计方案与实现四 .pdf(46页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第四章存储器管理存储器是一种必须仔细管理的重要资源。虽然现在一台普通家用计算机的存储器容量可能是60年代早期全世界最大的计算机IBM 7094的五倍以上,但是程序长度的增长速度和存储器容量的增长一样快。用类似于帕金森定律的话来说: 存储器有多大,程序就会有多长 。在这一章中我们将讨论操作系统是怎样管理存储器的。在理想的情况下,每个程序员都会喜欢的是无穷大、快速并且内容不易变(即掉电后内容不会丢失)的存储器,同时又希望它是是廉价的。但不幸的是当前的技术没有能够提供这样的存储器,因此大部分的计算机都有一个存储器层次结构,它由少量的非常快速、昂贵、易变的的高速缓存(cache),若干兆字节的中等速度
2、、中等价格、易变的主存储器(RAM ),和数百兆或数千兆字节的低速、廉价、不易变的磁盘组成。操作系统的工作就是协调这些存储器的使用。操作系统中管理存储器的部分称为存储管理器,它的任务是跟踪哪些存储器正在被使用、哪些存储器空闲,在进程需要时为它分配存储器,使用完毕后释放存储器,并且在主存无法容纳所有进程时管理主存和磁盘间的交换。在这一章中我们将讨论许多不同的存储器管理方案,从非常简单的到高度复杂的。我们从最简单的存储管理系统开始,然后逐步过渡到更加精密的系统。4.1 基本的内存管理存储管理系统可以分为两类:在运行期间将进程在主存和磁盘之间移动的系统(交换和分页)和不移动的系统。后一种比较简单,因
3、此我们首先讨论。随后在本章的后半部分我们将讨论交换和分页。在本章中读者应该自始至终清醒地认识到:交换和分页在很大程度上是由于缺少足够的主存以同时容纳所有的进程而引入的。随着主存越来越便宜,选择某种存储器管理方案的理由也许会变得过时,除非程序变大的速度比存储器降价的速度还要快。4.1.1 没有交换和分页的单道程序最简单的存储器管理方案是同一时刻只运行一道程序,应用程序和操作系统共享存储器。这种方案的三个变种如图4-1所示。操作系统可以位于主存最低端的随机存取存储器(RAM )中,如图 4-1(a) 所示;它也可以位于主存最高端的只读存储器(ROM )中,如图 4-1(b) 所示;还可以让设备驱动
4、程序位于内存高端的ROM 中而让操作系统的其他部分位于低端的 RAM 中,如图 4-1(c) 所示。例如小型的MS-DOS 系统使用的就是最后一种模型。在IBM PC 计算机中,系统位于ROM 中的部分称为基本输入输出系统(BIOS)。图4-1 在一个操作系统一个用户进程时三种简单的内存组织方法,其他方法也是存在的。当这样组织系统时,同一时刻只能有一个进程在存储器中运行。一旦用户输入了一个命令,操作系统就把需要的程序从磁盘拷贝到存储器中并执行它;在进程运行结束后,操作系统显示出一个提示符并等待新的命令。当收到新的命令时它把新的程序装入存储器,覆盖掉原来的程序。4.1.2 固定分区的多道程序虽然
5、单道程序常常用于带有简单操作系统的小型计算机上,但我们往往更加希望同时能有多个进程同时运行。在分时系统中,允许多个进程同时在存储器中,这意味着当一个进程因为等待 I/O 结束而阻塞时,其他的进程可以利用CPU ,因而提高了 CPU 的利用率。即使在个人计算机上,同时运行两个或多个进程也常常是很有用的。实现多道程序的最容易的办法是把主存简单地划分为n个分区(可能不相等),分区的划分可以在系统启动时手工完成。当一个作业到达时,可以把它放到能够容纳它的最小的分区的输入队列中。因为在这种方精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 1 页,共 46 页
6、案中分区大小是固定的,一个分区中未被作业使用的空间就白白浪费掉了。图4-2(a) 所示的就是这种固定分区、各分区有自己独立的输入队列的系统。图4-2 (a)各分区具有独立输入队列固定内存分区。(b) 仅有单个输入队列的固定内存分区。把输入作业排成多个队列时,在大分区的队列为空而小分区的队列为满的情况下,其缺点就变得很明显,如图4-2(a) 中的分区 1和3所示。另一种方法如图4-2(b) 所示,只使用一个队列,当一个分区空闲时,选择最靠近队列头可以被该分区容纳的作业装入其中运行。因为我们不希望为了一个小作业而浪费一个大分区,所以另一个策略是搜索整个输入队列找出该分区能容纳的最大的作业,这种算法
7、认为不值得给小作业一个完整的分区,然而通常我们更加期望给小作业(假设是交互作业)最好的服务,而不是最差的。一个解决方法是至少保留一个小分区,这样就不必为了使小作业运行而为其分配大的分区。另一个方法是采用这样一个规则:一个可运行的作业最多只能够被跳过k次。一个作业每被跳过一次就得一分,当它得到k分时它就不能再被跳过了。这种由操作员在早晨设置好随后就不能再被改变的固定分区的系统曾在IBM大型机的OS/360中使用了许多年,它被称为MFT (具有固定数目任务的多道程序,或OS/MFT ),它易于理解也易于实现:输入作业被送入队列排队直到有合适的分区可用,随后作业被装入分区运行直到它结束。现在只有极少
8、数操作系统,如果还有的话,支持这种模式。重定位和保护多道程序引入了两个必须解决的问题-重定位和保护。从图4-2可以清楚地看出不同的作业将在不同的地址区间运行。在一个程序被链接时(即把主程序、用户编写的例程、库例程结合到同一个地址空间中),链接器必须知道程序将在主存的什么地址开始运行。例如,假设程序的第一条指令是调用在链接器产生的二进制文件中绝对地址为100的一个过程。如果程序被装入分区1,这条指令跳转的目的地址将是绝对地址100,这会造成混乱,因为该地址在操作系统的内部。其实真正应该被调用的地址是100K+100。如果程序被装入分区 2,它就应该去调用200K+100,等等。这就是重定位问题。
9、一个可能的解决方法是在程序装入主存时直接修改指令,装入分区1的程序在每个地址上加100K,装入分区 2的程序在每个地址上加200K,等等。为了在装入时能这样重定位,链接器必须在二进制程序中包含位图或链表,由他们指明那些程序字是需要进行重定位的地址,那些是操作码、常数和其他不能进行重定位的元素。OS/MFT 就是这样工作的,一些微机也是这样工作的。在装入时重定位并没有解决保护问题,一个恶意的程序总可以生成一条新指令并跳转到这条指令执行。因为在这个系统中使用的是绝对地址而不是相对于某个寄存器的地址,没有办法能阻止程序生成读或写主存任何位置的指令。在多用户系统中,我们不希望一个进程读写属于另一个用户
10、的主存空间。IBM采用的保护 360机器的办法是将主存划分为2K字节的块并为每个块分配4位的保护码。PSW 中包含一个 4位的密钥,若运行进程试图对保护码不同于PSW 中密钥的主存进行访问,则由硬件引起一个陷入。因为只有操作系统能够修改保护码和密钥,这种办法能有效地阻止用户进程干涉其他进程或操作系统本身。另一个既针对重定位又针对保护问题的解决方法是在机器中设置两个专门的寄存器,称为基址和界限寄存器。在一个进程被调度到时,它的分区的起始地址被装入基址寄存器,分区的长度被装入界限寄存器。进程产生的每一个地址在访问主存前被自动加上基址寄存器的内容,因此如果基址寄存器是100K,不用修改指令,一条 C
11、ALL 100 指令就被有效地转换为一条 CALL 100K+100指令。指令还被自动地用界限寄存器进行检查以确保他们没有试图访问当前分区以外的地址。基址和界限寄存器受到硬件保护,以防止用户程序修改他们。精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 2 页,共 46 页CDC 6600-世界上第一台巨型机-使用了这个方案。用于初期IBM PC的Intel 8088 CPU使用了这个方案的一个较弱的版本-有基址寄存器,但没有界限寄存器。从286开始,采用了一种更好的方案。4.2 交换在批处理系统中,把主存组织为固定的分区是简单而且高效的,每个作业在
12、排到队列头时被装入一个分区,它停留在主存中直到运行完毕。只要有足够的作业能被保持在主存中以使CPU 始终处于忙的状态,那么就没有理由使用任何更加复杂的方案。但在分时系统或面向图形的个人计算机中情形就不同了,有时会没有足够的主存以容纳所有当前活动的进程,多出的进程必须被保存在磁盘上并动态地调入主存运行。在硬件支持下,有两个通用的内存管理方法可以使用。最简单的策略称为交换(swapping ),它把各个进程完整地调入主存,运行一段时间,再放回到磁盘上;另一种策略称为虚拟存储器(virtual memory),它使进程在只有一部分在主存的情况下也能运行。下面我们将先讨论交换系统,在4-3中我们将讨论
13、虚拟存储器。交换系统的操作如图4-3 所示,开始时只有进程A在主存,随后进程B和C被创建或从磁盘上被调入,在图 4-3(d) 中A结束了或被交换到了磁盘上,然后D进入,接着 B离开,最后 E进入。图4-3 内存分配情况随着进程进出内存而变化,阴影表示的区域是未使用的内存。图4-2 所示的固定分区与图4-3 所示的可变分区的主要区别是:在后者中分区的数量、位置、大小随着进程的出入是动态变化的,而在前者中他们是固定不变的。这种可变分区不再受固定分区可能太大或太小的约束,从而提高了主存的利用率,但它也使内存的分配、释放和对各个内存块的跟踪更加复杂。当交换在主存中生成了多个空洞时,可以把所有的进程向下
14、移动至相互靠紧,从而把这些空洞结合成一大块,这种技术称为内存紧缩(memory compaction )。我们通常不进行这个操作,因为它需要大量的CPU 时间,例如在一个有32M 主存,每微秒可以拷贝16个字节的计算机上把全部内存紧缩一次需要两秒钟。一个值得关心的问题是在一个进程被创建或换进时应该为它分配多大的内存。如果进程创建时的大小是固定的并且不会改变,那么分配是很简单的:完全根据需要的大小进行分配。然而如果进程的数据段可以增长,例如在许多程序设计语言中都允许动态地从堆中分配内存,那么进程一旦试图增长时问题就出现了,如果该进程邻接着一个空洞就可以把这个空洞分配给它;然而如果进程邻接的是另一
15、个进程,则需要增长的进程或者不得不被移动到内存中一个足够大的空洞中去,或者必须把一个或多个进程交换出去以生成一个足够大的空洞。如果一个进程不能在内存中增长并且磁盘上的交换区已经满了,那么这个进程必须等待或被杀死。如果大部分进程在运行时都要增长,那么为了减少进程因为所在的内存区域不够而引起的交换和移动所带来的开销,可以采用的一种方法是:在进程被换进或移动时为其分配一点额外的内存。当然,在进程被换出到磁盘上时应该只交换进程实际使用的内存中的内容,将额外的内存交换出去纯粹是浪费。在图4-4(a) 中我们可以看到一个已经为两个进程分配了增长空间的内存配置。图4-4 (a)为能够增长的数据段预留空间。(
16、b) 为能够增长的数据段和堆栈段预留空间。如果进程有两个可增长的数据部分,例如一个供动态分配和释放的变量使用的作为堆的数据段和一个存放普通局部变量和返回地址的栈段,那么可以使用另一种安排,如图4-4(b)所示。在这个图中我们可以看到所示进程的栈段在进程所占内存的顶端并向下增长,紧接在正文段后面的数据段向上增长,处于这两个段之间的内存,他们都可以使用,如果用完了,则这个进程或者必须被移动到足够大的空洞中,或者交换出内存直到内存中有足够的精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 3 页,共 46 页空间,或者被杀死。4.2.1 使用位图的内存管理
17、动态分配的内存必须由操作系统管理。一般来说有两种方法跟踪内存的使用情况:位图和自由链表。本节和下一节将逐个讨论这两种方法。在使用位图方法时,内存被划分为可能小到几个字或大到几千字节的分配单位,每个分配单位对应于位图中的一位,0表示空闲 1,表示占用(或者反过来)。图4-5表示出了一个内存片段和对应的位图。图4-5 (a)一段有五个进程和三个空洞的内存,刻度表示内存分配的单位,阴影表示空闲区域(在位图中用0表示)。 (b) 对应的位图。 (c) 用列表表示的同样的信息。分配单位的大小是一个重要的设计因素。分配单位越小,位图越大,但是即使分配单位只有4个字节大小, 32位的内存也只需要位图中的1位
18、,32n位的内存只需要 n位的位图,因此位图只占用了 1/33 的内存。如果分配单位选的比较大,需要的位图就比较小,但是如果进程的大小不是分配单位的整数倍,那么最后一个分配单位中相当数量的内存就可能被浪费掉。因为位图的大小仅仅取决于内存和分配单位的大小,它提供了一个简单的使用固定大小内存就能对内存使用情况进行跟踪的方法。它的主要问题是当它决定把一个占k个分配单位的进程调入内存时,内存管理器必须搜索位图以找出一串k个连续的 0。在位图中查找指定长度的连续 0串是一个缓慢的操作(因为串可能跨越字边界)。这是反对使用位图的一个理由。4.2.2 使用链表的内存管理跟踪内存使用的另一个方法是维持一个已分
19、配和空闲的内存段的链表,这里,一个段或者是一个进程,或者是两个进程间的一个空洞。图4-5(a) 的内存可以用图 4-5(c) 所示的段链表来表示。表中的每一个表项都包含下列内容:指明是空洞(H)还是进程 (P) 的标志、开始地址、长度、和指向下一个表项的指针。在这个例子中,段链表是按照地址排序的,这样作的好处是在进程结束或被换出时更新链表十分直观。一个要结束的进程一般有两个邻居(除非它是在内存的最低端或最高端),他们可能是进程也可能是空洞,这导致了图4-6 所示的四种组合。在图4-6(a) 中更新链表需要把 P替换为 H;在图 4-6(b) 和4-6(c) 中两个表项被合并成为一个,链表变短了
20、一个表项;在图 4-6(d) 中三个表项被合并为一个,两个表项被从表中删除。因为结束进程的进程表表项中通常含有指向对应于它的段链表表项的指针,因此这个链表使用双链表可能要比图4-5(c) 所示的单链表更方便,这样更易于找到上一个表项以检查是否可以合并。图4-6 进程 X终止时四种与邻居合并的方式。当进程和空洞按照地址顺序存放在链表中时,好几种算法都可以用来为新创建和换进的进程分配空间,这里我们假设存储管理器知道要分配的内存的大小。最简单的算法是首次适配算法,存储管理器沿着内存段链表搜索直到找到一个足够大的空洞,除非空洞大小和要分配的空间大小刚好一样,否则的话这个空洞将被分为两部分,一部分供进程
21、使用,另一部分是未用的内存。首次适配算法是一种快速的算法,因为它尽可能地少搜索。首次适配的一个较小变形是下次适配,它的工作方式和首次适配相同,区别是每次找到合适的空洞时都记住当时的位置,在下次寻找空洞时从上次结束的地方开始搜索,而不是每次都从头开始。 Bays(1977) 的仿真指出下次适配的性能略低于首次适配。另一个大家熟知的算法是最佳适配算法,它搜索整个链表以找出够用的最小的空洞。最佳适配算法试图找出最接近实际需要的大小的空洞,而不是把一个以后可能会用到的大空洞先使用。作为首次适配和最佳适配算法的例子,让我们再观察图4-5,假如需要一个大小为2的块,首次适配将分配在位置5的空洞,而最佳适配
22、将分配在位置18的空洞。精选学习资料 - - - - - - - - - 名师归纳总结 - - - - - - -第 4 页,共 46 页由于最佳适配算法每次被调用时都要搜索整个链表,它要比首次适配算法慢,有点出乎意料的是它还会导致比首次适配更多的内存浪费,因为它倾向于生成大量没用的很小的空洞,而总的来说首次适配算法生成的空洞更大。为了避免最接近适配的空洞会分裂出极小空洞的问题,大家可能会想到最差适配,即总是分配最大的空洞,以使分裂出来的空洞比较大从而可以继续使用,但仿真说明最差适配也同样不是一个好主意。如果把进程和空洞放在不同链表中,那么这四个算法的速度都能得到提高,这样他们就能只检查空洞而
23、不是进程。但这种分配速度的提高的一个不可避免的代价就是复杂度提高和内存释放速度变慢,因为一个释放的内存段必须从进程链表中删除并插入空洞链表。如果进程和空洞使用不同的链表,空洞链表可以按照大小排序以提高最佳适配的速度。在最佳适配算法搜索由小到大排列的空洞链表时,当它找到一个合适的空洞时它就知道这个空洞是能容纳这个作业的最小的空洞,因此是最佳的,不需要象在单个链表的情况那样继续进行搜索。当空洞链表按大小排序时,首次适配与最佳适配一样快,而下次适配则毫无意义。在空洞被保存在不同于进程的链表中时我们可以作一个小小的优化:不用单独的数据结构存放空洞链表,取而代之用空洞自己。每个空洞的第一个字可以是空洞大
24、小,第二个字指向下一个空洞,于是图4-5(c) 中三个字加一位 (P/H) 的那些链表结点就不再需要了。还有一种分配算法叫做快速适配,它为一些经常被用到长度的空洞设立单独的链表。例如,它可能有一个n个项的表,这个表的第一个项是指向长度为4K的空洞的链表的表头的指针,第二个项是指向长度为8K的空洞的链表的指针,第三个项指向长度12K的空洞链表,等等。象 21K 这样的空洞既可以放在20K的链表中也可以放在一个专门的存放大小比较特别的空洞的链表中。快速适配算法寻找一个指定大小的空洞是十分迅速的,但它有一个所有将空洞按大小排序的方案所共有的一个缺点,即在一个进程结束或被换出时寻找它的邻接块以查看是否
25、可以合并是非常费时间的。如果不作合并,内存会很快分裂成大量的进程无法使用的小空洞。4.3 虚拟存储器许多年以前人们第一次遇到了太大以至于内存容纳不下的程序,通常采取的解决方法是把程序分割成多个叫做覆盖块的片段,覆盖块0首先运行,在它结束时它将调用另一个覆盖块。有一些覆盖系统非常复杂,允许多个覆盖块同时在内存中。覆盖块存放在磁盘上,在需要时由操作系统动态地换入换出。虽然覆盖块换入换出的实际操作都是由系统完成的,但是必须由程序员把程序分割成片段。把一个大程序分割成小的、模块化的片段是非常费时和枯燥的。不久就有人找到了一个把全部工作都交给计算机的办法。这个方法 (Fotheringham, 1961
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2022年操作系统设计方案与实现四 2022 操作系统 设计方案 实现
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内