前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MIT 6.S081 (BOOK-RISCV-REV1)教材第三章内容 -- 页表

MIT 6.S081 (BOOK-RISCV-REV1)教材第三章内容 -- 页表

作者头像
大忽悠爱学习
发布2023-10-11 08:43:15
7280
发布2023-10-11 08:43:15
举报
文章被收录于专栏:c++与qt学习c++与qt学习
MIT 6.S081 教材第三章内容 -- 页表

引言

MIT 6.S081 2020 操作系统

本文为MIT 6.S081课程第三章教材内容翻译加整理。

本课程前置知识主要涉及:

  • C语言(建议阅读C程序语言设计—第二版)
  • RISC-V汇编
  • 推荐阅读: 程序员的自我修养-装载,链接与库

页表

页表是操作系统为每个进程提供私有地址空间和内存的机制。页表决定了内存地址的含义,以及物理内存的哪些部分可以访问。它们允许xv6隔离不同进程的地址空间,并将它们复用到单个物理内存上。

页表还提供了一层抽象(a level of indirection),这允许xv6执行一些特殊操作:

  • 映射相同的内存到不同的地址空间中(a trampoline page),并用一个未映射的页面保护内核和用户栈区。

本章的其余部分介绍了RISC-V硬件提供的页表以及xv6如何使用它们。

分页硬件

提醒一下,RISC-V指令(用户和内核指令)使用的是虚拟地址,而机器的RAM或物理内存是由物理地址索引的。RISC-V页表硬件通过将每个虚拟地址映射到物理地址来为这两种地址建立联系。

XV6基于Sv39 RISC-V运行,这意味着它只使用64位虚拟地址的低39位;而高25位不使用。

在这种Sv39配置中,RISC-V页表在逻辑上是一个由

2^{27}

个页表条目(Page Table Entries/PTE)组成的数组,每个PTE包含一个44位的物理页码(Physical Page Number/PPN)和一些标志。

分页硬件通过使用虚拟地址39位中的前27位索引页表,以找到该虚拟地址对应的一个PTE,然后生成一个56位的物理地址,其前44位来自PTE中的PPN,其后12位来自原始虚拟地址。

图3.1显示了这个过程,页表的逻辑视图是一个简单的PTE数组(参见图3.2进行更详细的了解)。页表使操作系统能够以 4096 (

2^{12}

) 字节的对齐块的粒度控制虚拟地址到物理地址的转换,这样的块称为页(page)。

在这里插入图片描述
在这里插入图片描述

在Sv39 RISC-V中,虚拟地址的前25位不用于转换;将来RISC-V可能会使用那些位来定义更多级别的转换。另外物理地址也是有增长空间的: PTE格式中有空间让物理地址长度再增长10个比特位。RISC-V 的设计者根据技术预测选择了这些数字。

2^{39}

字节是 512 GB,这应该足够让应用程序运行在 RISC-V 计算机上。

2^{56}

的物理内存空间在不久的将来足以容纳可能的 I/O 设备和 DRAM 芯片。 如果需要更多,RISC-V 设计人员定义了具有 48 位虚拟地址的 Sv48。

如图3.2所示,实际的转换分三个步骤进行。页表以三级的树型结构存储在物理内存中。该树的根是一个4096字节的页表页,其中包含512个PTE,每个PTE中包含该树下一级页表页的物理地址。这些页中的每一个PTE都包含该树最后一级的512个PTE(也就是说每个PTE占8个字节,正如图3.2最下面所描绘的)。分页硬件使用27位中的前9位在根页表页面中选择PTE,中间9位在树的下一级页表页面中选择PTE,最后9位选择最终的PTE。

在这里插入图片描述
在这里插入图片描述

如果转换地址所需的三个PTE中的任何一个不存在,页式硬件就会引发页面故障异常(page-fault exception),并让内核来处理该异常(参见第4章)。

与图 3.1 的单级设计相比,图 3.2 的三级结构使用了一种更节省内存的方式来记录 PTE。在大范围的虚拟地址没有被映射的常见情况下,三级结构可以忽略整个页面目录。举个例子,如果一个应用程序只使用了一个页面,那么顶级页面目录将只使用条目0,条目 1 到 511 都将被忽略,因此内核不必为这511个条目所对应的中间页面目录分配页面,也就更不必为这 511 个中间页目录分配底层页目录的页。 所以,在这个例子中,三级设计仅使用了三个页面,共占用

3\times4096

个字节。

因为 CPU 在执行转换时会在硬件中遍历三级结构,所以缺点是 CPU 必须从内存中加载三个 PTE 以将虚拟地址转换为物理地址。为了减少从物理内存加载 PTE 的开销,RISC-V CPU 将页表条目缓存在 Translation Look-aside Buffer (TLB) 中。

TLB发生在哪一步,是在地址翻译之前还是之后?

  • 整个CPU和MMU都在处理器芯片中,所以在一个RISC-V芯片中,有多个CPU核,MMU和TLB存在于每一个CPU核里面。RISC-V处理器有L1 cache,L2 Cache,有些cache是根据物理地址索引的,有些cache是根据虚拟地址索引的,由虚拟地址索引的cache位于MMU之前,由物理地址索引的cache位于MMU之后。
  • 操作系统不需要知道TLB是如何工作的 —> 需要知道TLB存在的唯一原因是,如果切换了page table,操作系统需要告诉处理器当前正在切换page table,处理器会清空TLB。
  • 因为本质上来说,如果你切换了page table,TLB中的缓存将不再有用,它们需要被清空,否则地址翻译可能会出错。所以操作系统知道TLB是存在的,但只会时不时的告诉操作系统,现在的TLB不能用了,因为要切换page table了。在RISC-V中,清空TLB的指令是sfence_vma。

3级的page table是由操作系统实现的还是由硬件自己实现的?

  • 这是由硬件实现的,所以3级 page table的查找都发生在硬件中。MMU是硬件的一部分而不是操作系统的一部分。在XV6中,有一个函数也实现了page table的查找,因为时不时的XV6也需要完成硬件的工作,所以XV6有这个叫做walk的函数,它在软件中实现了MMU硬件相同的功能。

硬件会完成3级 page table的查找,那为什么我们要在XV6中有一个walk函数来完成同样的工作?

  • 首先XV6中的walk函数设置了最初的page table,它需要对3级page table进行编程所以它首先需要能模拟3级page table。
  • 另一个原因或许你们已经在syscall实验中遇到了,在XV6中,内核有它自己的page table,用户进程也有自己的page table,用户进程指向sys_info结构体的指针存在于用户空间的page table,但是内核需要将这个指针翻译成一个自己可以读写的物理地址。
  • 如果你查看copy_in,copy_out,你可以发现内核会通过用户进程的page table,将用户的虚拟地址翻译得到物理地址,这样内核可以读写相应的物理内存地址。这就是为什么在XV6中需要有walk函数的一些原因。

每个PTE包含标志位,这些标志位告诉分页硬件允许如何使用关联的虚拟地址。

  • PTE_V指示PTE是否存在:如果它没有被设置,对页面的引用会导致异常(即不允许)。

当一个PTE是无效的,硬件会返回一个page fault,对于这个page fault,操作系统可以更新 page table并再次尝试指令。

  • PTE_R控制是否允许指令读取到页面。
  • PTE_W控制是否允许指令写入到页面。
  • PTE_X控制CPU是否可以将页面内容解释为指令并执行它们。
  • PTE_U控制用户模式下的指令是否被允许访问页面;
  • 如果没有设置PTE_U,PTE只能在管理模式下使用。

图3.2显示了它是如何工作的。标志和所有其他与页面硬件相关的结构在(*kernel/riscv.h*)中定义。

为了告诉硬件使用页表,内核必须将根页表页的物理地址写入到satp寄存器中(satp的作用是存放根页表页在物理内存中的地址)。每个CPU都有自己的satp,一个CPU将使用自己的satp指向的页表转换后续指令生成的所有地址。每个CPU都有自己的satp,因此不同的CPU就可以运行不同的进程,每个进程都有自己的页表描述的私有地址空间。

通常,内核将所有物理内存映射到其页表中,以便它可以使用加载/存储指令读取和写入物理内存中的任何位置。 由于页目录位于物理内存中,内核可以通过使用标准存储指令写入 PTE 的虚拟地址来对页目录中的 PTE 内容进行编程。

关于术语的一些注意事项。物理内存是指DRAM中的存储单元。物理内存以一个字节为单位划为地址,称为物理地址。指令只使用虚拟地址,分页硬件将其转换为物理地址,然后将其发送到DRAM硬件来进行读写。与物理内存和虚拟地址不同,虚拟内存不是物理对象,而是指内核提供的管理物理内存和虚拟地址的抽象和机制的集合。

PPN中存放的都是物理地址:

  • 我们不能让我们的地址翻译依赖于另一个翻译,否则我们可能会陷入递归的无限循环中。所以page directory必须存物理地址

stap寄存器存放的也是物理地址:

  • 这里必须是物理地址,因为我们要用它来完成地址翻译,而不是对它进行地址翻译。所以SATP需要知道最高一级的page directory的物理地址是什么

内核地址空间

Xv6为每个进程维护一个页表,用以描述每个进程的用户地址空间,外加一个单独描述内核地址空间的页表。内核配置其地址空间的布局,以允许自己以可预测的虚拟地址访问物理内存和各种硬件资源。图3.3显示了这种布局如何将内核虚拟地址映射到物理地址。文件(kernel/memlayout.h) 声明了xv6内核内存布局的常量。

在这里插入图片描述
在这里插入图片描述

上图就是内核中地址的对应关系,左边是内核的虚拟地址空间,右边上半部分是物理内存或者说是DRAM,右边下半部分是I/O设备。

QEMU模拟了一台计算机,它包括从物理地址0x80000000开始并至少到0x86400000结束的RAM(物理内存),xv6称结束地址为PHYSTOP。QEMU模拟还包括I/O设备,如磁盘接口。QEMU将设备接口作为内存映射控制寄存器暴露给软件,这些寄存器位于物理地址空间0x80000000以下。内核可以通过读取/写入这些特殊的物理地址与设备交互;这种读取和写入与设备硬件而不是RAM通信。第4章解释了xv6如何与设备进行交互。

  • 当操作系统启动时,会从地址0x80000000开始运行,这个地址是由硬件设计者决定的
  • 主板的设计人员决定了,在完成了虚拟到物理地址的翻译之后,如果得到的物理地址大于0x80000000会走向DRAM芯片,如果得到的物理地址低于0x80000000会走向不同的I/O设备。这是由这个主板的设计人员决定的物理结构。如果你想要查看这里的物理结构,你可以阅读主板的手册,手册中会一一介绍物理地址对应关系。
在这里插入图片描述
在这里插入图片描述
  • 首先,地址0是保留的,地址0x10090000对应以太网,地址0x80000000对应DDR内存,处理器外的易失存储(Off-Chip Volatile Memory),也就是主板上的DRAM芯片
在这里插入图片描述
在这里插入图片描述
  • 上图中间是RISC-V处理器,处理器中有4个核,每个核都有自己的MMU和TLB。处理器旁边就是DRAM芯片。
在这里插入图片描述
在这里插入图片描述

地址0x1000是boot ROM的物理地址,当你对主板上电,主板做的第一件事情就是运行存储在boot ROM中的代码,当boot完成之后,会跳转到地址0x80000000,操作系统需要确保那个地址有一些数据能够接着启动操作系统。

这里还有一些其他的I/O设备:

  • PLIC是中断控制器(Platform-Level Interrupt Controller)下节课会讲。
  • CLINT(Core Local Interruptor)也是中断的一部分。所以多个设备都能产生中断,需要中断控制器来将这些中断路由到合适的处理函数。
  • UART0(Universal Asynchronous Receiver/Transmitter)负责与Console和显示器交互。
  • VIRTIO disk,与磁盘进行交互。

地址0x02000000对应CLINT,当你向这个地址执行读写指令,你是向实现了CLINT的芯片执行读写。这里你可以认为你直接在与设备交互,而不是读写物理内存。

物理地址总共有2^56那么多,但是你不用在主板上接入那么多的内存。所以不论主板上有多少DRAM芯片,总是会有一部分物理地址没有被用到。实际上在XV6中,我们限制了内存的大小是128MB。


内核使用“直接映射”获取内存和内存映射设备寄存器;也就是说,将资源映射到等于物理地址的虚拟地址

  • 例如,内核本身在虚拟地址空间和物理内存中都位于KERNBASE=0x80000000
  • 直接映射简化了读取或写入物理内存的内核代码。
  • 例如,当fork为子进程分配用户内存时,分配器返回该内存的物理地址;fork在将父进程的用户内存复制到子进程时直接将该地址用作虚拟地址。

有几个内核虚拟地址不是直接映射:

  • 蹦床页面(trampoline page)。它映射在虚拟地址空间的顶部;用户页表具有相同的映射。第4章讨论了蹦床页面的作用,但我们在这里看到了一个有趣的页表用例;一个物理页面(持有蹦床代码)在内核的虚拟地址空间中映射了两次:一次在虚拟地址空间的顶部,一次直接映射。

"跳板页"通常用于实现一些特殊的操作或跳转,例如在用户态和内核态之间进行切换时。

  • 内核栈页面。每个进程都有自己的内核栈,它将映射到偏高一些的地址,这样xv6在它之下就可以留下一个未映射的保护页(guard page)。保护页的PTE是无效的(也就是说PTE_V没有设置),所以如果内核溢出内核栈就会引发一个异常,内核触发panic。如果没有保护页,栈溢出将会覆盖其他内核内存,引发错误操作。恐慌崩溃(panic crash)是更可取的方案。*(注:Guard page不会浪费物理内存,它只是占据了虚拟地址空间的一段靠后的地址,但并不映射到物理地址空间。)*

虽然内核通过高地址内存映射使用内核栈,但是它们也可以通过直接映射的地址进入内核。另一种设计可能只有直接映射,并在直接映射的地址使用栈。然而,在这种安排中,提供保护页将涉及取消映射虚拟地址,否则虚拟地址将引用物理内存,这将很难使用。

  • 内核在权限PTE_RPTE_X下映射蹦床页面和内核文本页面。内核从这些页面读取和执行指令。
  • 内核在权限PTE_RPTE_W下映射其他页面,这样它就可以读写那些页面中的内存。对于保护页面的映射是无效的。

上面这段话大家可能没太读懂,下面我用人话来解释一下:

  • 第一件事情是,有一些page在虚拟内存中的地址很靠后,比如kernel stack在虚拟内存中的地址就很靠后。这是因为在它之下有一个未被映射的Guard page,这个Guard page对应的PTE的Valid 标志位没有设置,这样,如果kernel stack耗尽了,它会溢出到Guard page,但是因为Guard page的PTE中Valid标志位未设置,会导致立即触发page fault,这样的结果好过内存越界之后造成的数据混乱。立即触发一个panic(也就是page fault),你就知道kernel stack出错了。同时我们也又不想浪费物理内存给Guard page,所以Guard page不会映射到任何物理内存,它只是占据了虚拟地址空间的一段靠后的地址。
  • 同时,kernel stack被映射了两次,在靠后的虚拟地址映射了一次,在PHYSTOP下的Kernel data中又映射了一次,但是实际使用的时候用的是上面的部分,因为有Guard page会更加安全。
在这里插入图片描述
在这里插入图片描述
  • 这是众多你可以通过page table实现的有意思的事情之一。你可以向同一个物理地址映射两个虚拟地址,你可以不将一个虚拟地址映射到物理地址。可以是一对一的映射,一对多映射,多对一映射。XV6至少在1-2个地方用到类似的技巧。这的kernel stack和Guard page就是XV6基于page table使用的有趣技巧的一个例子。

  • 第二件事情是权限。例如Kernel text page被标位R-X,意味着你可以读它,也可以在这个地址段执行指令,但是你不能向Kernel text写数据。通过设置权限我们可以尽早的发现Bug从而避免Bug。对于Kernel data需要能被写入,所以它的标志位是RW-,但是你不能在这个地址段运行指令,所以它的X标志位未被设置。(注,所以,kernel text用来存代码,代码可以读,可以运行,但是不能篡改,kernel data用来存数据,数据可以读写,但是不能通过数据伪装代码在kernel中运行)
在这里插入图片描述
在这里插入图片描述

物理内存分配

内核必须在运行时为页表、用户内存、内核栈和管道缓冲区分配和释放物理内存。xv6使用内核末尾到PHYSTOP之间的物理内存进行运行时分配。

在这里插入图片描述
在这里插入图片描述

它一次分配和释放整个4096字节的页面。它使用链表的数据结构将空闲页面记录下来。分配时需要从链表中删除页面;释放时需要将释放的页面添加到链表中。


代码(物理内存分配)

分配器(allocator)位于*kalloc.c*(*kernel/kalloc.c*:1)中。

  • 分配器的数据结构是可供分配的物理内存页的空闲列表。
  • 每个空闲页的列表元素是一个struct run(*kernel/kalloc.c*:17)。
  • 分配器从哪里获得内存来填充该数据结构呢?
    • 它将每个空闲页的run结构存储在空闲页本身,因为在那里没有存储其他东西。
    • 空闲列表受到自旋锁(spin lock)的保护(*kernel/kalloc.c*:21-24)。
    • 列表和锁被封装在一个结构体中,以明确锁在结构体中保护的字段。
    • 现在,忽略锁以及对acquirerelease的调用;第6章将详细查看有关锁的细节。

Tip

  • 对于互斥锁,如果资源已经被占用,资源申请者只能进入睡眠状态。但是自旋锁不会引起调用者睡眠,如果自旋锁已经被别的执行单元保持,调用者就一直循环在那里看是否该自旋锁的保持者已经释放了锁,"自旋"一词就是因此而得名。
  • 自旋锁比较适用于锁使用者保持锁时间比较短的情况。正是由于自旋锁使用者一般保持锁时间非常短,因此选择自旋而不是睡眠是非常必要的,自旋锁的效率远高于互斥锁。

kinit函数

上一节中我们看了boot的流程,我们跟到了main函数。main函数中调用的一个函数是kvminit,这个函数会设置好kernel的地址空间。

在start函数中将stap寄存器设置为0,用以禁止分页机制,当然启动时stap寄存器的值默认为0,所以不设置的情况下,分页机制默认也是处于禁止状态下。

在这里插入图片描述
在这里插入图片描述

但是在设置内核物理空间前,我们需要先对物理内存分配器进行初始化,这个工作由kinit函数完成。

main函数调用kinit(*kernel/kalloc.c*:27)来初始化分配器。

  • kinit初始化空闲列表以保存从内核结束到PHYSTOP之间的每一页。
  • xv6应该通过解析硬件提供的配置信息来确定有多少物理内存可用。
  • 然而,xv6假设机器有128兆字节的RAM。
  • kinit调用freerange将内存添加到空闲列表中,在freerange中每页都会调用kfree
  • PTE只能引用在4096字节边界上对齐的物理地址(是4096的倍数),所以freerange使用PGROUNDUP来确保它只释放对齐的物理地址。
  • 分配器开始时没有内存;这些对kfree的调用给了它一些管理空间。
  • 扫描物理内存,建立好数据结构,用以管理当前物理内存

在继续深入freerange调用链之前,我们先来看一下xv6中是如何使用空闲链表法来对物理内存进行管理的:

在这里插入图片描述
在这里插入图片描述

  • 链接器会将权限相同的section进行合并,得到我们常说的segment,存放于progaram headers中,因此当内核的elf可执行文件被加载时,.rodata,.data和.bss节都会被合并为一个data段。
  • 链表器脚本语法中使用PROVIDER来定义一个符号,同时进行赋值,该符号会被放到符号表中,我们可以在c程序中像访问变量一样访问该符号。

kfree函数
  • 将空闲物理页重放会空闲链表中

分配器有时将地址视为整数,以便对其执行算术运算(例如,在freerange中遍历所有页面),有时将地址用作读写内存的指针(例如,操纵存储在每个页面中的run结构);

  • 这种地址的双重用途是分配器代码充满C类型转换的主要原因。
  • 另一个原因是释放和分配从本质上改变了内存的类型。

函数kfree (*kernel/kalloc.c*:47)首先将内存中的每一个字节设置为1。这将导致使用释放后的内存的代码(使用“悬空引用”)读取到垃圾信息而不是旧的有效内容,从而希望这样的代码更快崩溃。然后kfree将页面前置(头插法)到空闲列表中:

  • 它将pa转换为一个指向struct run的指针r,在r->next中记录空闲列表的旧开始,并将空闲列表设置为等于r

  • memset函数是位于kernel/string.c中的代码片段,用于设置某段内存值为指定的数字c

kalloc函数
  • kalloc删除并返回空闲列表中的第一个元素。

确保分配的内存块中的所有字节都被填充为相同的垃圾值,以避免可能出现的敏感数据泄露或信息泄漏。垃圾数据填充可以增加安全性,防止未初始化的内存被访问,或者在使用内存之前,提前发现内存中的错误。


代码:创建一个地址空间

大多数用于操作地址空间和页表的xv6代码都写在 *vm.c* (kernel/vm.c:1) 中。其核心数据结构是pagetable_t,它实际上是指向RISC-V根页表页的指针;

一个pagetable_t可以是内核页表,也可以是一个进程页表。

在这里插入图片描述
在这里插入图片描述

最核心的函数是walkmappages,前者为虚拟地址找到PTE,后者为新映射装载PTE。

  • 名称以kvm开头的函数操作内核页表;
  • uvm开头的函数操作用户页表;
  • 其他函数用于二者。
  • copyoutcopyin复制数据到用户虚拟地址或从用户虚拟地址复制数据,这些虚拟地址作为系统调用参数提供; 由于它们需要显式地翻译这些地址,以便找到相应的物理内存,故将它们写在vm.c中。

kvminit 函数

在启动序列的前期,main 调用 kvminit (*kernel/vm.c*:54) 以使用 kvmmake (*kernel/vm.c*:20) 创建内核的页表。

  • 此调用发生在 xv6 启用 RISC-V 上的分页之前,因此地址直接引用物理内存。
  • kvmmake 首先分配一个物理内存页来保存根页表页。
  • 然后它调用kvmmap来装载内核需要的转换。
  • 转换包括内核的指令和数据、物理内存的上限到 PHYSTOP,并包括实际上是设备的内存。
  • Proc_mapstacks (*kernel/proc.c*:33) 为每个进程分配一个内核堆栈。它调用 kvmmap 将每个堆栈映射到由 KSTACK 生成的虚拟地址,从而为无效的堆栈保护页面留出空间。

kvminit的代码如下所示:

关于内核代码段和数据端映射图解说明:

在这里插入图片描述
在这里插入图片描述

kvmmap函数

kvmmap(*kernel/vm.c*:127)调用mappages(*kernel/vm.c*:138),mappages将范围虚拟地址到同等范围物理地址的映射装载到一个页表中。它以页面大小为间隔,为范围内的每个虚拟地址单独执行此操作。对于要映射的每个虚拟地址,mappages调用walk来查找该地址的PTE地址。然后,它初始化PTE以保存相关的物理页号、所需权限(PTE_WPTE_X和/或PTE_R)以及用于标记PTE有效的PTE_V(*kernel/vm.c*:153)。

kalloc函数和meset函数都在上面介绍过了,下面我们来看看kvmmap函数的具体实现:

  • 在对mappages函数进行讲解之前,先将函数中用到的相关变量定义和宏定义列出
  • mappages负责为某段虚拟地址空间和物理地址空间在页表中建立映射关系

什么是向下对齐,如何完成对齐操作的,具体逻辑如下所示:

在这里插入图片描述
在这里插入图片描述

关于mappages和下面要讲的walk函数汇总中用到的相关宏定义具体图例说明如下:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

walk函数

在查找PTE中的虚拟地址(参见图3.2)时,walk(*kernel/vm.c*:72)模仿RISC-V分页硬件。walk一次从3级页表中获取9个比特位。它使用上一级的9位虚拟地址来查找下一级页表或最终页面的PTE (*kernel/vm.c*:78)。如果PTE无效,则所需的页面还没有分配;如果设置了alloc参数,walk就会分配一个新的页表页面,并将其物理地址放在PTE中。它返回树中最低一级的PTE地址(*kernel/vm.c*:88)。

上面的代码依赖于直接映射到内核虚拟地址空间中的物理内存。

  • 例如,当walk降低页表的级别时,它从PTE (*kernel/vm.c*:80)中提取下一级页表的(物理)地址,然后使用该地址作为虚拟地址来获取下一级的PTE (*kernel/vm.c*:78)。

walk函数负责通过软件模拟遍历页表的过程,具体代码如下:

在这里插入图片描述
在这里插入图片描述

walk流程:

  1. 从传入的根页表开始往下遍历, 首选从虚拟地址中提取出L2的值,作为根页表的索引号,从根页表中定义对应的PTE
  2. 如果当前PTE的映射关系还没有建立,则PTE_V为无效 2.1 分配一个物理页面作为当前PTE指向的下一级页表的页面,然后通过物理地址反推PTE映射内容,并设置PTE_V为有效,然后赋值给PTE
  3. 如果当前PTE有效 , 将PTE保存的内容转换为对应的物理地址,也就是下一级页表的物理页面的基地址
  4. 第二次循环就是根据L1去二级页表中定位PTE,然后分配物理页给叶子页表,建立映射关系
  5. 此时pagetable指向的是叶子页表,根据L0去叶子页表中定位PTE,然后作为结果返回

一句话: 函数从level2走到level1然后到level0,如果参数alloc不为0,且某一个level的page table不存在,这个函数会创建一个临时的page table,将内容初始化为0,并继续运行。所以最后总是返回的是最低一级的page directory的PTE。

如果参数alloc没有设置,那么在第一个PTE对应的下一级page table不存在时就会返回。

PPN中保存的是物理页号

alloc参数体现出来的就是懒加载思想,上面代码调用过程中传入的alloc值为1,会在遍历到的pte还未建立映射关系时,再申请下一级页表的物理页面,即: 用到时再加载的思想。

我们可以查看一个文件叫做memlayout.h,它将上文中的文档翻译成了一堆常量。在这个文件里面可以看到,UART0对应了地址0x10000000(注,上文中的文档是真正SiFive RISC-V的文档,而下图是QEMU的地址,所以上文中的文档地址与这里的不符)。

在这里插入图片描述
在这里插入图片描述

所以,通过kvmmap可以将物理地址映射到相同的虚拟地址(注,因为kvmmap的前两个参数一致)。


kvminithart函数

main调用kvminithart (*kernel/vm.c*:53)来安装内核页表。它将根页表页的物理地址写入寄存器satp。之后,CPU将使用内核页表转换地址。由于内核使用等价映射,下一条指令的当前虚拟地址将映射到正确的物理内存地址。

这里先解释一下MAKE_SATP宏定义的含义:

在这里插入图片描述
在这里插入图片描述

这个函数首先设置了SATP寄存器,kernel_pagetable变量来自于kvminit第一行。所以这里实际上是内核告诉MMU来使用刚刚设置好的page table。当这里这条指令执行之后,下一个指令的地址会发生什么?

在这条指令之前,还不存在可用的page table,所以也就不存在地址翻译。执行完这条指令之后,程序计数器(Program Counter)增加了4。而之后的下一条指令被执行时,程序计数器会被内存中的page table翻译。

所以这条指令的执行时刻是一个非常重要的时刻。因为整个地址翻译从这条指令之后开始生效,之后的每一个使用的内存地址都可能对应到与之不同的物理内存地址。因为在这条指令之前,我们使用的都是物理内存地址,这条指令之后page table开始生效,所有的内存地址都变成了另一个含义,也就是虚拟内存地址。

这里能正常工作的原因是值得注意的。因为前一条指令还是在物理内存中,而后一条指令已经在虚拟内存中了。比如,下一条指令地址是0x80001110就是一个虚拟内存地址。

在这里插入图片描述
在这里插入图片描述

为什么这里能正常工作呢?

  • 因为kernel page的映射关系中,虚拟地址到物理地址是完全相等的。
  • 所以,在我们打开虚拟地址翻译硬件之后,地址翻译硬件会将一个虚拟地址翻译到相同的物理地址。
  • 所以实际上,我们最终还是能通过内存地址执行到正确的指令,因为经过地址翻译0x80001110还是对应0x80001110。
在这里插入图片描述
在这里插入图片描述

在等价映射的情况下,由于内核代码段的虚拟地址和物理地址是一致的,所以开启分页的下一条指令的虚拟地址经过翻译后,能够正确定位到对应的物理地址上存储的那条指令,所以可以正常执行。

如果是非等价映射情况,可能需要提前计算出虚拟地址和物理地址空间中代码段的间隔,然后开启分页后,虚拟地址减去或者加上固定间隔后,才能得到正确的物理地址,然后才能获取到对应物理地址上的正确数据,或者目标指令。

对于walk函数,在写完SATP寄存器之后,代码是通过page table将虚拟地址翻译成了物理地址,但是这个时候SATP已经被设置了,得到的物理地址不会被认为是虚拟地址吗?

  • walk函数在设置完SATP寄存器后,还能工作的原因是,内核设置了虚拟地址等于物理地址的映射关系,这里很重要,因为很多地方能工作的原因都是因为内核设置的地址映射关系是相同的。

管理虚拟内存的一个难点是,一旦执行了类似于SATP这样的指令,你相当于将一个page table加载到了SATP寄存器,你的世界完全改变了。现在每一个地址都会被你设置好的page table所翻译。那么假设你的page table设置错误了,会发生什么呢?

  • 因为page table没有设置好,虚拟地址可能根本就翻译不了,那么内核会停止运行并panic。
  • 所以,如果page table中有bug,你将会看到奇怪的错误和崩溃,这导致了page table实验将会比较难。
  • 如果你不够小心,或者你没有完全理解一些细节,你可能会导致kernel崩溃,这将会花费一些时间和精力来追踪背后的原因。
  • 但这就是管理虚拟内存的一部分,因为对于一个这么强大的工具,如果出错了,相应的你也会得到严重的后果。
  • 另一方面,这也很有乐趣,经过了page table实验,你们会真正理解虚拟内存是什么,虚拟内存能做什么。

每一个进程的SATP寄存器存在哪?

  • 每个CPU核只有一个SATP寄存器,但是在每个proc结构体,如果你查看proc.h,里面有一个指向page table的指针,这对应了进程的根page table物理内存地址。

为什么通过3级page table会比一个超大的page table更好呢?

  • 原因是,3级page table中,大量的PTE都可以不存储。比如,对于最高级的page table里面,如果一个PTE为空,那么你就完全不用创建它对应的中间级和最底层page table,以及里面的PTE。所以,这就是像是在整个虚拟地址空间中的一大段地址完全不需要有映射一样。
  • 所以3级page table采用按需分配这些映射块,最开始你只有3个page table,一个是最高级,一个是中间级,一个是最低级的。随着代码的运行,我们会创建更多的page table diretory。

procinit函数

main中调用的procinit (*kernel/proc.c*:26)为每个进程分配一个内核栈。它将每个栈映射到KSTACK生成的虚拟地址,这为无效的栈保护页面留下了空间。kvmmap将映射的PTE添加到内核页表中,对kvminithart的调用将内核页表重新加载到satp中,以便硬件知道新的PTE。

  • 每个RISC-V CPU都将页表条目缓存在转译后备缓冲器(快表/TLB)中,当xv6更改页表时,它必须告诉CPU使相应的缓存TLB条目无效。
  • 如果没有这么做,那么在某个时候TLB可能会使用旧的缓存映射,指向一个在此期间已分配给另一个进程的物理页面,这样会导致一个进程可能能够在其他进程的内存上涂鸦。
  • RISC-V有一个指令sfence.vma,用于刷新当前CPU的TLB。
  • xv6在重新加载satp寄存器后,在kvminithart中执行sfence.vma,并在返回用户空间之前在用于切换至一个用户页表的trampoline代码中执行sfence.vma (*kernel/trampoline.S*:79)。
  • 首先来看一下函数中使用到的相关的宏定义
在这里插入图片描述
在这里插入图片描述
  • procinit函数具体代码

进程地址空间

每个进程都有一个单独的页表,当xv6在进程之间切换时,也会更改页表。如图2.3所示,一个进程的用户内存从虚拟地址零开始,可以增长到MAXVA (kernel/riscv.h:348),原则上允许一个进程内存寻址空间为256G。

在这里插入图片描述
在这里插入图片描述

当进程向xv6请求更多的用户内存时,xv6首先使用kalloc来分配物理页面。然后,它将PTE添加到进程的页表中,指向新的物理页面。Xv6在这些PTE中设置PTE_WPTE_XPTE_RPTE_UPTE_V标志。大多数进程不使用整个用户地址空间;xv6在未使用的PTE中留空PTE_V

我们在这里看到了一些使用页表的很好的例子:

  • 首先,不同进程的页表将用户地址转换为物理内存的不同页面,这样每个进程都拥有私有内存。
  • 第二,每个进程看到的自己的内存空间都是以0地址起始的连续虚拟地址,而进程的物理内存可以是非连续的。
  • 第三,内核在用户地址空间的顶部映射一个带有蹦床(trampoline)代码的页面,这样在所有地址空间都可以看到一个单独的物理内存页面。

图3.4更详细地显示了xv6中执行态进程的用户内存布局。

  • 栈是单独一个页面,显示的是由exec创建后的初始内容。
  • 包含命令行参数的字符串以及指向它们的指针数组位于栈的最顶部。
  • 再往下是允许程序在main处开始启动的值(即main的地址、argcargv),这些值产生的效果就像刚刚调用了main(argc, argv)一样。
在这里插入图片描述
在这里插入图片描述

为了检测用户栈是否溢出了所分配栈内存,xv6在栈正下方放置了一个无效的保护页(guard page)。如果用户栈溢出并且进程试图使用栈下方的地址,那么由于映射无效(PTE_V为0)硬件将生成一个页面故障异常。当用户栈溢出时,实际的操作系统可能会自动为其分配更多内存。


代码:sbrk

sbrk是一个用于进程减少或增长其内存的系统调用:

这个系统调用由函数growproc实现(*kernel/proc.c*:239):

growproc根据n是正的还是负的调用uvmallocuvmdealloc

  • uvmalloc(*kernel/vm.c*:229)用kalloc分配物理内存,并用mappages将PTE添加到用户页表中。
  • uvmdealloc调用uvmunmap(*kernel/vm.c*:174),uvmunmap使用walk来查找对应的PTE,并使用kfree来释放PTE引用的物理内存。

释放物理页是可选的,是因为可能存在多个虚拟地址映射到相同物理页的情况

XV6使用进程的页表,不仅是告诉硬件如何映射用户虚拟地址,也是明晰哪一个物理页面已经被分配给该进程的唯一记录。这就是为什么释放用户内存(在uvmunmap中)需要检查用户页表的原因。


代码:exec
ELF文件格式

本节内容参考: 程序员的自我修养,装载,链接与库一书

ELF文件格式:

  • 在计算机科学中,是一种用于二进制文件、可执行文件、目标代码、共享库和核心转储格式文件。
  • ELF是UNIX系统实验室(USL)作为应用程序二进制接口(Application Binary Interface,ABI)而开发和发布的,也是Linux的主要可执行文件格式。
  • ELF文件由4部分组成,分别是ELF头(ELF header)、程序头表(Program header table)、节(Section)和节头表(Section header table)。
  • 实际上,一个文件中不一定包含全部内容,而且它们的位置也未必如同所示这样安排,只有ELF头的位置是固定的,其余各部分的位置、大小等信息由ELF头中的各项值来决定。
  • ELF二进制文件由ELF头、struct elfhdr(*kernel/elf.h*:6),后面一系列的程序节头(section headers)、struct proghdr(*kernel/elf.h*:25)组成。
  • magic:
    • 最开始的4个字节是所有ELF文件都必须相同的标识码,分别为0x7F、0x45、0x4c、0x46,第一个字节对应ASCII字符里面的DEL控制符,后面3个字节刚好是ELF这3个字母的ASCII码。
    • 这4个字节又被称为ELF文件的魔数,几乎所有的可执行文件格式的最开始的几个字节都是魔数。
    • 魔数用来确认文件的类型,操作系统在加载可执行文件的时候会确认魔数是否正确,如果不正确会拒绝加载。
  • elf:
    • 第5个字节是用来标识ELF的文件类型,0x01表示是32位的,0x02表示是64位的;
    • 第6个字节用于表示字节序,规定该ELF文件是大端的还是小端的
    • 第7个字节规定ELF文件的主版本号,一般是1,因为ELF标准自1.2版以后就再也没有更新了
    • 后面的9个字节ELF标准没有定义,一般填0,有些平台会使用这9个字节作为扩展标志。
    在这里插入图片描述
    在这里插入图片描述
  • type:
    • 文件类型 type 成员表示ELF文件类型,即下图中列举的几种ELF文件类型,每个文件类型对应一个常量
    • 系统通过这个常量来判断ELF的真正文件类型,而不是通过文件的扩展名。
    • ELF文件格式被设计成可以在多个平台下使用。这并不表示同一个ELF文件可以在不同的平台下使用(就像java的字节码文件那样),而是表示不同平台下的ELF文件都遵循同一套ELF标准
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  • machine
    • e_machine成员就表示该ELF文件的平台属性,比如3表示该ELF文件只能在Intel x86机器下使用,这也是我们最常见的情况。
    在这里插入图片描述
    在这里插入图片描述
  • version:
    • elf版本号,一般为常数1
  • entry:
    • 入口地址,规定ELF程序的入口虚拟地址,操作系统在加载完该程序后从这个地址开始执行进程的指令
    • 可重定位文件一般没有入口地址,对应该值为0
  • phoff:
    • program headers在elf文件中的偏移位置
  • shoff:
    • section headers在elf文件中的偏移位置
    • 段表是ELF文件中除了文件头以外最重要的结构,它描述了ELF的各个段的信息,比如每个段的段名、段的长度、在文件中的偏移、读写权限及段的其他属性。
    • ELF文件的段结构就是由段表决定的,编译器、链接器和装载器都是依靠段表来定位和访问各个段的属性的

section header

段表(Section Header Table)就是保存这些段的基本属性的结构。段表是ELF文件中除了文件头以外最重要的结构,它描述了ELF的各个段的信息,比如每个段的段名、段的长度、在文件中的偏移、读写权限及段的其他属性。

ELF文件的段结构就是由段表决定的,编译器、链接器和装载器都是依靠段表来定位和访问各个段的属性的。

段表在ELF文件中的位置由ELF文件头的“ e_shoff ”成员决定。

段表的结构比较简单,它是一个以“ Elf32_Shdr ”结构体为元素的数组。数组元素的个数等于段的个数,每个“ Elf32_Shdr ”结 构体对应一个段。“ Elf32_Shdr ”又被称为段描述符(Section Descriptor)。

ELF文件里面很多地方采用了这种与段表类似的数组方式保存。一般定义一个固定长度的结构,然后依次存放。这样我们就可以使用下标来引用某个结构。

Elf32_Shdr段描述符结构如下:

Elf32_Shdr 的各个成员的含义如表3-7所示:

在这里插入图片描述
在这里插入图片描述

事实上段的名字对于编译器、链接器来说是有意义的,但是对于操作系统来说并没有实质的意义,对于操作系统来说,一个段该如何处理取决于它的属性和权限,即由段的类型和段的标志位这两个成员决定。

段的类型相关常量以SHT_开头,列举如表3-8所示:

在这里插入图片描述
在这里插入图片描述

段的标志位( sh_flag ) 段的标志位表示该段在进程虚拟地址空间中的属性,比如是否可写,是否可执行等。相关常量以SHF_开头,如表3-9所示:

在这里插入图片描述
在这里插入图片描述

program header

ELF文件被映射时,是以系统的页长度作为单位的,那么每个段在映射时的长度应该都是系统页长度的整数倍;如果不是,那么多余部分也将占用一个页。一个ELF文件中往往有十几个段,那么内存空间的浪费是可想而知的。有没有办法尽量减少这种内存浪费呢?

当我们站在操作系统装载可执行文件的角度看问题时,可以发现它实际上并不关心可执行文件各个段所包含的实际内容,操作系统只关心一些跟装载相关的问题,最主要的是段的权限(可读、可写、可执行)。

ELF文件中,段的权限往往只有为数不多的几种组合,基本上是三种:

  • 以代码段为代表的权限为可读可执行的段。
  • 以数据段和BSS段为代表的权限为可读可写的段。
  • 以只读数据段为代表的权限为只读的段。

那么我们可以找到一个很简单的方案就是:

  • 对于相同权限的段,把它们合并到一起当作一个段进行映射。
  • 比如有两个段分别叫“.text”和“.init”,它们包含的分别是程序的可执行代码和初始化代码,并且它们的权限相同,都是可读并且可执行的。
  • 假设.text为4 097字节,.init为512字节,这两个段分别映射的话就要占用三个页面,但是,如果将它们合并成一起映射的话只须占用两个页面,
在这里插入图片描述
在这里插入图片描述

ELF可执行文件引入了一个概念叫做“Segment”,一个“Segment”包含一个或多个属性类似的“Section”。正如我们上面的例子中看到的,如果将“.text”段和“.init”段合并在一起看作是一个“Segment”,那么装载的时候就可以将它们看作一个整体一起映射,也就是说映射以后在进程虚存空间中只有一个相对应的VMA(Virtual Memory Address),而不是两个,这样做的好处是可以很明显地减少页面内部碎片,从而节省了内存空间。

Linux中将进程虚拟空间中的一个段叫做虚拟内存区域(VMA, Virtual Memory Area);

我们很难将“Segment”和“Section”这两个词从中文的翻译上加以区分,因为很多时候Section也被翻译成“段”,从链接的角度看,ELF文件是按“Section”存储的,事实也的确如此;从装载的角度看,ELF文件又可以按照“Segment”划分。我们在这里就对“Segment”不作翻译,一律按照原词。

“Segment”的概念实际上是从装载的角度重新划分了ELF的各个段。在将目标文件链接成可执行文件的时候,链接器会尽量把相同权限属性的段分配在同一空间。

  • 比如可读可执行的段都放在一起,这种段的典型是代码段;
  • 可读可写的段都放在一起,这种段的典型是数据段。

在ELF中把这些属性相似的、又连在一起的段叫做一个“Segment”,而系统正是按照“Segment”而不是“Section”来映射可执行文件的。

当我们的elf可执行文件被加载时,有一些段被归入可读可执行的,假设它们被统一映射到一个VMA0;另外一部分段是可读可写的,假设它们被映射到了VMA1;还有一部分段在程序装载时没有被映射的,它们是一些包含调试信息和字符串表等段,这些段在程序执行时没有用,所以不需要被映射。很明显,所有相同属性的“Section”被归类到一个“Segment”,并且映射到同一个VMA。

所以总的来说,“Segment”和“Section”是从不同的角度来划分同一个ELF文件。这个在ELF中被称为不同的视图(View),从“Section”的角度来看ELF文件就是链接视图(Linking View),从“Segment”的角度来看就是执行视图(Execution View)。当我们在谈到ELF装载时,“段”专门指“Segment”;而在其他的情况下,“段”指的是“Section”。

在这里插入图片描述
在这里插入图片描述

ELF可执行文件中有一个专门的数据结构叫做程序头表(Program Header Table)用来保存“Segment”的信息。因为ELF目标文件不需要被装载,所以它没有程序头表,而ELF的可执行文件和共享库文件都有。

跟段表结构一样,程序头表也是一个结构体数组,它的结构体如下:

Elf32_Phdr结构的各个成员的基本含义,如表6-2所示:

在这里插入图片描述
在这里插入图片描述

对于“LOAD”类型的“Segment”来说, p_memsz 的值不可以小于 p_filesz ,否则就是不符合常理的。但是,如果 p_memsz 的值大于 p_filesz 又是什么意思呢?

  • 如果 p_memsz 大于 p_filesz ,就表示该“Segment”在内存中所分配的空间大小超过文件中实际的大小,这部分“多余”的部分则全部填充为“0”。
  • 这样做的好处是,我们在构造ELF可执行文件时不需要再额外设立BSS的“Segment”了,可以把数据“Segment”的 p_memsz 扩大,那些额外的部分就是BSS。
  • 因为数据段和BSS的唯一区别就是:数据段从文件中初始化内容,而BSS段的内容全都初始化为0。

堆和栈

在操作系统里面,VMA除了被用来映射可执行文件中的各个“Segment”以外,它还可以有其他的作用,操作系统通过使用VMA来对进程的地址空间进行管理。

我们知道进程在执行的时候它还需要用到栈(Stack)、堆(Heap)等空间,事实上它们在进程的虚拟空间中的表现也是以VMA的形式存在的,很多情况下,一个进程中的栈和堆分别都有一个对应的VMA。在Linux下,我们可以通过查看“/proc”来查看进程的虚拟空间分布:

在这里插入图片描述
在这里插入图片描述

上面的输出结果中:

  • 第一列是VMA的地址范围;
  • 第二列是VMA的权限,“r”表示可读,“w”表示可写,“x”表示可执行,“p”表示私有(COW, Copy on Write),“s”表示共享。
  • 第三列是偏移,表示VMA对应的Segment在映像文件中的偏移;
  • 第四列表示映像文件所在设备的主设备号和次设备号;
  • 第五列表示映像文件的节点号。
  • 最后一列是映像文件的路径。

我们可以看到进程中有5个VMA,只有前两个是映射到可执行文件中的两个Segment。另外三个段的文件所在设备主设备号和次设备号及文件节点号都是0,则表示它们没有映射到文件中,这种VMA叫做匿名虚拟内存区域(Anonymous Virtual Memory Area)。

我们可以看到有两个区域分别是堆(Heap)和栈(Stack),它们的大小分别为140 KB和88KB。这两个VMA几乎在所有的进程中存在,我们在C语言程序里面最常用的malloc()内存分配函数就是从堆里面分配的,堆由系统库管理。栈一般也叫做堆栈,我们知道每个线程都有属于自己的堆栈,对于单线程的程序来讲,这个VMA堆栈就全都归它使用。

另外有一个很特殊的VMA叫做“vdso”,它的地址已经位于内核空间了(即大于0xC0000000的地址),事实上它是一个内核 的模块,进程可以通过访问这个VMA来跟内核进行一些通信,这里我们就不具体展开了,有兴趣的读者可以去参考一些关于Linux内核模块的资料。

通过上面的例子,让我们小结关于进程虚拟地址空间的概念:

  • 操作系统通过给进程空间划分出一个个VMA来管理进程的虚拟空间;
  • 基本原则是将相同权限属性的、有相同映像文件的映射成一个VMA;
  • 一个进程基本上可以分为如下几种VMA区域:
    • 代码VMA,权限只读、可执行;有映像文件。
    • 数据VMA,权限可读写、可执行;有映像文件。
    • 堆VMA,权限可读写、可执行;无映像文件,匿名,可向上扩展。
    • 栈VMA,权限可读写、不可执行;无映像文件,匿名,可向下扩展。

当我们在讨论进程虚拟空间的“Segment”的时候,基本上就是指上面的几种VMA。现在再让我们来看一个常见进程的虚拟空间是怎么样的,如图6-9所示:

在这里插入图片描述
在这里插入图片描述

exec函数

exec函数都是配合fork函数使用,也就是先fork后exec,exec是执行在子进程的上下文中的

exec是创建地址空间的用户部分的系统调用:

  • 它使用一个存储在文件系统中的文件初始化地址空间的用户部分。
  • exec(*kernel/exec.c*:13)使用namei (*kernel/exec.c*:26)打开指定的二进制path,这在第8章中有解释。
  • 然后,它读取ELF头。Xv6应用程序以广泛使用的ELF格式描述,定义于(*kernel/elf.h*)。
  • ELF二进制文件由ELF头、struct elfhdr(*kernel/elf.h*:6),后面一系列的程序节头(section headers)、struct proghdr(*kernel/elf.h*:25)组成。
  • 每个proghdr描述程序中必须加载到内存中的一节(section);x
  • v6程序只有一个程序节头,但是其他系统对于指令和数据部分可能各有单独的节。

exec函数执行步骤:

  • 第一步是快速检查文件可能包含ELF二进制的文件。ELF二进制文件以四个字节的“幻数”0x7F、“E”、“L”、“F”或ELF_MAGIC开始(*kernel/elf.h*:3)。如果ELF头有正确的幻数,exec假设二进制文件格式良好。
  • exec使用proc_pagetable (*kernel/exec.c*:38)分配一个没有用户映射的新页表
  • 使用uvmalloc (*kernel/exec.c*:52)为每个ELF段分配内存
  • 并使用loadseg (*kernel/exec.c*:10)将每个段加载到内存中。
  • loadseg使用walkaddr找到分配内存的物理地址,在该地址写入ELF段的每一页,并使用readi从文件中读取。

使用exec创建的第一个用户程序/init的程序节标题如下:

程序节头的filesz可能小于memsz,这表明它们之间的间隙应该用零来填充(对于C全局变量),而不是从文件中读取。对于/init,filesz是2112字节,memsz是2136字节,因此uvmalloc分配了足够的物理内存来保存2136字节,但只从文件/init中读取2112字节。

  • 现在exec分配并初始化用户栈。它只分配一个栈页面。exec一次将参数中的一个字符串复制到栈顶,并在ustack中记录指向它们的指针。它在传递给mainargv列表的末尾放置一个空指针。ustack中的前三个条目是伪返回程序计数器(fake return program counter)、argcargv指针。
  • exec在栈页面的正下方放置了一个不可访问的页面,这样试图使用超过一个页面的程序就会出错。这个不可访问的页面还允许exec处理过大的参数;在这种情况下,被exec用来将参数复制到栈的函数copyout(*kernel/vm.c*:355) 将会注意到目标页面不可访问,并返回-1。
  • 在准备新内存映像的过程中,如果exec检测到像无效程序段这样的错误,它会跳到标签bad,释放新映像,并返回-1。exec必须等待系统调用成功后再释放旧映像:因为如果旧映像消失了,系统调用将无法返回-1。exec中唯一的错误情况发生在映像的创建过程中。一旦映像完成,exec就可以提交到新的页表(*kernel/exec.c*:113)并释放旧的页表(*kernel/exec.c*:117)。
  • exec将ELF文件中的字节加载到ELF文件指定地址的内存中。用户或进程可以将他们想要的任何地址放入ELF文件中。因此exec是有风险的,因为ELF文件中的地址可能会意外或故意的引用内核。对一个设计拙劣的内核来说,后果可能是一次崩溃,甚至是内核的隔离机制被恶意破坏(即安全漏洞)。xv6执行许多检查来避免这些风险。
    • 例如,if(ph.vaddr + ph.memsz < ph.vaddr)检查总和是否溢出64位整数,危险在于用户可能会构造一个ELF二进制文件,其中的ph.vaddr指向用户选择的地址,而ph.memsz足够大,使总和溢出到0x1000,这看起来像是一个有效的值。在xv6的旧版本中,用户地址空间也包含内核(但在用户模式下不可读写),用户可以选择一个与内核内存相对应的地址,从而将ELF二进制文件中的数据复制到内核中。在xv6的RISC-V版本中,这是不可能的,因为内核有自己独立的页表;loadseg加载到进程的页表中,而不是内核的页表中。

内核开发人员很容易省略关键的检查,而现实世界中的内核有很长一段丢失检查的历史,用户程序可以利用这些检查的缺失来获得内核特权。xv6可能没有完成验证提供给内核的用户级数据的全部工作,恶意用户程序可以利用这些数据来绕过xv6的隔离。


下面给出exec完整源码注释说明:

关于磁盘读取这块的源码,不是本节重点,没有给出。

exec函数中将elf文件加载到当前进程虚拟地址空间后的视图如下所示:

在这里插入图片描述
在这里插入图片描述
  • proc_pagetable为当前子进程分配一个新页表
  • loadseg加载段的内容到指定的虚拟地址
  • uvmclear设置gurad page
  • copyout完成数据从内核态到用户态的拷贝
在这里插入图片描述
在这里插入图片描述
  • proc_freepagetable释放旧的页表

真实世界

像大多数操作系统一样,xv6使用分页硬件进行内存保护和映射。大多数操作系统通过结合分页和页面故障异常使用分页,比xv6复杂得多,我们将在第4章讨论这一点。

内核通过使用虚拟地址和物理地址之间的直接映射,以及假设在地址0x8000000处有物理RAM (内核期望加载的位置) ,Xv6得到了简化。这在QEMU中很有效,但在实际硬件上却是个坏主意;实际硬件将RAM和设备置于不可预测的物理地址,因此(例如)在xv6期望能够存储内核的0x8000000地址处可能没有RAM。更严肃的内核设计利用页表将任意硬件物理内存布局转换为可预测的内核虚拟地址布局。

RISC-V支持物理地址级别的保护,但xv6没有使用这个特性。

在有大量内存的机器上,使用RISC-V对“超级页面”的支持可能很有意义。而当物理内存较小时,小页面更有用,这样可以以精细的粒度向磁盘分配和输出页面。例如,如果一个程序只使用8KB内存,给它一个4MB的物理内存超级页面是浪费。在有大量内存的机器上,较大的页面是有意义的,并且可以减少页表操作的开销。

xv6内核缺少一个类似malloc可以为小对象提供内存的分配器,这使得内核无法使用需要动态分配的复杂数据结构。

内存分配是一个长期的热门话题,基本问题是有效使用有限的内存并为将来的未知请求做好准备。今天,人们更关心速度而不是空间效率。此外,一个更复杂的内核可能会分配许多不同大小的小块,而不是(如xv6中)只有4096字节的块;一个真正的内核分配器需要处理小分配和大分配。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2023-06-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • MIT 6.S081 教材第三章内容 -- 页表
  • 引言
  • 页表
    • 分页硬件
      • 内核地址空间
        • 物理内存分配
          • 代码(物理内存分配)
        • 代码:创建一个地址空间
          • kvminit 函数
          • kvmmap函数
          • walk函数
          • kvminithart函数
          • procinit函数
        • 进程地址空间
          • 代码:sbrk
          • 代码:exec
        • 真实世界
        相关产品与服务
        轻量应用服务器
        轻量应用服务器(TencentCloud Lighthouse)是新一代开箱即用、面向轻量应用场景的云服务器产品,助力中小企业和开发者便捷高效的在云端构建网站、Web应用、小程序/小游戏、游戏服、电商应用、云盘/图床和开发测试环境,相比普通云服务器更加简单易用且更贴近应用,以套餐形式整体售卖云资源并提供高带宽流量包,将热门软件打包实现一键构建应用,提供极简上云体验。
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档