Intel IOMMU Introduction
扫描二维码
随时随地手机看文章
对于Intel的硬件辅助虚拟化方案而言,核心的两大技术分别是VT-x和VT-d。其中VT-x中主要引入了non-root模式(VMCS)以及EPT页表等技术,主要关注于vCPU的虚拟化和内存虚拟化。而VT-d的引入则是重点关注设备直通(passthrough)方面(即IO虚拟化)。
VT-x中在non-root模式下,MMU直接使用EPT page table来完成GPA->HVA->HPA的两级翻译, VT-d中在non-root模式下,则由IOMMU来使用Context Table和IOMMU page table完成设备DMA请求过程中的HPA->HVA->GPA的翻译. 二者极为相似,唯一的不同之处在于CPU访问内存(直通设备IO Memory)是通过MMU查找EPT页表完成地址翻译, 而直通设备访问内存的请求则是通过IOMMU查找IOMMU页表来完成地址翻译的。本文重点来探索一下Intel IOMMU的工作机制。
硬件结构
先看下一个典型的X86物理服务器视图:
在多路服务器上我们可以有多个DMAR Unit(这里可以直接理解为多个IOMMU硬件), 每个DMAR会负责处理其下挂载设备的DMA请求进行地址翻译。例如上图中, PCIE Root Port (dev:fun) (14:0)下面挂载的所有设备的DMA请求由DMAR #1负责处理, PCIE Root Port (dev:fun) (14:1)下面挂载的所有设备的DMA请求由DMAR #2负责处理, 而DMAR #3下挂载的是一个Root-Complex集成设备[29:0],这个设备的DMA请求被DMAR #3承包, DMAR #4的情况比较复杂,它负责处理Root-Complex集成设备[30:0]以及I/OxAPIC设备的DMA请求。这些和IOMMU相关的硬件拓扑信息需要BIOS通过ACPI表呈现给OS,这样OS才能正确驱动IOMMU硬件工作。
关于硬件拓扑信息呈现,这里有几个概念需要了解一下:
-
DRHD: DMA Remapping Hardware Unit Definition 用来描述DMAR Unit(IOMMU)的基本信息
-
RMRR: Reserved Memory Region Reporting 用来描述那些保留的物理地址,这段地址空间不被重映射
-
ATSR: Root Port ATS Capability 仅限于有Device-TLB的情形,Root Port需要向OS报告支持ATS的能力
-
RHSA: Remapping Hardware Static Affinity Remapping亲和性,在有NUMA的系统下可以提升DMA Remapping的性能
BIOS通过在ACPI表中提供一套DMA Remapping Reporting Structure 信息来表述物理服务器上的IOMMU拓扑信息, 这样OS在加载IOMMU驱动的时候就知道如何建立映射关系了。
附:我们可以使用一些工具将ACPI表相关信息Dump出来查看
数据结构
Intel IOMMU Driver的关键数据结构可以描述为(点击链接查看原图):
按照自上而下的视图来看,首先是IOMMU硬件层面, struct dmar_drhd_unit数据结构从系统BIOS角度去描述了一个IOMMU硬件:
-
list 用来把所有的DRHD串在一个链表中便于维护
-
acpi_dmar_head *hdr 指向IOMMU设备的ACPI表信息
-
device_cnt 表示当前IOMMU管理的设备数量
-
include_all 表示该IOMMU是否管理平台上所有的设备(单IOMMU的物理物理服务器)
-
reg_base_addr 表示IOMMU的寄存器基地址
-
intel_iommu *iommu 指针指向struct intel_iommu数据结构
-
struct intel_iommu 进一步详细描述了IOMMU的所以相关信息
-
cap和ecap 记录IOMMU硬件的Capability和Extended Capability信息
-
root_entry 指向了此IOMMU的Root Entry Table
-
ir_table 指向了IOMMU的Interrupt Remapping Table(中断重映射表)
-
struct iommu_device iommu 从linux设备驱动的角度描述这个IOMMU并用来绑定sysfs
-
struct dmar_domain ***domains 比较关键,它记录了这个IOMMU下面管理的所有dmar_domain信息
在虚拟化场景下多个设备可以直通给同一个虚拟机,他们共享一个IOMMU Page Table, 这种映射关系就是通过DMAR Domain来表述的, 也就是说多个直通设备可以加入到一个DMAR Domain中, 他们之间使用同一套页表完成地址DMA 请求的地址翻译。那我们接着往下走,来看DMAR Domain:
-
struct dmar_domain 数据结构用来描述DMAR Domain这种映射关系的
-
struct list_head devices 链表记录了这个Domain中的所有设备
-
struct iova_domain iovad 数据结构用一个红黑树来记录iova->hpa的地址翻译关系
-
struct dma_pte *pgd 这个指针指向了IOMMU页表的基地址是IOMMU页表的入口
-
bool has_iotlb_device 表示这个Domain里是否有具备IO-TLB的设备
-
struct iommu_domain domain 主要包含了iommu_ops *ops指针,记录了一堆与domain相关的操作
Intel IOMMU初始化
首先探测平台环境上是否有IOMMU硬件:IOMMU_INIT_POST(detect_intel_iommu), detect_intel_iommu函数中调用dmar_table_detect函数从ACPI表中查询DMAR相关内容:
如果查询到信息就validate_drhd_cb验证DRHD的有效性设置iommu_detected = 1, 如果查询不到DMAR信息那么认为没有IOMMU硬件,跳过后续初始化流程。
接着pci_iommu_init中调用x86_init.iommu.iommu_init()来初始化Intel IOMMU,主要的流程为:
在dmar_table_init函数中我们完成了DMA Remapping相关的ACPI表解析流程,这个parse_dmar_table的函数实现非常精妙,不禁让人感叹!它将每种Remapping Structure Types的解析函数封装成dmar_res_callback,然后调用dmar_walk_dmar_table通过一个for循环撸一遍就完成了全部的解析,代码精简思路清晰、一气呵成。
dmar_dev_scope_init函数负责完成IOMMU的Device Scope解析。dmar_acpi_insert_dev_scope中多层的遍历,建立了IOMMU和设备之间的映射关系。
init_dmars函数最后再对描述IOMMU的intel_iommu结构进行初始化,主要的流程包括:
这里不再展开,但每个点都值得探索一下,例如:
-
IOMMU中断是用来做什么的?
-
iommu_prepare_identity_map 是在做什么?
-
一个IOMMU最多支持多少个DMAR Domain?
-
qeueue invalidation是用来做什么的?
可以多问自己一些问题带着问题去看代码,从代码中找到答案,从更深层次去分析问题,理解特性。
参考文献
-
https://software.intel.com/sites/default/files/managed/c5/15/vt-directed-io-spec.pdf
-
https://elixir.bootlin.com/linux/v4.16.12/source/drivers/iommu/intel-iommu.c
本文转载自:
https://kernelgo.org/intel_iommu.html
免责声明:本文内容由21ic获得授权后发布,版权归原作者所有,本平台仅提供信息存储服务。文章仅代表作者个人观点,不代表本平台立场,如有问题,请联系我们,谢谢!