VFIO将DMA映射暴露给用户态?

在开始之前我们先要说一个东西就是 dma,直接让设备访问内存,可以不通过 cpu 搬运数据。
这是一个比较简单的体系结构图,设备 和 cpu 通过存储控制器访问存储器。一个简单的 case 是 cpu 向存储器写数据,然后设备从存储器读数据。这么快来一切都很正常。但是实际上 cpu 是有一层缓存的,例如下面这样的。
cpu 想内存写数据,但是先要清空到不一致的缓存,然后设备再去读数据,不然设备读到的数据和 cpu 实际的数据会不一致(因为缓存里的数据可能和存储器的不一致),而且实际上缓存也不只是一层,所以需要一个中间层来保证 从 cpu 的角度和从设备的角度内存都是一致的,所以就有了下面这个结构。
cpu 和 设备都会走缓存验证一遍以后,再落到存储器上,这样带上缓存以后大家的一致性都是一样的了。所以从设备的角度,设备也拥有了缓存,实际上这个和 iommu 关系不是很大,接下来设备其实也可以和 cpu 一样有一层 mmu,也就是地址到存储器物理地址的转换。注意,这里我用了地址,因为对 cpu 来说是虚拟地址,但是对设备来说是一个总线域的地址。这里要明确区分一下,一个是总线地址,是从设备的角度来看的,一个是 cpu 的虚拟地址,这是从 cpu 角度来看的,两个是不同的东西。将总线域地址转换成存储器物理地址的设备就叫 iommu。
如果没有 iommu,dma 也能照常工作,iommu 的主要作用就是保护功能,防止使用 dma 的设备访问任意存储器的物理地址。
iommu 在不同架构上名字不太一样,amd 叫 amd-vi,最开始针对的设备只是显卡,intel 叫 vt-d,arm 叫 smmu,具体对应的手册也不太一样,但是主要解决的问题是一致的。在 vtd 中,dmar (dma remapping) 就是那个 iommu 设备,通过中断的方式实现类似 page fault 一样的内存分配行为。dma 传输是由 cpu 发起的:cpu 会告诉 dma 控制器,帮忙将 xxx 地方的数据搬到 xxx 地方。cpu 发完指令之后,就当甩手掌柜了。iommu 有点像 mmu 是一个将设备地址翻译到内存地址的页表体系,也会有对应的页表,这个东西在虚拟化中也非常有用,可以将原本有软件模拟的设备,用直接的硬件替代,而原本的隔离通过 iommu 来完成。如下图所示,原本需要通过软件模拟的驱动设备可以通过 iommu 以安全的方式来直接把硬件设备分配个用户态的 guest os。
理论上讲没有 iommu 实际上是可以工作的,但是硬件的角度,设备就拥有了整个存储器的全局视图,这是无论如何都非常不合理的事情,不应该让设备拥有访问任意物理内存的能力。
这里要提的另外一个功能就是对中断的隔离,类似于下面的通过在中断请求中添加标识来重定向中断到对应的中断回调上。
vfio 的作用就是通过 iommu 以安全的方式来将设备的访问直接暴露到用户空间,而不用专门完成某个驱动等待合并到上游或者使用之前的对 iommu 没有感知的 uio 的框架。通过 vfio 向用户态开放 iommu 的功能,编写用户态的驱动。
对于 iommu 来说,隔离的级别不一定是单个设备,比如一个后面有几个设备的 pci 桥,从 pci 桥角度来说,都是来自 pci 桥的总线事务。所以 iommu 有一个 iommu_group的概念,代表一组与其他设备隔离的设备的集合。
iommu 根据手册上讲还有一个域的概念,可以简单理解为一段物理地址的抽象。
在 iommu_group的层级上,vfio 封装了一层 container class,这个的作用对应于希望能够在不同的iommu_group 之间共享 tlb 和 page tables,这个就是一个集合的概念,跟容器的那个概念没啥关系,一个集合总归要有个名字。通过把 host 的 device 和 driver 解绑,然后绑定到 vfio 的 driver 上,就会有个/dev/vfio/$group/ 出现,然后这个 $group代表的就是这个 device 的 iommu_group号,如果要使用 vfio 就要把这个 group 下的所有 device 都解绑才可以。
通过打开/dev/vfio/vfio就能创建一个 vfio 的 container,然后再打开/dev/vfio/$group用vfio_group_set_container ioctl 把文件描述传进去,就把 group 加进去了,如果支持多个 group 共享页表等结构,还可以把相应的 group 也加进去。(再强调一遍这个页表是总线地址到存储器物理地址,iommu 管理的那个页表)。
下面举个官方的栗子,获取 pci 设备 00000d.0 的 group_id (pci 命名的规则是 domainslot.func)
$ readlink /sys/bus/pci/devices/00000d.0/iommu_group../../../../kernel/iommu_groups/26
使用之前需要你已经加载了 vfio 模块
modprobe vfio-pci
解绑 pci 设备,然后创建一个 container id
$ lspci -n -s 00000d.006:0d.0 0401: 1102:0002 (rev 08)# echo 00000d.0 > /sys/bus/pci/devices/00000d.0/driver/unbind# echo 1102 0002 > /sys/bus/pci/drivers/vfio-pci/new_id
然后寻找其他同属于一个 group 的设备
$ ls -l /sys/bus/pci/devices/0000:06:0d.0/iommu_group/devicestotal 0lrwxrwxrwx. 1 root root 0 apr 23 16:13 0000:00:1e.0 -> ../../../../devices/pci0000:00/0000:00:1e.0lrwxrwxrwx. 1 root root 0 apr 23 16:13 0000:06:0d.0 -> ../../../../devices/pci0000:00/0000:00:1e.0/0000:06:0d.0lrwxrwxrwx. 1 root root 0 apr 23 16:13 0000:06:0d.1 ->  ../../../../devices/pci0000:00/0000:00:1e.0/0000:06:0d.1pci 桥 00001e.0 后面挂了两个设备,一个是刚才加进去的 00000d.0,还有一个是 00000d.1,通过上面的步奏加进去就可以。
最后一步是让用户有权限使用这个 group。
# chown user:user /dev/vfio/26
下面就是一个样例,从用户态使用 vfio,整个的使用方式是通过 ioctl来获取中断相关信息,以及注册中断处理函数,然后也是通过 ioctl来获取region信息,然后调用相应的mmap函数,让 cpu 可以访问内存。
int container, group, device, i;struct vfio_group_status group_status ={ .argsz = sizeof(group_status) };struct vfio_iommu_type1_info iommu_info = { .argsz = sizeof(iommu_info) };struct vfio_iommu_type1_dma_map dma_map = { .argsz = sizeof(dma_map) };struct vfio_device_info device_info = { .argsz = sizeof(device_info) }; /* create a new container */container = open(/dev/vfio/vfio, o_rdwr); if (ioctl(container, vfio_get_api_version) != vfio_api_version) /* unknown api version */ if (!ioctl(container, vfio_check_extension, vfio_type1_iommu)) /* doesn't support the iommu driver we want. */ /* open the group */group = open(/dev/vfio/26, o_rdwr); /* test the group is viable and available */ioctl(group, vfio_group_get_status, &group_status); if (!(group_status.flags & vfio_group_flags_viable)) /* group is not viable (ie, not all devices bound for vfio) */ /* add the group to the container */ioctl(group, vfio_group_set_container, &container); /* enable the iommu model we want */ioctl(container, vfio_set_iommu, vfio_type1_iommu); /* get addition iommu info */ioctl(container, vfio_iommu_get_info, &iommu_info); /* allocate some space and setup a dma mapping */dma_map.vaddr = mmap(0, 1024 * 1024, prot_read | prot_write, map_private | map_anonymous, 0, 0);dma_map.size = 1024 * 1024;dma_map.iova = 0; /* 1mb starting at 0x0 from device view */dma_map.flags = vfio_dma_map_flag_read | vfio_dma_map_flag_write; ioctl(container, vfio_iommu_map_dma, &dma_map); /* get a file descriptor for the device */device = ioctl(group, vfio_group_get_device_fd, 00000d.0); /* test and setup the device */ioctl(device, vfio_device_get_info, &device_info); for (i = 0; i < device_info.num_regions; i++) { struct vfio_region_info reg = { .argsz = sizeof(reg) }; reg.index = i; ioctl(device, vfio_device_get_region_info, ®); /* setup mappings... read/write offsets, mmaps * for pci devices, config space is a region */} for (i = 0; i vm_start, vma->vm_pgoff, req_len, vma->vm_page_prot); 来将物理内存映射到用户态空间,这就是上面的栗子中 mmap 系统调用的入口,而具体要映射的物理内存是通过一系列pci_resource_xxx宏从 pci bar 空间读出来的配置。
然后是 ioctl 接口,这个接口比较丰富,也简单的看一下。比如 vfio_device_set_irqs会通过使用用户态传进来的结构体,调用vfio_pci_set_irqs_ioctl注册中断处理函数。而通过vfio_ioctl_set_iommu会设置 container 的 iommu_group 以及对应的 driver。read/write接口都是用于修改 pci 配置信息的。
简单的来说,vfio 的主要工作是把设备通过 iommu 映射的 dma 物理内存地址映射到用户态中,让用户态程序可以自行操纵设备的传输,并且可以保证一定程度的安全,另外可以自行注册中断处理函数,从而在用户态实现设备的驱动程序,通过这样的框架,可以在 dpdk 中充分发挥用户态协议栈的威力。
原文标题:vfio —将 dma 映射暴露给用户态
文章出处:【微信公众号:linuxer】欢迎添加关注!文章转载请注明出处。


全球十大半导体客户排名情况
简易并联式稳压电源
IPX7级户外防水蓝牙音箱,微尔斯防水透声声学膜的应用
40V、3.5A µModule稳压器符合 FMEA 要求 并可在高达 150ºC 结温工作
可调电感器的作用_可调电感怎么调节
VFIO将DMA映射暴露给用户态?
注射器滑动性能测试仪,测试速率竟然可以设置!
全球首款适合主流笔记本应用的RISC-V芯片昉·惊鸿8100发布
如何利用Mesh网络掌控智能家居
北京责令共享电单车需整改重罚
ams 7大展品震撼亮相e星球,哪些能激发你的创新灵感
每一年激光的市场规模已超过了百亿美元
电子工程师必须要了解的一些知识以及为什么要了解这些知识的资料概述
WhatsApp现在允许您阻止不需要的群组邀请
昕诺飞的新传感器将助力打造健康的办公环境
半导体资本支出暴跌,有公司直接腰斩
中国摄像头模组企业首次被三星电子智能手机采用
三脚架
串口屏解决方案:大彩串口屏在房车上的应用
物联网体系下的水库水雨情远程监测系统