首页 诗词 字典 板报 句子 名言 友答 励志 学校 网站地图
当前位置: 首页 > 教程频道 > 移动开发 > 移动开发 >

内存储器管理-高端内存

2013-10-27 
内存管理-高端内存进程可以寻址4G,其中0~3G为用户态,3G~4G为内核态。如果内存不超过1G那么最后这1G线性空间

内存管理-高端内存

           进程可以寻址4G,其中0~3G为用户态,3G~4G为内核态。如果内存不超过1G那么最后这1G线性空间足够映射物理内存了,如果物理内存大于1G,为了使内核空间的1G线性地址可以访问到大于1G的物理内存,把物理内存分为两部分,0~896MB的进行直接内存映射,也就是说存在一个线性关系:virtual address = physical address + PAGE_OFFSET,这里的PAGE_OFFSET为3G。还剩下一个128MB的空间,这个空间作为一个窗口动态进行映射,这样就可以访问大于1G的内存,但是同一时刻内核空间还是只有1G的线性地址,只是不同时刻可以映射到不同的地方。综上,大于896MB的物理内存就是高端内存,内核引入高端内存这个概念是为了通过128MB这个窗口访问大于1G的物理内存。

内存储器管理-高端内存

         上图是内核空间1G线性地址的布局,直接映射区为PAGE_OFFSET~PAGE_OFFSET+ 896MB,直接映射的物理地址末尾对应的线性地址保存在high_memory变量中。直接映射区后边有一个8MB的保护区,目的是用来"捕获"对内存的越界访问。然后是非连续内存区,范围从VMALLOC_START~VMALLOC_END,出于同样的原因,每个非连续内存区之间隔着4KB。永久内核映射区从PKMAP_BASE开始,大小为2MB(启动PAE)或4MB。后边是固定映射区,范围是FIXADDR_START~FIXADDR_TOP,至于临时内核映射区是永久内核映射区里的一部分,在后边会做详细解析。

      下边来详细介绍高端内存的三种访问方式:非连续内存区访问,永久内核映射,临时内核映射。


非连续内存区访问:

      非连续内存区访问会使用一个vm_struct结构来描述每个非连续内存区:

view plain
  1. struct vm_struct {  
  2.         void                    *addr;           //内存区内第一个内存单元的线性地址  
  3.         unsigned long           size;            //内存区的大小加4096(内存区之间的安全区间的大小)  
  4.         unsigned long           flags;           //非连续的内存区映射的内存类型  
  5.         struct page             **pages;         //指向nr_pages数组的指针,该数组由指向页描述符的
  6.                                                  //指针组成  
  7.         unsigned int            nr_pages;        //内存区填充的页的个数  
  8.         unsigned long           phys_addr;       //该字段为0,除非内存已被创建来映射一个硬件设备的
  9.                                                  //I/O共享内存  
  10.         struct vm_struct        *next;           //指向下一个vm_struct结构的指针  
  11. };  

vm_struct与vmalloc()分配的非连续线性区有如下关系:

内存储器管理-高端内存

下边来看非连续内存区的分配,分配调用了vmalloc()函数:

view plain
  1. void *vmalloc(unsigned long size)  
  2. {  
  3.        return __vmalloc(size, GFP_KERNEL | __GFP_HIGHMEM, PAGE_KERNEL);  
  4. }  

flags标志中设置了从high memory分配。

view plain
  1. void *__vmalloc(unsigned long size, int gfp_mask, pgprot_t prot)  
  2. {  
  3.         struct vm_struct *area;  
  4.         struct page **pages;  
  5.         unsigned int nr_pages, array_size, i;  
  6.         /*需要分配的大小页对齐*/  
  7.         size = PAGE_ALIGN(size);  
  8.         /*需要分配的大小不能为0,也不能大于物理页的总数量*/  
  9.         if (!size || (size >> PAGE_SHIFT) > num_physpages)  
  10.                 return NULL;  
  11.         /*找到一个线性区,并获得vm_struct描述符,描述符的flags字段被初始化为VM_ALLOC标志,
  12.           该标志意味着通过使用vmalloc()函数*/  
  13.         area = get_vm_area(size, VM_ALLOC);  
  14.         if (!area)  
  15.                 return NULL;  
  16.         /*需要分配页的数量*/  
  17.         nr_pages = size >> PAGE_SHIFT;  
  18.         /*数组的大小*/  
  19.         array_size = (nr_pages * sizeof(struct page *));  
  20.   
  21.         area->nr_pages = nr_pages;  
  22.         /* Please note that the recursion is strictly bounded. */  
  23.         /*如果数组的大小大于页的大小就从非连续内存区分配,否则从kmalloc分配*/  
  24.         if (array_size > PAGE_SIZE)  
  25.                 pages = __vmalloc(array_size, gfp_mask, PAGE_KERNEL);  
  26.         else  
  27.                 pages = kmalloc(array_size, (gfp_mask & ~__GFP_HIGHMEM));  
  28.         area->pages = pages;  
  29.         /*如果这个数组没有分配到内存,就释放vm_struct描述符,返回*/  
  30.         if (!area->pages) {  
  31.                 remove_vm_area(area->addr);  
  32.                 kfree(area);  
  33.                 return NULL;  
  34.         }  
  35.         /*清空*/  
  36.         memset(area->pages, 0, array_size);  
  37.         /*从高端内存非配每一个物理页,将描述符的pages字段的每一项指向得到的物理页的page结构*/  
  38.         for (i = 0; i < area->nr_pages; i++) {  
  39.                 area->pages[i] = alloc_page(gfp_mask);  
  40.                 if (unlikely(!area->pages[i])) {  
  41.                         /* Successfully allocated i pages, free them in __vunmap() */  
  42.                         area->nr_pages = i;  
  43.                         goto fail;  
  44.                 }  
  45.         }  
  46.         /*建立页表与物理页之间的映射,一级一级的很复杂*/  
  47.         if (map_vm_area(area, prot, &pages))  
  48.                 goto fail;  
  49.         return area->addr;  
  50.   
  51. fail:  
  52.         vfree(area->addr);  
  53.         return NULL;  
  54. }  
调用get_vm_area()分配描述符和获得线性地址空间,get_vm_area()函数在线性地址VMALLOC_START和VMALLOC_END之间查找一个空闲区域。步骤如下:
1. 调用kmalloc()为vm_struct类型的新描述符获得一个内存区。
2. 为写得到vmlist_lock()锁,并扫描类型为vm_struct的描述符链表来查找线性地址一个空闲区域,至少覆盖size + 4096个地址。 
3. 如果存在这样一个区间,函数就初始化描述符的字段,释放vmlist_lock锁,并以返回这个非连续内存区的起始地址而结束。
4. 否则,get_vm_area()释放先前得到的描述符,释放vmlist_lock,然后返回NULL。
调用map_vm_area()建立页表与物理页之间的映射:
view plain
  1. int map_vm_area(struct vm_struct *area, pgprot_t prot, struct page ***pages)  
  2. {  
  3.     unsigned long address = (unsigned long) area->addr;  
  4.     unsigned long end = address + (area->size-PAGE_SIZE);  
  5.     unsigned long next;  
  6.     pgd_t *pgd;  
  7.     int err = 0;  
  8.     int i;  
  9.     /*得到主内核页表中pgd中的相应项的线性地址*/  
  10.     pgd = pgd_offset_k(address);  
  11.     /*获得主内核页表自旋锁*/  
  12.     spin_lock(&init_mm.page_table_lock);  
  13.     for (i = pgd_index(address); i <= pgd_index(end-1); i++) {  
  14.         /*调用pud_alloc分配页上级目录*/    
  15.         pud_t *pud = pud_alloc(&init_mm, pgd, address);  
  16.         if (!pud) {  
  17.             err = -ENOMEM;  
  18.             break;  
  19.         }  
  20.         /*跨越一个pgd所对应内存的大小*/  
  21.         next = (address + PGDIR_SIZE) & PGDIR_MASK;  
  22.         if (next < address || next > end)  
  23.             next = end;  
  24.         /*建立这个页上级目录所对应的所有页中间目录*/  
  25.         if (map_area_pud(pud, address, next, prot, pages)) {  
  26.             err = -ENOMEM;  
  27.             break;  
  28.         }  
  29.   
  30.         address = next;  
  31.         pgd++;  
  32.     }  
  33.   
  34.     spin_unlock(&init_mm.page_table_lock);  
  35.     flush_cache_vmap((unsigned long) area->addr, end);  
  36.     return err;  
  37. }  

map_area_pud也就是反复调用map_area_pmd来填充各级页目录,页表。map_area_pte()的主循环如下:

view plain
  1. do {  
  2.         struct page *page = **pages;  
  3.         WARN_ON(!pte_none(*pte));  
  4.         if (!page)  
  5.             return -ENOMEM;  
  6.   
  7.         set_pte(pte, mk_pte(page, prot));  
  8.         address += PAGE_SIZE;  
  9.         pte++;  
  10.         (*pages)++;  
  11.     } while (address < end);  

调用set_pte设置将相应页的页描述符地址设置到相应的页表项。非连续内存区的释放:

view plain
  1. #define mk_pte(page, pgprot) pfn_pte(page_to_pfn(page), (pgprot))  
  2. #define pfn_pte(pfn, prot) __pte(((pfn) << PAGE_SHIFT) | pgprot_val(prot))  
  3. #define set_pte(pteptr, pteval) (*(pteptr) = pteval)  
需要注意的是,map_vm_area()并不触及当前进程的页表。
非连续内存区的释放:
调用vfree()函数:
view plain
  1. void vfree(void *addr)  
  2. {  
  3.     BUG_ON(in_interrupt());  
  4.     __vunmap(addr, 1);  
  5. }  
__vunmap()调用remove_vm_area(),执行与map_vm_area()相反的操作,最终调用到了unmap_area_pte():view plain
  1. do {  
  2.         pte_t page;  
  3.     page = ptep_get_and_clear(pte);  
  4.         address += PAGE_SIZE;  
  5.         pte++;  
  6.         if (pte_none(page))  
  7.             continue;  
  8.         if (pte_present(page))  
  9.             continue;  
  10.         printk(KERN_CRIT "Whee.. Swapped out page in kernel page table\n");  
  11.     } while (address < end);  
这里调用ptep_get_and_clear()宏将pte指向的页表项设为0。

       注意,在调用vmalloc()时建立的映射是在物理内存和主内核页表之间的,并没有涉及到进程的页表。当内核态的进程访问非连续内存区时,缺页发生,因为该内存区所对应的进程页表中的表项为空。然而,缺页处理程序要检查这个缺页线性地址是否在主内核页表中。一旦处理程序发现一个主内核页表含有这个线性地址的非空项,就把它的值拷贝到相应的进程页表项中,并恢复进程的正常执行。在调用vfree时,与vmalloc()一样,内核修改主内核页全局目录和它的子页表中相应的项,但是映射第4个GB的进程页表的项保持不变。unmap_area_pte()函数只是清除页表中的项(不回收页表本身)。进程对已释放非连续内存区的进一步访问必将由于空的页表项而触发缺页异常。


永久内核映射:

      永久内核映射使用主内核页表中一个专门的页表,其地址存放在pkmap_page_table变量中,页表中的表项数由LAST_PKMAP宏产生,因此内核一次访问2MB(启动PAE)或4MB的高端内存。该页表映射的线性地址从PKMAP_BASE开始,pkmap_count数组包含LAST_PKMAPGE个计数器,pkmap_page_table页表中每一项都有一个。

计数器为0

对应的页表项没有映射任何高端内存页框,并且是可用的。

计数器为1

对应的页表项没有映射任何高端内存页框,但是它不能使用,因为此从他最后一次使用以来,其相应的TLB表项还未被刷新。

计数器为2

相应的页表项映射一个高端内存页框,这意味着正好有n-1个内核成分在使用这个页框。

内存储器管理-高端内存

view plain
  1. struct page_address_map {  
  2.     struct page *page;  
  3.     void *virtual;  
  4.     struct list_head list;  
  5. };  
  6.   
  7. static struct page_address_slot {  
  8.     struct list_head lh;            /* List of page_address_maps */  
  9.     spinlock_t lock;            /* Protect this bucket's list */  
  10. } ____cacheline_aligned_in_smp page_address_htable[1<<PA_HASH_ORDER];<span style="font-family: Arial, Verdana, sans-serif; font-size: 18px; white-space: normal; ">       </span>  

view plain
  1. static struct page_address_slot *page_slot(struct page *page)  
  2. {  
  3.     return &page_address_htable[hash_ptr(page, PA_HASH_ORDER)];  
  4. }  

        为了记录高端内存页框与永久内核映射的线性地址之间的联系,内核使用了page_address_htable散列表,该表包含一个page_address_htable结构,该表包含一个page_address_map数据结构,用于为高端内存每一个页框进行当前映射。而该数据结构还包含一个指向页描述符的指针和分配给该页框的线性地址。page是一个指向全局mem_map数组中的page实例的指针,virtual指定了该页在内核虚拟地址空间中分配的位置。为了便于组织,映射保存在散列表中,结构中的链表元素用于建立溢出的链表,以处理散列碰撞。散列表为page_address_htable,散列函数是page_slot,根据page实例确定页的虚拟地址。如果page是在普通内存中的,则根据page在mem_map数组中的位置计算。

进行永久内核映射需要调用kmap()函数:

view plain
  1. void *kmap(struct page *page)  
  2. {  
  3.     might_sleep();  
  4.     if (!PageHighMem(page))  
  5.         return page_address(page);  
  6.     return kmap_high(page);  
  7. }  
       kmap函数只是一个前端,用于确定指定的页是否确实在高端内存域中。首先判断是不是高端内存,如果不是高端内存就调用page_address直接返回page对应的线性地址,0~896MB的是直接映射,也就是在kernel初始化的时候映射已经建立好了,之后直接访问就行了。而高端内存需要自己建立映射,然后才能访问。如果是高端内存则将工作委托给kmap_high:

view plain
  1. void fastcall *kmap_high(struct page *page)  
  2. {  
  3.     unsigned long vaddr;  
  4.   
  5.     /* 
  6.      * For highmem pages, we can't trust "virtual" until 
  7.      * after we have the lock. 
  8.      * 
  9.      * We cannot call this from interrupts, as it may block 
  10.      */  
  11.     spin_lock(&kmap_lock);  
  12.     vaddr = (unsigned long)page_address(page);  
  13.     if (!vaddr)  
  14.         vaddr = map_new_virtual(page);  
  15.     pkmap_count[PKMAP_NR(vaddr)]++;  
  16.     if (pkmap_count[PKMAP_NR(vaddr)] < 2)  
  17.         BUG();  
  18.     spin_unlock(&kmap_lock);  
  19.     return (void*) vaddr;  
  20. }  
        首先获得需要映射的page对应的线性地址,从page_address_htable中进行查找,如果已经映射过了肯定不为空,如果没有映射过则执行map_new_virtual进行映射。注意这里进行的pkmap_count加一操作,后边会提到。

view plain
  1. static inline unsigned long map_new_virtual(struct page *page)  
  2. {  
  3.     unsigned long vaddr;  
  4.     int count;  
  5.   
  6. start:  
  7.     count = LAST_PKMAP;  
  8.     /* Find an empty entry */  
  9.     for (;;) {  
  10.         last_pkmap_nr = (last_pkmap_nr + 1) & LAST_PKMAP_MASK;  
  11.         if (!last_pkmap_nr) {  
  12.             flush_all_zero_pkmaps();  
  13.             count = LAST_PKMAP;  
  14.         }  
  15.         if (!pkmap_count[last_pkmap_nr])  
  16.             break;  /* Found a usable entry */  
  17.         if (--count)  
  18.             continue;  
  19.   
  20.         /* 
  21.          * Sleep for somebody else to unmap their entries 
  22.          */  
  23.         {  
  24.             DECLARE_WAITQUEUE(wait, current);  
  25.   
  26.             __set_current_state(TASK_UNINTERRUPTIBLE);  
  27.             add_wait_queue(&pkmap_map_wait, &wait);  
  28.             spin_unlock(&kmap_lock);  
  29.             schedule();  
  30.             remove_wait_queue(&pkmap_map_wait, &wait);  
  31.             spin_lock(&kmap_lock);  
  32.   
  33.             /* Somebody else might have mapped it while we slept */  
  34.             if (page_address(page))  
  35.                 return (unsigned long)page_address(page);  
  36.   
  37.             /* Re-start */  
  38.             goto start;  
  39.         }  
  40.     }  
  41.     vaddr = PKMAP_ADDR(last_pkmap_nr);  
  42.     set_pte(&(pkmap_page_table[last_pkmap_nr]), mk_pte(page, kmap_prot));  
  43.   
  44.         kmap_count[last_pkmap_nr] = 1;  
  45.     set_page_address(page, (void *)vaddr);  
  46.   
  47.     return vaddr;  
  48. }  
       内核将上次使用过的页表项的索引保存在last_pkmap_nr变量中,避免了重复查找。如果找到计数器为0的,则获得这个页表项对应的页表的线性地址,填充相应的页表项,计数器为1。这里产生一个问题,刚才不是说为1代表“对应的页表项没有映射任何高端内存页框,但是它不能使用,因为此从他最后一次使用以来,其相应的TLB表项还未被刷新。”,确实是这样,看看调用map_new_virtual函数的kmap_high函数,在这里对pkmap_count进行了再次加一。
view plain
  1. void kunmap(struct page *page)  
  2. {  
  3.     if (in_interrupt())  
  4.         BUG();  
  5.     if (!PageHighMem(page))  
  6.         return;  
  7.     kunmap_high(page);  
  8. }  
       kmap会导致进程阻塞,所以永久内核映射不能运行在中断处理程序中和可延迟函数的内部。所以这里kunmap首先判断是不是在中断上下文中,如果不在中断上下文并且不再高端内存,则将工作委托kunmap_high。如果有计数器为1的表项,而且有等待的进程,则唤醒进程。如果有进程被阻塞那么肯定没有计数器为0的表项了,所以从map_new_virtual中start标号的地方开始执行,应该会把表项遍历一圈,此时肯定会遇到last_pkmap_nr为0的情况,此时就可以调用flush_all_zero_pkmaps()函数来寻找计数器为1的表项,将其清零,解除映射,并刷新TLB。可以看到kunmap并没有解除映射,并刷新tlb,这里仅仅是将表项的计数器减一。为什么要这样做呢?看一下kmap_high函数中,判断了一次是否已经映射了,如果映射了就把表项的引用计数器加一,也就是说如果调用过kunmap使计数为1了,此时又变成2,又可以进行访问了,不用重新填充页表,刷新tlb等。
view plain
  1. void fastcall kunmap_high(struct page *page)  
  2. {  
  3.     unsigned long vaddr;  
  4.     unsigned long nr;  
  5.     int need_wakeup;  
  6.   
  7.     spin_lock(&kmap_lock);  
  8.     vaddr = (unsigned long)page_address(page);  
  9.     if (!vaddr)  
  10.         BUG();  
  11.     nr = PKMAP_NR(vaddr);  
  12.   
  13.     /* 
  14.      * A count must never go down to zero 
  15.      * without a TLB flush! 
  16.      */  
  17.     need_wakeup = 0;  
  18.     switch (--pkmap_count[nr]) {  
  19.     case 0:  
  20.         BUG();  
  21.     case 1:  
  22.         need_wakeup = waitqueue_active(&pkmap_map_wait);  
  23.     }  
  24.     spin_unlock(&kmap_lock);  
  25.   
  26.     /* do wake-up, if needed, race-free outside of the spin lock */  
  27.     if (need_wakeup)  
  28.         wake_up(&pkmap_map_wait);  
  • 临时内核映射:


           固定映射的线性区从FIXADDR_START~FIXADDR_TOP,而临时内核映射区只是固定映射的线性区的一部分。固定映射用fixed_addresses中的索引从0xfffff000开始倒着往前分配固定地址的映射区。而临时内核映射其实就是永久映射的原子实现版本,它使用固定映射中FIX_KMAP_BEGIN到FIX_KMAP_END(它们都是的fixed_addresses中的枚举类型)这段区间。为了把一个物理地址与固定映射的线性地址关联起来,内核使用set_fixmap(idx, phys)和set_fixmap_nocache(idx, phys)宏。这两个函数都把fix_to_virt(idx)线性地址对应的一个页表项初始化为物理地址phys。 

    view plain
    1. enum fixed_addresses {    
    2.     FIX_HOLE,    
    3.     FIX_VSYSCALL,    
    4. #ifdef CONFIG_X86_LOCAL_APIC    
    5.     FIX_APIC_BASE,  /* local (CPU) APIC) -- required for SMP or not */    
    6. #endif    
    7. #ifdef CONFIG_X86_IO_APIC    
    8.     FIX_IO_APIC_BASE_0,    
    9.     FIX_IO_APIC_BASE_END = FIX_IO_APIC_BASE_0 + MAX_IO_APICS-1,    
    10. #endif    
    11. #ifdef CONFIG_X86_VISWS_APIC    
    12.     FIX_CO_CPU, /* Cobalt timer */    
    13.     FIX_CO_APIC,    /* Cobalt APIC Redirection Table */     
    14.     FIX_LI_PCIA,    /* Lithium PCI Bridge A */    
    15.     FIX_LI_PCIB,    /* Lithium PCI Bridge B */    
    16. #endif    
    17. #ifdef CONFIG_X86_F00F_BUG    
    18.     FIX_F00F_IDT,   /* Virtual mapping for IDT */    
    19. #endif    
    20. #ifdef CONFIG_X86_CYCLONE_TIMER    
    21.     FIX_CYCLONE_TIMER, /*cyclone timer register*/    
    22. #endif     
    23. #ifdef CONFIG_HIGHMEM    
    24.     FIX_KMAP_BEGIN, /* reserved pte's for temporary kernel mappings */    
    25.     FIX_KMAP_END = FIX_KMAP_BEGIN+(KM_TYPE_NR*NR_CPUS)-1,    
    26. #endif    
    27. #ifdef CONFIG_ACPI_BOOT    
    28.     FIX_ACPI_BEGIN,    
    29.     FIX_ACPI_END = FIX_ACPI_BEGIN + FIX_ACPI_PAGES - 1,    
    30. #endif    
    31. #ifdef CONFIG_PCI_MMCONFIG    
    32.     FIX_PCIE_MCFG,    
    33. #endif    
    34.     __end_of_permanent_fixed_addresses,    
    35.     /* temporary boot-time mappings, used before ioremap() is functional */    
    36. #define NR_FIX_BTMAPS   16    
    37.     FIX_BTMAP_END = __end_of_permanent_fixed_addresses,    
    38.     FIX_BTMAP_BEGIN = FIX_BTMAP_END + NR_FIX_BTMAPS - 1,    
    39.     FIX_WP_TEST,    
    40.     __end_of_fixed_addresses    
    41. };   
    这里涉及到几个宏:
    /*固定映射线性区的结束地址,距4G只有4KB*/

    view plain
    1. #define FIXADDR_TOP ((unsigned long)__FIXADDR_TOP)    
    /*固定映射线性区的大小*/
    view plain
    1. #define __FIXADDR_SIZE  (__end_of_permanent_fixed_addresses << PAGE_SHIFT)    
    /*固定映射的线性区起始地址*/
    view plain
    1. #define FIXADDR_START       (FIXADDR_TOP - __FIXADDR_SIZE)    
    /*计算给定索引对应的线性地址*/
    view plain
    1. #define __fix_to_virt(x)    (FIXADDR_TOP - ((x) << PAGE_SHIFT))    
    /*计算线性地址对应的索引*/
    view plain
    1. #define __virt_to_fix(x)    ((FIXADDR_TOP - ((x)&PAGE_MASK)) >> PAGE_SHIFT)    

    所以,每个索引对应的线性地址是不变的,但是可以通过set_fixmap和set_fixmap_nocache映射到不同的物理地址。

    临时内核映射的枚举结构:

    view plain
    1. enum km_type {    
    2. D(0)    KM_BOUNCE_READ,    
    3. D(1)    KM_SKB_SUNRPC_DATA,    
    4. D(2)    KM_SKB_DATA_SOFTIRQ,    
    5. D(3)    KM_USER0,    
    6. D(4)    KM_USER1,    
    7. D(5)    KM_BIO_SRC_IRQ,    
    8. D(6)    KM_BIO_DST_IRQ,    
    9. D(7)    KM_PTE0,    
    10. D(8)    KM_PTE1,    
    11. D(9)    KM_IRQ0,    
    12. D(10)   KM_IRQ1,    
    13. D(11)   KM_SOFTIRQ0,    
    14. D(12)   KM_SOFTIRQ1,    
    15. D(13)   KM_TYPE_NR    
    16. };    
    这里每个type是一个“窗口”,每个CPU都有它自己的包含13个窗口的集合,他们用enum km_type数据结构表示,该数据结构中定义的每个符号,如KM_BOUNCE_READ,KM_USER0或KM_PTE0,标识了窗口的线性地址。在高端内存的任何一个页框都可以通过一个“窗口”映射到内核地址空间。也就是说一个窗口对应一个4KB的物理页。

    内存储器管理-高端内存

            内核必须确保同一个窗口永不会被两个不同的控制路径同时使用,也就是说后边的控制路径可以覆盖前边的。km_type结构中每个符号只能由一种内核成分使用,并以该成分命名。最后一个符号KM_TYPE_NR本身并不表示一个线性地址,但由每个CPU用来产生不同的可用窗口数。在km_type中每个符号都是固定映射的线性地址的一个下标。enum fixed_addresses数据结构包含符号FIX_KMAP_BEGIN和FIX_KMAP_END,把后者赋给下标FIX_KMAP_BEGIN + (KM_TYPE_NR * NR_CPUS) - 1。在这种情况下,系统中每个CPU都有KM_TYPE_NR个固定映射的线性地址。

    建立临时内核映射调用kmap_atomic:

    view plain
    1. void *kmap_atomic(struct page *page, enum km_type type)    
    2. {    
    3.     enum fixed_addresses idx;    
    4.     unsigned long vaddr;    
    5.     
    6.     /* even !CONFIG_PREEMPT needs this, for in_atomic in do_page_fault */    
    7.     inc_preempt_count();    
    8.     if (!PageHighMem(page))    
    9.         return page_address(page);    
    10.     
    11.     idx = type + KM_TYPE_NR*smp_processor_id();    
    12.     vaddr = __fix_to_virt(FIX_KMAP_BEGIN + idx);    
    13. #ifdef CONFIG_DEBUG_HIGHMEM    
    14.     if (!pte_none(*(kmap_pte-idx)))    
    15.         BUG();    
    16. #endif    
    17.     set_pte(kmap_pte-idx, mk_pte(page, kmap_prot));    
    18.     __flush_tlb_one(vaddr);    
    19.     
    20.     return (void*) vaddr;    
    21. }    

           这里先判断是否是高端内存,如果不是就直接返回page对应的线性地址。否则,通过type和CPU标识符smp_processor_id()来确定在固定映射地址中的索引值。获得这个索引值对应的线性地址,设置相应的页表项,然后返回线性地址。这里会让人产生思考的地方是,为什么是kmap_pte-idx而不是kmap_pte+idx呢?先来看一下kmap_pte的初始化在内核启动的时候:

    view plain
    1. void __init kmap_init(void)      
    2. {      
    3.     unsigned long kmap_vstart;      
    4.     /* cache the first kmap pte */      
    5.     kmap_vstart = __fix_to_virt(FIX_KMAP_BEGIN);      
    6.     kmap_pte = kmap_get_fixmap_pte(kmap_vstart);      
    7.       
    8.     kmap_prot = PAGE_KERNEL;      
    9. }      
    10. #define kmap_get_fixmap_pte(vaddr)                  \      
    11.     pte_offset_kernel(pmd_offset(pud_offset(pgd_offset_k(vaddr), vaddr), (vaddr)), (vaddr))   

       通过对照上边的宏可以看出来,kmap_pte是FIX_KMAP_BEGIN对应的线性地址所在的页表的页表的线性地址。由于使用的是__fix_to_virt宏,所以kmap_pte应该是接近FIXADDR_TOP而不是接近FIXADDR_START的。也就是说fixed_addresses与km_type中索引大的接近FIXADDR_START,索引小的接近FIXADDR_TOP。所以set_pte的时候是kmap_pte- idx。
    撤销临时内核映射调用kmap_atomic:

    view plain
    1. void kunmap_atomic(void *kvaddr, enum km_type type)    
    2. {    
    3. #ifdef CONFIG_DEBUG_HIGHMEM    
    4.     unsigned long vaddr = (unsigned long) kvaddr & PAGE_MASK;    
    5.     enum fixed_addresses idx = type + KM_TYPE_NR*smp_processor_id();    
    6.     
    7.     if (vaddr < FIXADDR_START) { // FIXME    
    8.         dec_preempt_count();    
    9.         preempt_check_resched();    
    10.         return;    
    11.     }    
    12.     
    13.     if (vaddr != __fix_to_virt(FIX_KMAP_BEGIN+idx))    
    14.         BUG();    
    15.     
    16.     /*  
    17.      * force other mappings to Oops if they'll try to access  
    18.      * this pte without first remap it  
    19.      */    
    20.     pte_clear(kmap_pte-idx);    
    21.     __flush_tlb_one(vaddr);    
    22. #endif    
    23.     
    24.     dec_preempt_count();    
    25.     preempt_check_resched();    
    26. }  <span style="line-height: 26px; "> </span>  

    撤销的时候清除了相应的页表项。    

        综上,kernel中的高端内存已经研究完了。总结一下:高端内存的引入是为了kernel可以访问大于1G的物理内存(不是同一时刻),划出一个128MB的窗口来自由映射大于1G的内存。vmalloc()主要是建立动态分配和释放的内存区,但是建立和释放的过程非常复杂,需要对pgd,pud,pmd,pte进行修改。这里是修改masterkernel page globaldirectory,进程的内核页部分需要在访问时产生缺页异常然后再同步。而永久内核映射就简单的多,如果没有开PAE,则有4MB的线性地址可以用来映射,4MB当然是只有一个页表就够用了,这个专门的页表地址存放在pkmap_page_table变量中。只需要设置这个页表中相应的表项就可以了,一共1024个表项,每个对应一个4KB的页,因为页比较少,如果页耗尽的时候会导致进程阻塞,这样就不能用在中断处理程序中。而临时内核映射则更加简单了,其实就是永久内核映射的原子实现版,它利用固定内核映射中的一段空间,为每个CPU保存13个窗口,每个窗口的功能是固定的,不同进程需要分配同一个窗口的时候就进行覆盖,所以不会导致进程阻塞,可以用于中断处理程序和可延迟函数的内部。


  • 热点排行