小言_互联网的博客

Linux 内存管理知识总结(二)

473人阅读  评论(0)

Linux 内存管理框架

传统的多核运算是使用 SMP(Symmetric Multi-Processor )模式:将多个处理器与一个集中的存储器和 I/O 总线相连,所有处理器访问同一个物理存储器,因此 SMP 系统有时也被称为一致存储器访问(UMA)结构体系,即无论在什么时候,处理器只能为内存的每个数据保持或共享唯一一个数值。

NUMA模式是一种分布式存储器访问方式,处理器可以同时访问不同的存储器地址,大幅度提高并行性。NUMA 模式下系统的每个 CPU 都有本地内存,可支持快速访问,各个处理器之间通过总线连接起来,以支持对其它 CPU 本地内存的访问,但是这些访问要比处理器本地内存的慢.

Linux 内核通过插入一些兼容层,使两个不同体系结构的差异被隐藏,两种模式都使用了同一个数据结构。

在 NUMA 模式下,处理器和内存块被划分成多个"节点"(node),比如机器上有 2 个处理器、4 个内存块,我们可以把 1 个处理器和 2 个内存块合起来(GNU/Linux 根据物理 CPU 的数量分配 node,一个物理 CPU 对应一个 node),共同组成一个 NUMA 的节点。每个节点被分配有本地存储器空间,所有节点中的处理器都可以访问系统全部的物理存储器,但是访问本节点内的存储器所需要的时间比访问某些远程节点内的存储器所花的时间要少得多。

与 CPU 类似,内存被分割成多个区域 BANK,也叫"簇",依据簇与 CPU 的"距离"的不同,访问不同簇的方式也会有所不同,CPU 被划分为多个节点,每个 CPU 对应一个本地物理内存, 一般一个 CPU-node 对应一个内存簇,也就是说每个内存簇被认为是一个节点。

而在 UMA 系统中, 内存就相当于一个只使用一个 NUMA 节点来管理整个系统的内存,这样在内存管理的其它地方可以认为他们就是在处理一个(伪)NUMA 系统。

内存管理框架初始化

在 linux 中,每个物理内存节点 node 都被划分为多个内存管理区域用于表示不同范围的内存,比如上面提到的 NORMAL 内存、高端内存,内核可以使用不同的映射方式映射物理内存。zone 只是内核为了管理方便而做的一种逻辑上的划分,并不存在这种物理硬件单元。

综上,linux 的物理内存管理机制将物理内存划分为三个层次来管理,依次是:Node(存储节点)、Zone(管理区)和 Page(页面)。

其中,zone 的类型如下:


  
  1. include/linux/mmzone.h
  2. enum zone_type {
  3. #ifdef CONFIG_ZONE_DMA
  4. ZONE_DMA, //通常为内存首部16MB,某些工业标准体系结构设备需要用到ZONE_DMA(较旧的外设,只能寻址24位内存)
  5. #endif
  6. #ifdef CONFIG_ZONE_DMA32
  7. ZONE_DMA32, //在64位Linux操作系统上,DMA32为16M~4G(可访问32位),高于4G的内存为Normal ZONE
  8. #endif
  9. ZONE_NORMAL, //通常为16MB~896MB,该部分的内存由内核直接映射到物理地址空间的较高部分
  10. #ifdef CONFIG_HIGHMEM
  11. ZONE_HIGHMEM, //通常为896MB~末尾,将保留给系统使用,是系统中预留的可用内存空间,动态映射
  12. #endif
  13. ZONE_MOVABLE, //用于减少内存的碎片化,这个区域的页都是可迁移的
  14. #ifdef CONFIG_ZONE_DEVICE
  15. ZONE_DEVICE, //为支持热插拔设备而分配的非易失性内存
  16. #endif
  17. __MAX_NR_ZONES
  18. };

回到之前的 setup_arch()函数,接着往下走,来到内存管理框架初始化的地方


  
  1. void __ init setup_arch(char **cmdline_p)
  2. {
  3. ......
  4. max_pfn = e820__end_of_ram_pfn(); //max_pfn初始化
  5. ......
  6. find_low_pfn_range(); //max_low_pfn、高端内存初始化
  7. ......
  8. ......
  9. early_alloc_pgt_buf(); //页表缓冲区分配
  10. reserve_brk(); //缓冲区加入memblock.reserve
  11. ......
  12. e820__memblock_setup(); //memblock.memory空间初始化 启动
  13. ......
  14. init_mem_mapping(); //低端内存内核页表初始化 高端内存固定映射区中临时映射区页表初始化
  15. ......
  16. initmem_init(); // <----------------------------------------
  17. ......
  18. }

initmem_init的实现如下:


  
  1. #define PHYS_ADDR_MAX (~(phys_addr_t)0)
  2. #ifndef CONFIG_NEED_MULTIPLE_NODES
  3. void __init initmem_init(void)
  4. {
  5. #ifdef CONFIG_HIGHMEM
  6. highstart_pfn = highend_pfn = max_pfn;
  7. if (max_pfn > max_low_pfn)
  8. highstart_pfn = max_low_pfn;
  9. printk(KERN_NOTICE "%ldMB HIGHMEM available.\n",
  10. pages_to_mb(highend_pfn - highstart_pfn));
  11. high_memory = ( void *) __va(highstart_pfn * PAGE_SIZE - 1) + 1;
  12. #else
  13. high_memory = ( void *) __va(max_low_pfn * PAGE_SIZE - 1) + 1;
  14. #endif
  15. memblock_set_node( 0, PHYS_ADDR_MAX, &memblock.memory, 0);
  16. #ifdef CONFIG_FLATMEM
  17. max_mapnr = IS_ENABLED(CONFIG_HIGHMEM) ? highend_pfn : max_low_pfn;
  18. #endif
  19. __vmalloc_start_set = true;
  20. printk(KERN_NOTICE "%ldMB LOWMEM available.\n",
  21. pages_to_mb(max_low_pfn));
  22. setup_bootmem_allocator();
  23. }
  24. #endif /* !CONFIG_NEED_MULTIPLE_NODES */

这个函数将high_memory初始化为低端内存最大页框max_low_pfn对应的地址大小,接着调用 memblock_set_node,通过 memblock 内存管理器设置 node 节点信息


  
  1. int __init_memblock memblock_set_node(phys_addr_t base, phys_addr_t size,
  2. struct memblock_type *type, int nid)
  3. {
  4. #ifdef CONFIG_NEED_MULTIPLE_NODES
  5. int start_rgn, end_rgn;
  6. int i, ret;
  7. ret = memblock_isolate_range(type, base, size, &start_rgn, &end_rgn);
  8. if (ret)
  9. return ret;
  10. for (i = start_rgn; i < end_rgn; i++)
  11. memblock_set_region_node(&type->regions[i], nid);
  12. memblock_merge_regions(type);
  13. #endif
  14. return 0;
  15. }

资料直通车:最新Linux内核源码资料文档+视频资料

内核学习地址:Linux内核源码/内存调优/文件系统/进程管理/设备驱动/网络协议栈

memblock_set_node 主要调用了三个函数:memblock_isolate_range、memblock_set_region_node 和 memblock_merge_regions,首先看memblock_isolate_range()函数:


  
  1. /* adjust *@size so that (@base + *@size) doesn't overflow, return new size */
  2. static inline phys_addr_t memblock_cap_size(phys_addr_t base, phys_addr_t *size)
  3. {
  4. return *size = min(*size, PHYS_ADDR_MAX - base);
  5. }
  6. static int __init_memblock memblock_isolate_range( struct memblock_type * type,
  7. phys_addr_t base, phys_addr_t size,
  8. int *start_rgn, int *end_rgn)
  9. {
  10. phys_addr_t end = base + memblock_cap_size(base, &size);
  11. int idx;
  12. struct memblock_region *rgn;
  13. *start_rgn = *end_rgn = 0;
  14. if (!size)
  15. return 0;
  16. /* we'll create at most two more regions */
  17. while ( type ->cnt + 2 > type ->max)
  18. if ( memblock_double_array( type, base, size) < 0)
  19. return -ENOMEM;
  20. for_each_memblock_type(idx, type, rgn) {
  21. phys_addr_t rbase = rgn ->base;
  22. phys_addr_t rend = rbase + rgn ->size;
  23. if (rbase >= end)
  24. break;
  25. if (rend <= base)
  26. continue;
  27. if (rbase < base) {
  28. /*
  29. * @rgn intersects from below. Split and continue
  30. * to process the next region - the new top half.
  31. */
  32. rgn ->base = base;
  33. rgn ->size -= base - rbase;
  34. type ->total_size -= base - rbase;
  35. memblock_insert_region( type, idx, rbase, base - rbase,
  36. memblock_get_region_node(rgn),
  37. rgn ->flags);
  38. } else if (rend > end) {
  39. /*
  40. * @rgn intersects from above. Split and redo the
  41. * current region - the new bottom half.
  42. */
  43. rgn ->base = end;
  44. rgn ->size -= end - rbase;
  45. type ->total_size -= end - rbase;
  46. memblock_insert_region( type, idx--, rbase, end - rbase,
  47. memblock_get_region_node(rgn),
  48. rgn ->flags);
  49. } else {
  50. /* @rgn is fully contained, record it */
  51. if (!*end_rgn)
  52. *start_rgn = idx;
  53. *end_rgn = idx + 1;
  54. }
  55. }
  56. return 0;
  57. }

在__memblock_remove()中有提到,memblock_isolate_range()主要作用是将要移除的物理内存区从 reserved 内存区中分离出来,将 start_rgn 和 end_rgn(该内存区块的起始、结束索引号)返回回去,而这里,由于我们传入的type 是 memblock.memory,该函数会根据入参 base 和 size 标记节点内存范围,将该内存从 memory 中划分开来,同时返回对应的 start_rgn 和 end_rgn。

1)如果 memblock 中的 region 恰好以在该节点内存范围内的话,那么再未赋值 end_rgn 时将当前 region 的索引记录至 start_rgn,end_rgn 在此基础上加 1;

2)如果 memblock 中的 region 跨越了该节点内存末尾分界,那么将会把当前的 region 边界调整为 node 节点内存范围边界,然后通过 memblock_insert_region()函数将剩下的部分(即越出内存范围的那一块内存)重新插入 memblock 管理 regions 当中,实现拆分;


  
  1. static inline void memblock_set_region_node( struct memblock_region *r, int nid)
  2. {
  3. r ->nid = nid;
  4. }
  5. static inline int memblock_get_region_node( const struct memblock_region *r)
  6. {
  7. return r ->nid;
  8. }
  9. static void __init_memblock memblock_insert_region( struct memblock_type * type,
  10. int idx, phys_addr_t base,
  11. phys_addr_t size,
  12. int nid, unsigned long flags)
  13. {
  14. struct memblock_region *rgn = & type ->regions[idx];
  15. BUG_ON( type ->cnt >= type ->max);
  16. memmove(rgn + 1, rgn, ( type ->cnt - idx) * sizeof(*rgn));
  17. rgn ->base = base;
  18. rgn ->size = size;
  19. rgn ->flags = flags;
  20. memblock_set_region_node(rgn, nid);
  21. type ->cnt++;
  22. type ->total_size += size;
  23. }

上面的 memmove()将后面的 region 信息往后移,另外调用 memblock_set_region_node()将原 region 的 node 节点号保留在被拆分出来的 region 当中。

回到前面的 memblock_set_node()函数,紧接着 memblock_isolate_range()被调用的是memblock_set_region_node(),通过这个函数把划分出来的 region 进行 node 节点号设置,而后面的memblock_merge_regions()前面 MEMBLOCK 内存分配器初始化时已经分析过了,是用于将相邻的 region 进行合并的(节点号、flag 等一致才会合并)。

最后回到 initmem_init()函数中,memblock_set_node()返回后,接着调用的函数为 setup_bootmem_allocator()。


  
  1. void __init setup_bootmem_allocator(void)
  2. {
  3. printk(KERN_INFO " mapped low ram: 0 - % 08lx\n",
  4. max_pfn_mapped<<PAGE_SHIFT);
  5. printk(KERN_INFO " low ram: 0 - % 08lx\n", max_low_pfn<<PAGE_SHIFT);
  6. }

原来该函数是用来初始化 bootmem 管理算法的,但现在 x86 的环境已经使用了 memblock 管理算法,所以这里仅作保留,打印部分信息。

bootmem 分配器使用一个 bitmap 来标记物理页是否被占用,分配的时候按照第一适应的原则,从 bitmap 中进行查找,如果这位为 1,表示已经被占用,否则表示未被占用。bootmem 分配器每次分配内存都会在 bitmap 中进行线性搜索,效率非常低,而且容易在内存中留下许多小的空闲碎片,在需要非常大的内存块的时候,检查位图这一过程就显得代价很高。bootmem 分配器是用于在启动阶段分配内存的,对该分配器的需求集中于简单性方面,而不是性能和通用性(和 memblock 管理器一致)。

至此,已完成对内存的节点 node 设置。

回到 setup_arch()函数:


  
  1. void __ init setup_arch(char **cmdline_p)
  2. {
  3. ......
  4. max_pfn = e820__end_of_raCm_pfn(); //max_pfn初始化
  5. ......
  6. find_low_pfn_range(); //max_low_pfn、高端内存初始化
  7. ......
  8. ......
  9. early_alloc_pgt_buf(); //页表缓冲区分配
  10. reserve_brk(); //缓冲区加入memblock.reserve
  11. ......
  12. e820__memblock_setup(); //memblock.memory空间初始化 启动
  13. ......
  14. init_mem_mapping(); //低端内存内核页表初始化 高端内存固定映射区中临时映射区页表初始化
  15. ......
  16. initmem_init(); //high_memory(高端内存起始pfn)初始化 通过memblock内存管理器设置node节点信息
  17. ......
  18. x86_init.paging.pagetable_init(); // <-----------------------------
  19. ......
  20. }

x86_init 结构体内pagetable_init实际上挂接的是native_pagetable_init()函数:


  
  1. struct x86_init_ops x86_init __initdata = {
  2. ......
  3. .paging = {
  4. .pagetable_init = native_pagetable_init,
  5. },
  6. ......
  7. }

native_pagetable_init()函数内容如下:


  
  1. void __init native_pagetable_init(void)
  2. {
  3. unsigned long pfn, va;
  4. pgd_t *pgd, *base = swapper_pg_dir;
  5. p4d_t *p4d;
  6. pud_t *pud;
  7. pmd_t *pmd;
  8. pte_t *pte;
  9. //循环 低端内存最大物理页号~最大物理页号
  10. for (pfn = max_low_pfn; pfn < 1<<( 32-PAGE_SHIFT); pfn++) {
  11. va = PAGE_OFFSET + (pfn<<PAGE_SHIFT);
  12. pgd = base + pgd_index(va);
  13. if (! pgd_present(*pgd))
  14. break;
  15. p4d = p4d_offset(pgd, va);
  16. pud = pud_offset(p4d, va);
  17. pmd = pmd_offset(pud, va);
  18. if (! pmd_present(*pmd))
  19. break;
  20. /* should not be large page here */
  21. if ( pmd_large(*pmd)) {
  22. pr_warn( "try to clear pte for ram above max_low_pfn: pfn: %lx pmd: %p pmd phys: %lx, but pmd is big page and is not using pte !\n",
  23. pfn, pmd, __pa(pmd));
  24. BUG_ON( 1);
  25. }
  26. pte = pte_offset_kernel(pmd, va);
  27. if (! pte_present(*pte))
  28. break;
  29. printk(KERN_DEBUG "clearing pte for ram above max_low_pfn: pfn: %lx pmd: %p pmd phys: %lx pte: %p pte phys: %lx\n",
  30. pfn, pmd, __pa(pmd), pte, __pa(pte));
  31. pte_clear( NULL, va, pte);
  32. }
  33. paravirt_alloc_pmd(&init_mm, __pa(base) >> PAGE_SHIFT);
  34. paging_init();
  35. }

PAGE_OFFSET 代表的是内核空间和用户空间对虚拟地址空间的划分,对不同的体系结构不同。比如在 32 位系统中 3G-4G 属于内核使用的内存空间,所以 PAGE_OFFSET = 0xC0000000

该函数的 for 循环主要是用于检测 max_low_pfn 后面的内核空间内存直接映射空间后面的物理内存是否存在系统启动引导时创建的页表(pfn 通过直接映射的方法得到虚拟地址,然后通过内核页表得到 pgd、pmd、pte),如果存在,则使用 pte_clear()将其清除。

接着看 native_pagetable_init()调用的最后一个函数:paging_init()。


  
  1. void __init paging_init(void)
  2. {
  3. pagetable_init();
  4. __flush_tlb_all();
  5. kmap_init();
  6. /*
  7. * NOTE: at this point the bootmem allocator is fully available.
  8. */
  9. olpc_dt_build_devicetree();
  10. sparse_init();
  11. zone_sizes_init();
  12. }

可以对着这个图看:

前面已经分析过低端内存、固定映射区中临时映射区的内核页表的建立,这里 paging_init 将会完成剩下的工作,首先看pagetable_init()


  
  1. static void __init pagetable_init(void)
  2. {
  3. pgd_t *pgd_base = swapper_pg_dir;
  4. permanent_kmaps_init(pgd_base);
  5. }
  6. static void __init permanent_kmaps_init(pgd_t *pgd_base)
  7. {
  8. unsigned long vaddr = PKMAP_BASE;
  9. page_table_range_init(vaddr, vaddr + PAGE_SIZE*LAST_PKMAP, pgd_base);
  10. pkmap_page_table = virt_to_kpte(vaddr);
  11. }

该函数为建立持久映射区(KMAP 区)的页表,page_table_range_init 函数前面固定映射区页表初始化时已经分析过了(初始化 pgd_base 指向的页全局目录中 start 到 end 这个范围的线性地址,整个函数结束后只是初始化好了页中间目录项对应的页表,但是页表中的页表项并没有初始化),这里建立页表范围为 PKMAP_BASE 到 PKMAP_BASE + PAGE_SIZE*LAST_PKMAP,建好页表后将页表地址赋值给给持久映射区页表变量 pkmap_page_table

__flush_tlb_all()为刷新全部 TLB,这里不做介绍,接着看 paging_init()调用的下一个函数 kmap_init()。


  
  1. static void __ init kmap_init(void)
  2. {
  3. unsigned long kmap_vstart;
  4. /*
  5. * Cache the first kmap pte:
  6. */
  7. kmap_vstart = __fix_to_virt(FIX_KMAP_BEGIN);
  8. kmap_pte = virt_to_kpte(kmap_vstart);
  9. }

可以很容易看到 kmap_init()主要是获取到临时映射区间的起始页表并往临时映射页表变量 kmap_pte 置值

回到 paging_init(),olpc_dt_build_devicetree 这里就不做介绍了,而sparse_init()则涉及到了 Linux 的内存模型,这里介绍一下 Linux 的三种内存模型,注意,以下都是从 CPU 的角度来看的。

从系统中任意一个 CPU 的角度来看,当它访问物理内存的时候,物理地址空间是一个连续的、没有空洞的地址空间,那么这种计算机系统的内存模型就是Flat memory。在这种内存模型下,物理内存的管理比较简单,每一个物理页帧都会有一个 page 数据结构来抽象,因此系统中存在一个 struct page 的数组(位于直接映射区,mem_map,在节点 node 里,后面就会介绍到),每一个数组条目指向一个实际的物理页帧(page frame)。在 flat memory 的情况下,PFN 和 mem_map 数组 index 的关系是线性的(即位于直接映射区,有一个固定偏移),因此从 PFN 到对应的 page 数据结构是非常容易的,反之亦然。

pfn_to_page/page_to_pfn 的作用是 struct page* 和 pfn 页帧号之间的转换,flat memory 内存模型的相关代码如下:


  
  1. #if defined( CONFIG_FLATMEM)
  2. #define __pfn_to_page( pfn) ( mem_map + (( pfn) - ARCH_PFN_OFFSET))
  3. #define __page_to_pfn( page) (( unsigned long)(( page) - mem_map) + \
  4. ARCH_PFN_OFFSET)

PFN 和 struct page 数组(mem_map)的 index 是线性关系,有一个固定的偏移就是 ARCH_PFN_OFFSET(跟架构相关的物理起始地址的 PFN)

如果 cpu 在访问物理内存的时候,其地址空间有一些空洞,是不连续的,那么这种计算机系统的内存模型就是Discontiguous memory。一般而言,NUMA 架构的计算机系统的 memory model 都是选择 Discontiguous Memory,不过 NUMA 强调的是 memory 和 processor 的位置关系,和内存模型其实是没有关系的(NUMA 并没有规定其内存的连续性,而 Discontiguous memory 系统也并非一定是 NUMA 系统,但是这两种都是多节点的),只不过,由于同一 node 上的 memory 和 processor 有更紧密的耦合关系(访问更快),因此需要多个 node 来管理。Discontiguous memory 本质上是 flat memory 内存模型的扩展,整个物理内存的内存空间大部分是成片的大块内存,中间会有一些空洞,每一个成片的内存地址空间属于一个 node(如果局限在一个 node 内部,其内存模型是 flat memory)

在这种模型下,从 PFN 转换到具体的 struct page 会稍微复杂一点,首先要从 PFN 得到 node ID,然后根据这个 ID 找到对于的节点 node 数据结构,也就找到了对应的 page 数组,之后的方法就类似 flat memory 了。


  
  1. #elif defined(CONFIG_DISCONTIGMEM)
  2. #define __pfn_to_page(pfn) \
  3. ({ unsigned long __pfn = (pfn); \
  4. unsigned long __nid = arch_pfn_to_nid(__pfn); \
  5. NODE_DATA(__nid)->node_mem_map + arch_local_page_offset(__pfn, __nid);\
  6. })
  7. #define __page_to_pfn(pg) \
  8. ({ const struct page *__pg = (pg); \
  9. struct pglist_data *__pgdat = NODE_DATA(page_to_nid(__pg)); \
  10. (unsigned long)(__pg - __pgdat->node_mem_map) + \
  11. __pgdat->node_start_pfn; \
  12. })

Discontiguous memory 模型需要获取 node id,只要找到 node id,一切都好办了,后面类比 flat memory model 进行就 OK 了。对于__pfn_to_page 的定义,首先通过 arch_pfn_to_nid 将 PFN 转换成 node id,通过 NODE_DATA 宏定义可以找到该 node 对应的 pglist_data 数据结构,该数据结构的 node_start_pfn 记录了该 node 的第一个 pfn,因此,也就可以得到其对应 struct page 在 node_mem_map 的偏移,__page_to_pfn 类似与上述基本类似(pglist_data 数据结构后面再进行介绍)。

内存模型也是一个演进过程,刚开始的时候,使用 flat memory 去抽象一个连续的内存地址空间,出现 NUMA 之后,整个不连续的内存空间被分成若干个 node,每个 node 上是连续的内存地址空间,也就是从原来单一的一个 mem_maps[]变成了若干个 mem_maps[]。而现在 memory hotplug 的出现让原来完美的设计变得不完美了(热插拔,即带电插拔,热插拔功能就是允许用户在不关闭系统,不切断电源的情况下取出和更换损坏的硬盘、电源或板卡等部件。Linux 内核支持热插拔的部件有 USB 设备、PCI 设备甚至 CPU),因为即便是一个 node 中的 mem_maps[]也有可能是不连续了,因此目前 Discontiguous memory 也逐渐在被 sparse memory 替代。

sparse memory内存模型下,连续的地址空间按照 SECTION(例如 1G)被分成了一段一段的,其中每一 section 都是 hotplug 的,因此 sparse memory 下,内存地址空间可以被切分的更细。整个连续的物理地址空间是按照一个个section来切断的,在每一个 section 内部,其 memory 是连续的(即符合 flat memory 的特点),因此,mem_map 的 page 数组依附于 section 结构(struct mem_section),而不是 node 结构(struct pglist_data)。在这个模型下,PFN 转 struct page 变为了转换变成了 PFN<--->Section<--->page。

linux 内核中静态定义了一个 mem_section 的指针数组,一个 section 中往往包括多个 page,因此需要通过 PFN 得到 section 号,用 section 号做为 index 在 mem_section 指针数组可以找到该 PFN 对应的 section 数据结构。实际上PFN 分成两个部分:一部分是 section index,另外一个部分是 page 在该 section 的偏移,找到 section 之后,沿着其 mem_map 就可以找到对应的 page 数据结构。

对于 page 到 section index 的转换,sparse memory 有 2 种方案,先看看经典的方案,也就是把 section 号保存在 page->flags 中(page 的结构同样在后面再进行介绍),这种方法的最大的问题是 page->flags 中的 bit 数不一定够用,因为这个 flag 中承载了太多的信息,各种 page flag、node id、zone id,现在又增加一个 section id,在不同的处理器架构中无法实现一致性的算法(上面的图即为采用经典算法的 sparse memory)。


  
  1. #elif defined(CONFIG_SPARSEMEM)
  2. /*
  3. * Note: section's mem_map is encoded to reflect its start_pfn.
  4. * section[i].section_mem_map == mem_map's address - start_pfn;
  5. */
  6. #define __page_to_pfn(pg) \
  7. ({ const struct page *__pg = (pg); \
  8. int __sec = page_to_section(__pg); \
  9. (unsigned long)(__pg - __section_mem_map_addr(__nr_to_section(__sec))); \
  10. })
  11. #define __pfn_to_page(pfn) \
  12. ({ unsigned long __pfn = (pfn); \
  13. struct mem_section *__sec = __pfn_to_section(__pfn); \
  14. __section_mem_map_addr(__sec) + __pfn; \
  15. })
  16. #endif /* CONFIG_FLATMEM/DISCONTIGMEM/SPARSEMEM */

对于经典的 sparse memory 模型,一个 section 的 struct page 数组所占用的内存来自直接映射区,页表在初始化的时候就建立好了。但是,对于 SPARSEMEM_VMEMMAP 而言,虚拟地址一开始就分配好了,是 vmemmap 开始的一段连续的虚拟地址空间,但是没有物理地址。因此,当一个 section 被发现后,可以立刻找到对应的 struct page 的虚拟地址,而这时候还需要分配一个物理的 page frame,对于这种 sparse memory,开销会稍微大一些,需要建立页表,关联 page 跟物理地址。


  
  1. #elif defined(CONFIG_SPARSEMEM_VMEMMAP)
  2. /* memmap is virtually contiguous. */
  3. #define __pfn_to_page(pfn) (vmemmap + (pfn))
  4. #define __page_to_pfn(page) (unsigned long)((page) - vmemmap)

内存管理区 Zone 初始化

回到 paging_init()的最后一个函数调用:zone_sizes_init()。


  
  1. void __init zone_sizes_init(void)
  2. {
  3. unsigned long max_zone_pfns[MAX_NR_ZONES];
  4. memset(max_zone_pfns, 0, sizeof(max_zone_pfns));
  5. #ifdef CONFIG_ZONE_DMA
  6. max_zone_pfns[ZONE_DMA] = min(MAX_DMA_PFN, max_low_pfn);
  7. #endif
  8. #ifdef CONFIG_ZONE_DMA32
  9. max_zone_pfns[ZONE_DMA32] = min(MAX_DMA32_PFN, max_low_pfn);
  10. #endif
  11. max_zone_pfns[ZONE_NORMAL] = max_low_pfn;
  12. #ifdef CONFIG_HIGHMEM
  13. max_zone_pfns[ZONE_HIGHMEM] = max_pfn;
  14. #endif
  15. free_area_init(max_zone_pfns);
  16. }

这个函数为 zone 的各个内存管理区域最大物理页号进行初始化,并作为参数调用 free_area_init_nodes(),其中free_area_init_nodes()函数实现如下:


  
  1. void __ init free_area_init(unsigned long *max_zone_pfn)
  2. {
  3. unsigned long start_pfn, end_pfn;
  4. int i, nid, zone;
  5. bool descending;
  6. /* Record where the zone boundaries are */
  7. //全局数组arch_zone_lowest_possible_pfn用来存储各个内存域可使用的最低内存页帧编号
  8. //全局数组arch_zone_highest_possible_pfn用来存储各个内存域可使用的最高内存页帧编号
  9. memset(arch_zone_lowest_possible_pfn, 0,
  10. sizeof(arch_zone_lowest_possible_pfn));
  11. memset(arch_zone_highest_possible_pfn, 0,
  12. sizeof(arch_zone_highest_possible_pfn));
  13. //用于最低内存区域中可用的编号最小的页帧,即memblock.memory.regions[0].base
  14. start_pfn = find_min_pfn_with_active_regions();
  15. //return false
  16. descending = arch_has_descending_max_zone_pfns();
  17. //根据max_zone_pfn和start_pfn初始化arch_zone_lowest_possible_pfn和arch_zone_highest_possible_pfn
  18. for (i = 0; i < MAX_NR_ZONES; i++) {
  19. if ( descending)
  20. zone = MAX_NR_ZONES - i - 1;
  21. else
  22. zone = i;
  23. //由于ZONE_MOVABLE是一个虚拟内存域,不与真正的硬件内存域关联,该内存域的边界总是设置为0
  24. if (zone == ZONE_MOVABLE)
  25. continue;
  26. end_pfn = max(max_zone_pfn[zone], start_pfn);
  27. arch_zone_lowest_possible_pfn[zone] = start_pfn;
  28. arch_zone_highest_possible_pfn[zone] = end_pfn;
  29. start_pfn = end_pfn;
  30. }
  31. /* Find the PFNs that ZONE_MOVABLE begins at in each node */
  32. memset(zone_movable_pfn, 0, sizeof(zone_movable_pfn));
  33. //用于计算ZONE_MOVABLE的内存数量
  34. //在内存较多的32位系统上, 这通常会是ZONE_HIGHMEM, 但是对于64位系统,将使用ZONE_NORMAL或ZONE_DMA32,这里计算也比较复杂,感兴趣的话可以去看一下源码,这里便不做介绍了
  35. find_zone_movable_pfns_for_nodes();
  36. ......
  37. //各种打印
  38. ......
  39. /* Initialise every node */
  40. //为系统中的每个节点调用free_area_init_node()
  41. mminit_verify_pageflags_layout();
  42. setup_nr_node_ids();
  43. init_unavailable_mem();
  44. for_each_online_node(nid) {
  45. pg_data_t *pgdat = NODE_DATA(nid);
  46. free_area_init_node(nid);
  47. /* Any memory on that node */
  48. if (pgdat->node_present_pages)
  49. node_set_state(nid, N_MEMORY);
  50. check_for_memory(pgdat, nid);
  51. }
  52. }

free_area_init_node()函数会计算每个节点中每个区域的大小及其空洞的大小,如果两个相邻区域之间的最大 PFN 匹配,则可以假定后面的区域为空。例如 arch_max_dma_pfn == arch_max_dma32_pfn,则假定 arch_max_dma32_pfn 该区域为空。


  
  1. pg_data_t node_data[MAX_NUMNODES];
  2. EXPORT_SYMBOL(node_data);
  3. #ifdef CONFIG_NUMA
  4. extern struct pglist_data *node_data[];
  5. #define NODE_DATA(nid) (node_data[nid])
  6. #endif /* CONFIG_NUMA */
  7. static void __init free_area_init_node(int nid)
  8. {
  9. //从全局节点数组中获取一个节点
  10. pg_data_t *pgdat = NODE_DATA(nid);
  11. unsigned long start_pfn = 0;
  12. unsigned long end_pfn = 0;
  13. /* pg_data_t should be reset to zero when it's allocated */
  14. WARN_ON(pgdat->nr_zones || pgdat->kswapd_highest_zoneidx);
  15. //根据节点id获取起始pfn和结束pfn,前面node初始化时,memblock处已经设置好节点ID了
  16. get_pfn_range_for_nid(nid, &start_pfn, &end_pfn);
  17. //设置节点ID以及起始pfn
  18. pgdat->node_id = nid;
  19. pgdat->node_start_pfn = start_pfn;
  20. pgdat->per_cpu_nodestats = NULL;
  21. pr_info( "Initmem setup node %d [mem %#018Lx-%#018Lx]\n", nid,
  22. (u64)start_pfn << PAGE_SHIFT,
  23. end_pfn ? ((u64)end_pfn << PAGE_SHIFT) - 1 : 0);
  24. //初始化节点中每个zone的大小和空洞,同时计算节点的spanned_pages和present_pages
  25. calculate_node_totalpages(pgdat, start_pfn, end_pfn);
  26. alloc_node_mem_map(pgdat);
  27. pgdat_set_deferred_range(pgdat);
  28. free_area_init_core(pgdat);
  29. }

在进入 calculate_node_totalpages 之前,这里还是先简单介绍一下node的数据结构。


  
  1. struct zoneref {
  2. struct zone *zone; /* Pointer to actual zone */
  3. int zone_idx; /* zone_idx(zoneref->zone) */
  4. };
  5. struct zonelist {
  6. struct zoneref _zonerefs[MAX_ZONES_PER_ZONELIST + 1];
  7. };
  8. typedef struct pglist_data {
  9. //本节点的所有zone内存管理区
  10. struct zone node_zones[MAX_NR_ZONES];
  11. //包含了对所有node的zone的引用,通常第一个node_zonelists为本节点自己的zones
  12. struct zonelist node_zonelists[MAX_ZONELISTS];
  13. //本节点zone管理区数目
  14. int nr_zones; /* number of populated zones in this node */
  15. #ifdef CONFIG_FLAT_NODE_MEM_MAP /* means !SPARSEMEM */
  16. //Discontiguous Memory内存模型,可以找到节点下的所有page
  17. struct page *node_mem_map;
  18. #ifdef CONFIG_PAGE_EXTENSION
  19. struct page_ext *node_page_ext;
  20. #endif
  21. #endif
  22. ......
  23. //节点第一个页的页号
  24. unsigned long node_start_pfn;
  25. //节点总共的物理页数,不含空洞
  26. unsigned long node_present_pages; /* total number of physical pages */
  27. //节点物理页的范围大小,含空洞
  28. unsigned long node_spanned_pages; /* total size of physical page
  29. range, including holes */
  30. int node_id;
  31. ......
  32. //内存回收相关的数据结构
  33. ......
  34. ZONE_PADDING(_pad1_)
  35. ......
  36. unsigned long flags;
  37. ZONE_PADDING(_pad2_)
  38. ......
  39. } pg_data_t;

ZONE_PADDING 的作用,通过添加大量的填充把经常被访问的“热门”数据分到了单独的 cache line 上,可以理解为空间换时间。

calculate_node_totalpages()实现:


  
  1. static void __init calculate_node_totalpages(struct pglist_data *pgdat,
  2. unsigned long node_start_pfn,
  3. unsigned long node_end_pfn)
  4. {
  5. unsigned long realtotalpages = 0, totalpages = 0;
  6. enum zone_type i;
  7. for (i = 0; i < MAX_NR_ZONES; i++) {
  8. struct zone *zone = pgdat->node_zones + i;
  9. unsigned long zone_start_pfn, zone_end_pfn;
  10. unsigned long spanned, absent;
  11. unsigned long size, real_size;
  12. spanned = zone_spanned_pages_in_node(pgdat->node_id, i,
  13. node_start_pfn,
  14. node_end_pfn,
  15. &zone_start_pfn,
  16. &zone_end_pfn);
  17. absent = zone_absent_pages_in_node(pgdat->node_id, i,
  18. node_start_pfn,
  19. node_end_pfn);
  20. size = spanned;
  21. real_size = size - absent;
  22. if (size)
  23. zone->zone_start_pfn = zone_start_pfn;
  24. else
  25. zone->zone_start_pfn = 0;
  26. zone->spanned_pages = size;
  27. zone->present_pages = real_size;
  28. totalpages += size;
  29. realtotalpages += real_size;
  30. }
  31. pgdat->node_spanned_pages = totalpages;
  32. pgdat->node_present_pages = realtotalpages;
  33. printk(KERN_DEBUG "On node %d totalpages: %lu\n", pgdat->node_id,
  34. realtotalpages);
  35. }

其中zone_spanned_pages_in_node():


  
  1. static unsigned long __init zone_spanned_pages_in_node(int nid,
  2. unsigned long zone_type,
  3. unsigned long node_start_pfn,
  4. unsigned long node_end_pfn,
  5. unsigned long *zone_start_pfn,
  6. unsigned long *zone_end_pfn)
  7. {
  8. unsigned long zone_low = arch_zone_lowest_possible_pfn[zone_type];
  9. unsigned long zone_high = arch_zone_highest_possible_pfn[zone_type];
  10. /* When hotadd a new node from cpu_up(), the node should be empty */
  11. if (!node_start_pfn && !node_end_pfn)
  12. return 0;
  13. /* Get the start and end of the zone */
  14. //限制zone_start_pfn和zone_end_pfn所在区间
  15. *zone_start_pfn = clamp(node_start_pfn, zone_low, zone_high);
  16. *zone_end_pfn = clamp(node_end_pfn, zone_low, zone_high);
  17. adjust_zone_range_for_zone_movable(nid, zone_type,
  18. node_start_pfn, node_end_pfn,
  19. zone_start_pfn, zone_end_pfn);
  20. /* Check that this node has pages within the zone's required range */
  21. if (*zone_end_pfn < node_start_pfn || *zone_start_pfn > node_end_pfn)
  22. return 0;
  23. /* Move the zone boundaries inside the node if necessary */
  24. *zone_end_pfn = min(*zone_end_pfn, node_end_pfn);
  25. *zone_start_pfn = max(*zone_start_pfn, node_start_pfn);
  26. /* Return the spanned pages */
  27. return *zone_end_pfn - *zone_start_pfn;
  28. }

该函数主要是统计 node 管理节点的内存跨度,该跨度不包括 movable 管理区的(因为 movable 就是在其它内存管理区里分配出来的),里面调用的 adjust_zone_range_for_zone_movable()则是用于剔除 movable 管理区的部分。

另外的zone_absent_pages_in_node()函数:


  
  1. unsigned long __init __absent_pages_in_range( int nid,
  2. unsigned long range_start_pfn,
  3. unsigned long range_end_pfn)
  4. {
  5. unsigned long nr_absent = range_end_pfn - range_start_pfn;
  6. unsigned long start_pfn, end_pfn;
  7. int i;
  8. for_each_mem_pfn_range(i, nid, &start_pfn, &end_pfn, NULL) {
  9. start_pfn = clamp(start_pfn, range_start_pfn, range_end_pfn);
  10. end_pfn = clamp(end_pfn, range_start_pfn, range_end_pfn);
  11. nr_absent -= end_pfn - start_pfn;
  12. }
  13. return nr_absent;
  14. }
  15. static unsigned long __init zone_absent_pages_in_node(int nid,
  16. unsigned long zone_type,
  17. unsigned long node_start_pfn,
  18. unsigned long node_end_pfn)
  19. {
  20. unsigned long zone_low = arch_zone_lowest_possible_pfn[zone_type];
  21. unsigned long zone_high = arch_zone_highest_possible_pfn[zone_type];
  22. unsigned long zone_start_pfn, zone_end_pfn;
  23. unsigned long nr_absent;
  24. /* When hotadd a new node from cpu_up(), the node should be empty */
  25. if (!node_start_pfn && !node_end_pfn)
  26. return 0;
  27. zone_start_pfn = clamp(node_start_pfn, zone_low, zone_high);
  28. zone_end_pfn = clamp(node_end_pfn, zone_low, zone_high);
  29. adjust_zone_range_for_zone_movable(nid, zone_type,
  30. node_start_pfn, node_end_pfn,
  31. &zone_start_pfn, &zone_end_pfn);
  32. nr_absent = __absent_pages_in_range(nid, zone_start_pfn, zone_end_pfn);
  33. /*
  34. * ZONE_MOVABLE handling.
  35. * Treat pages to be ZONE_MOVABLE in ZONE_NORMAL as absent pages
  36. * and vice versa.
  37. */
  38. if (mirrored_kernelcore && zone_movable_pfn[nid]) {
  39. unsigned long start_pfn, end_pfn;
  40. struct memblock_region *r;
  41. for_each_mem_region(r) {
  42. start_pfn = clamp( memblock_region_memory_base_pfn(r),
  43. zone_start_pfn, zone_end_pfn);
  44. end_pfn = clamp( memblock_region_memory_end_pfn(r),
  45. zone_start_pfn, zone_end_pfn);
  46. if (zone_type == ZONE_MOVABLE &&
  47. memblock_is_mirror(r))
  48. nr_absent += end_pfn - start_pfn;
  49. if (zone_type == ZONE_NORMAL &&
  50. ! memblock_is_mirror(r))
  51. nr_absent += end_pfn - start_pfn;
  52. }
  53. }
  54. return nr_absent;
  55. }

该函数主要用于计算内存空洞页面数的,计算方法大致为在 zone 区域范围内,遍历所有 memblock 的内存块,将这些内存块的大小累加,之后两者做差,zone_absent_pages_in_node 后面是对 ZONE_MOVABLE 的特殊处理了,方法是类似的,这里也不做介绍了。

calculate_node_totalpages()后面就是各种简单的赋值操作了,这里也简单介绍一下zone的结构:

其中 MAX_NR_ZONES 是一个节点中所能包容纳的 Zones 的最大数。


  
  1. struct zone {
  2. ......
  3. //保留页框池,记录每个管理区中必须保留的物理页面数,以用于紧急状况下的内存分配
  4. long lowmem_reserve[MAX_NR_ZONES];
  5. //保持对UMA的兼容(当做一个节点),NUMA模式下的节点数
  6. #ifdef CONFIG_NUMA
  7. int node;
  8. #endif
  9. //该zone的父节点
  10. struct pglist_data *zone_pgdat;
  11. ......
  12. //该zone的第一个页的页号
  13. unsigned long zone_start_pfn;
  14. //伙伴系统管理的page数,这是除去了在初始化阶段被申请的页面(比如memblock)
  15. atomic_long_t managed_pages;
  16. //zone大小,含空洞,即zone_end_pfn - zone_start_pfn
  17. unsigned long spanned_pages;
  18. //zone实际大小,不含空洞
  19. unsigned long present_pages;
  20. //zone的名称,如“DMA”“Normal”“Highmem”,这些名称定义于page_alloc.c的zone_names[MAX_NR_ZONES]
  21. const char *name;
  22. ZONE_PADDING(_pad1_)
  23. //包含所有空闲页面,伙伴系统使用,里面有数量为MIGRATE_TYPES个的free_list链表,分别用于管理不同迁移类型的内存页面
  24. struct free_area free_area[MAX_ORDER];
  25. //描述zone的当前状态
  26. unsigned long flags;
  27. /* Primarily protects free_area */
  28. //与伙伴算法的碎片迁移算法有关
  29. spinlock_t lock;
  30. ZONE_PADDING(_pad2_)
  31. ......
  32. ZONE_PADDING(_pad3_)
  33. ......
  34. } ____cacheline_internodealigned_in_smp;

回到 free_area_init_node()函数,紧接在 calculate_node_totalpages()后的函数调用的为alloc_node_mem_map(),这个函数是用于申请 node 节点的 node_mem_map 相应的内存空间,如果是 sparse memory 内存模型,则该函数实现为空,这里便不做过多介绍了,直接看最后的初始化工作:free_area_init_core()。


  
  1. static void __init free_area_init_core(struct pglist_data *pgdat)
  2. {
  3. enum zone_type j;
  4. int nid = pgdat->node_id;
  5. //对节点的一些锁和队列进行初始化
  6. pgdat_init_internals(pgdat);
  7. pgdat->per_cpu_nodestats = &boot_nodestats;
  8. for (j = 0; j < MAX_NR_ZONES; j++) {
  9. struct zone *zone = pgdat->node_zones + j;
  10. unsigned long size, freesize, memmap_pages;
  11. unsigned long zone_start_pfn = zone->zone_start_pfn;
  12. size = zone->spanned_pages;
  13. freesize = zone->present_pages;
  14. //memmap_pages,每一个4k物理页都对应一个mem_map_t来管理
  15. memmap_pages = calc_memmap_size(size, freesize);
  16. if (! is_highmem_idx(j)) {
  17. if (freesize >= memmap_pages) {
  18. freesize -= memmap_pages;
  19. if (memmap_pages)
  20. printk(KERN_DEBUG
  21. " %s zone: %lu pages used for memmap\n",
  22. zone_names[j], memmap_pages);
  23. } else
  24. pr_warn( " %s zone: %lu pages exceeds freesize %lu\n",
  25. zone_names[j], memmap_pages, freesize);
  26. }
  27. //dma保留页
  28. if (j == 0 && freesize > dma_reserve) {
  29. freesize -= dma_reserve;
  30. printk(KERN_DEBUG " %s zone: %lu pages reserved\n",
  31. zone_names[ 0], dma_reserve);
  32. }
  33. //计算nr_kernel_pages(低端内存的页数)和nr_all_pages的数量
  34. if (! is_highmem_idx(j))
  35. nr_kernel_pages += freesize;
  36. /* Charge for highmem memmap if there are enough kernel pages */
  37. //如果有足够的页,则也为高端内存提供memmap_pages
  38. else if (nr_kernel_pages > memmap_pages * 2)
  39. nr_kernel_pages -= memmap_pages;
  40. nr_all_pages += freesize;
  41. /*
  42. * Set an approximate value for lowmem here, it will be adjusted
  43. * when the bootmem allocator frees pages into the buddy system.
  44. * And all highmem pages will be managed by the buddy system.
  45. */
  46. //初始化zone使用的各类锁
  47. zone_init_internals(zone, j, nid, freesize);
  48. if (!size)
  49. continue;
  50. set_pageblock_order();
  51. setup_usemap(pgdat, zone, zone_start_pfn, size);
  52. init_currently_empty_zone(zone, zone_start_pfn, size);
  53. memmap_init(size, nid, j, zone_start_pfn);
  54. }
  55. }

该函数主要用于向节点下的每个 zone 填充相关信息,在 for 循环内,循环遍历统计各个管理区最大跨度间相差的页面数 size 以及除去内存“空洞”后的实际页面数 freesize,然后通过 calc_memmap_size()计算出该管理区所需的页面管理结构占用的页面数 memmap_pages,最后可以计算得出高端内存外的系统内存共有的内存页面数(freesize-memmap_pages)。

nr_kernel_pages 用于统计低端内存的页数,此外循环体内的操作则是初始化内存管理区的管理结构,例如各类锁的初始化、队列初始化。其中 set_pageblock_order()用于在 CONFIG_HUGETLB_PAGE_SIZE_VARIABLE 下设置 pageblock_order 的值;setup_usemap()函数则是为了给 zone 管理结构体中的 pageblock_flags 申请内存空间的,pageblock_flags 与伙伴系统的碎片迁移算法有关。init_currently_empty_zone()则主要是初始化管理区的等待队列哈希表和等待队列,同时还初始化了与伙伴系统相关的 free_area 列表

这里以我自己的私服为例,看一下我私服 node 和 zone 的情况

首先是 node 的个数,GNU/Linux 根据物理 CPU 的数量分配 node,因此可以直接查物理 CPU 的数量:

我的机器上只有一个 node,接下来可以用 cat /proc/zoneinfo 查看这个 node 下各个 zone 的情况:

回到 free_area_init_core()函数的最后,memmap_init()->memmap_init_zone(),该函数主要是根据 PFN,然后通过 pfn_to_page 找到对应的 struct page 结构,并将该结构进行初始化处理,并设置 MIGRATE_MOVABLE 标志,表明可移动。


  
  1. //遍历memblock,找到节点的内存地址范围,zone的范围不能大于这个,使用memmap_init_zone对该zone进行处理
  2. void __meminit __weak memmap_init(unsigned long size, int nid,
  3. unsigned long zone,
  4. unsigned long range_start_pfn)
  5. {
  6. unsigned long start_pfn, end_pfn;
  7. unsigned long range_end_pfn = range_start_pfn + size;
  8. int i;
  9. for_each_mem_pfn_range(i, nid, &start_pfn, &end_pfn, NULL) {
  10. start_pfn = clamp(start_pfn, range_start_pfn, range_end_pfn);
  11. end_pfn = clamp(end_pfn, range_start_pfn, range_end_pfn);
  12. if (end_pfn > start_pfn) {
  13. size = end_pfn - start_pfn;
  14. memmap_init_zone(size, nid, zone, start_pfn,
  15. MEMINIT_EARLY, NULL, MIGRATE_MOVABLE);
  16. }
  17. }
  18. }
  19. void __meminit memmap_init_zone(unsigned long size, int nid, unsigned long zone,
  20. unsigned long start_pfn,
  21. enum meminit_context context,
  22. struct vmem_altmap *altmap, int migratetype)
  23. {
  24. unsigned long pfn, end_pfn = start_pfn + size;
  25. struct page *page;
  26. if (highest_memmap_pfn < end_pfn - 1)
  27. highest_memmap_pfn = end_pfn - 1;
  28. #ifdef CONFIG_ZONE_DEVICE
  29. /*
  30. * Honor reservation requested by the driver for this ZONE_DEVICE
  31. * memory. We limit the total number of pages to initialize to just
  32. * those that might contain the memory mapping. We will defer the
  33. * ZONE_DEVICE page initialization until after we have released
  34. * the hotplug lock.
  35. */
  36. if (zone == ZONE_DEVICE) {
  37. if (!altmap)
  38. return;
  39. if (start_pfn == altmap->base_pfn)
  40. start_pfn += altmap->reserve;
  41. end_pfn = altmap->base_pfn + vmem_altmap_offset(altmap);
  42. }
  43. #endif
  44. for (pfn = start_pfn; pfn < end_pfn; ) {
  45. /*
  46. * There can be holes in boot-time mem_map[]s handed to this
  47. * function. They do not exist on hotplugged memory.
  48. */
  49. if (context == MEMINIT_EARLY) {
  50. if ( overlap_memmap_init(zone, &pfn))
  51. continue;
  52. if ( defer_init(nid, pfn, end_pfn))
  53. break;
  54. }
  55. page = pfn_to_page(pfn);
  56. __init_single_page(page, pfn, zone, nid);
  57. if (context == MEMINIT_HOTPLUG)
  58. __SetPageReserved(page);
  59. /*
  60. * Usually, we want to mark the pageblock MIGRATE_MOVABLE,
  61. * such that unmovable allocations won't be scattered all
  62. * over the place during system boot.
  63. */
  64. if ( IS_ALIGNED(pfn, pageblock_nr_pages)) {
  65. set_pageblock_migratetype(page, migratetype);
  66. cond_resched();
  67. }
  68. pfn++;
  69. }
  70. }

struct page

最后这里简单介绍一下 struct page,内核会为每一个物理页帧创建一个 struct page 的结构体,因此要保证 page 结构体足够的小,否则仅 struct page 就要占用大量的内存,该结构有很多 union 结构,主要是用于各种算法不同数据的空间复用。

struct page 这个结构相当复杂,这里我放上网上找到的一个全局参考,可以比源码更清晰地了解整个结构体,这里我也只简单介绍里面的几个字段。


  
  1. struct page (include/linux/mm_types.h)
  2. page
  3. +--------------------------------------------------------------+
  4. |flags |
  5. | ( unsigned long) |
  6. --+-- +==============================================================+
  7. | |..............................................................|
  8. | |page cache and anonymous pages |
  9. | | +---------------------------------------------------------+
  10. | | |lru |
  11. | | | ( struct list_head) |
  12. | |mapping |
  13. | | ( struct address_space*) |
  14. | |index |
  15. | | ( pgoff_t) |
  16. 5 words | | private |
  17. union | | ( unsigned long) |
  18. | +---------------------------------------------------------+
  19. |..............................................................|
  20. has |slab, slob, slub |
  21. | +---------------------------------------------------------+
  22. 7 usage | |.........................................................|
  23. | | .+---------------------------|
  24. | |slab_list .|next |
  25. | | ( struct list_head) .| ( struct page*) |
  26. | | .|pages |
  27. | | .|pobjects |
  28. | | .| ( int) |
  29. | | .+---------------------------|
  30. | |.........................................................|
  31. | +---------------------------------------------------------+
  32. | |slab_cache |
  33. | | ( struct kmem_cache*) |
  34. | |freelist |
  35. | | ( void*) |
  36. | +---------------------------------------------------------+
  37. | |.........................................................|
  38. | |s_mem .counters .+---------------------------|
  39. | | ( void*) . ( unsigned long) .|inuse |
  40. | | . .|objects |
  41. | | . .|frozen |
  42. | | . .| ( unsigned) |
  43. | | . .+---------------------------|
  44. | |.........................................................|
  45. | +---------------------------------------------------------+
  46. |..............................................................|
  47. |Tail pages of compound page |
  48. | +---------------------------------------------------------+
  49. | |compound_head |
  50. | | ( unsigned long) |
  51. | |compound_dtor |
  52. | |compound_order |
  53. | | ( unsigned char) |
  54. | |compound_mapcount |
  55. | | ( atomic_t) |
  56. | +---------------------------------------------------------+
  57. |..............................................................|
  58. |Second tail page of compound page |
  59. | +---------------------------------------------------------+
  60. | |_compound_pad_1 |
  61. | |_compound_pad_2 |
  62. | | ( unsigned long) |
  63. | |deferred_list |
  64. | | ( struct list_head) |
  65. | +---------------------------------------------------------+
  66. |..............................................................|
  67. |Page table pages |
  68. | +---------------------------------------------------------+
  69. | |_pt_pad_1 |
  70. | | ( unsigned long) |
  71. | |pmd_huge_pte |
  72. | | ( pgtable_t) |
  73. | |_pt_pad_2 |
  74. | | ( unsigned long) |
  75. | |.........................................................|
  76. | |pt_mm .pt_frag_refcount |
  77. | | ( struct mm_struct*) . ( atomic_t) |
  78. | |.........................................................|
  79. | |ptl |
  80. | | ( spinlock_t/ spinlock_t *) |
  81. | +---------------------------------------------------------+
  82. |..............................................................|
  83. |ZONE_DEVICE pages |
  84. | +---------------------------------------------------------+
  85. | |pgmap |
  86. | | ( struct dev_pagemap*) |
  87. | |hmm_data |
  88. | |_zd_pad_1 |
  89. | | | ( unsigned long) |
  90. | | +---------------------------------------------------------+
  91. | |..............................................................|
  92. | |rcu_head |
  93. | | ( struct rcu_head) |
  94. | |..............................................................|
  95. --+-- +==============================================================+
  96. | |..............................................................|
  97. | . . . |
  98. 4 bytes |_mapcount .page_type .active .units |
  99. union | ( atomic_t). ( unsigned int). ( unsigned int). ( int) |
  100. | . . . |
  101. | |..............................................................|
  102. --+-- +==============================================================+
  103. |_refcount |
  104. | ( atomic_t) |
  105. |mem_cgroup |
  106. | ( struct mem_cgroup) |
  107. | virtual |
  108. | ( void *) |
  109. |_last_cpupid |
  110. | ( int) |
  111. +--------------------------------------------------------------+

首先介绍一下flags,它描述 page 的状态和其它的一些信息,如下图。

主要分为 4 部分,其中标志位 flag 向高位增长,其余位字段向低位增长,中间存在空闲位。

  • section:主要用于 sparse memory 内存模型,即 section 号。
  • node:NUMA 节点号,标识该 page 属于哪一个节点。
  • zone:内存域标志,标识该 page 属于哪一个 zone。
  • flag:page 的状态标识,常用的有:

  
  1. page-flags.h
  2. enum pageflags {
  3. PG_locked, /* 表示页面已上锁,不要访问 */
  4. PG_error, /* 表示页面发生IO错误 */
  5. PG_referenced, /* 用于RCU算法 */
  6. PG_uptodate, /* 表示页面内容有效,当该页面上读操作完成后,设置该标志位 */
  7. PG_dirty, /* 表示页面是脏页,内容被修改过 */
  8. PG_lru, /* 表示该页面在lru链表中 */
  9. PG_active, /* 表示该页面在活跃lru链表中 */
  10. PG_slab, /* 表示该页面是属于slab分配器创建的slab */
  11. PG_owner_priv_1, /* 页面的所有者使用,如果是pagecache页面,文件系统可能使用*/
  12. PG_arch_1, /* 与体系架构相关的页面状态位 */
  13. PG_reserved, /* 表示该页面不可被换出,防止该page被交换到swap */
  14. PG_private, /* 如果page中的private成员非空,则需要设置该标志,如果是pagecache, 包含fs-private data */
  15. PG_writeback, /* 页面正在回写 */
  16. PG_head, /* A head page */
  17. PG_swapcache, /* 表示该page处于swap cache中 */
  18. PG_reclaim, /* 表示该page要被回收,决定要回收某个page后,需要设置该标志 */
  19. PG_swapbacked, /* 该page的后备存储器是swap/ram,一般匿名页才可以回写swap分区 * /
  20. PG_unevictable, /* 该page被锁住,不能回收,并会出现在LRU_UNEVICTABLE链表中 * /
  21. ......
  22. }

内核定义了一些标准宏,用于检查页面是否设置了某个特定的标志位或者用于操作某些特定的标志位,比如


  
  1. PageXXX()(检查是否设置)
  2. SetPageXXX()
  3. ClearPageXXX()

伙伴系统,内存被分成含有很多页面的大块,每一块都是 2 个页面大小的方幂。如果找不到想要的块, 一个大块会被分成两部分,这两部分彼此就成为伙伴。其中一半被用来分配,而另一半则空闲。这些块在以后分配的过程中会继续被二分直至产生一个所需大小的块。当一个块被最终释放时, 其伙伴将被检测出来, 如果伙伴也空闲则合并两者

slab,Slab 对小对象进行分配,不用为每个小对象去分配页,节省了空间。内核中一些小对象在创建析构时很频繁,Slab 对这些小对象做缓存,可以重复利用一些相同的对象,减少内存分配次数

接着看struct list_head lru,链表头,具体作用得看 page 处于什么用途中,如果是伙伴系统则用于连接相同的伙伴,通过第一个 page 可以找到伙伴中所有的 page;如果是 slab,page->lru.next 指向 page 驻留的的缓存管理结构,page->lru.prec 指向保存该 page 的 slab 管理结构;而当 page 被用户态使用或被当做页缓存使用时,lru 则用于将该 page 连入 zone 中相应的 lru 链表,供内存回收时使用

struct address_space *mapping,当 mapping 为 NULL 时,该 page 为交换缓存(swap);当 mapping 不为 NULL 且第 0 位为 0,该 page 为页缓存或文件映射,mapping 指向文件的地址空间;当 mapping 不为 NULL 且第 0 位为 1,该 page 为匿名页(匿名映射),mapping 指向 struct anon_vma 对象

pgoff_t index,映射虚拟内存空间里的地址偏移,一个文件可能只映射其中的一部分,假设映射了 1M 的空间,index 指的是在 1M 空间内的偏移,而不是在整个文件内的偏移

unsigned long private,私有数据指针

atomic_t _mapcount,该 page 被页表映射的次数,即这个 page 被多少个进程共享,初始值为-1(非伙伴系统,如果是伙伴系统则为 PAGE_BUDDY_MAPCOUNT_VALUE),例如只被一个进程的页表映射的话,值为 0

atomic_t _refcount,页表引用计数,内核要操作该 page 时,引用计数会+1,操作完成后则-1,当引用计数为 0 时,表示该 page 没有被引用到,这时候就可以解除该 page 的映射(虚拟页-物理页,该物理页是占用内存的)(用于内存回收)

更详细的内容可以参考源代码~

ok,回到 memmap_init_zone(),直接看关键函数**__init_single_page**()


  
  1. static void __meminit __init_single_page(struct page *page, unsigned long pfn,
  2. unsigned long zone, int nid)
  3. {
  4. mm_zero_struct_page(page); //page初始化,根据page大小还有一些特殊操作
  5. set_page_links(page, zone, nid, pfn); //flags初始化,将页面映射到zone和node
  6. init_page_count(page); //page的_refcount设置为1
  7. page_mapcount_reset(page); //page的_mapcount设置为-1
  8. INIT_LIST_HEAD(&page->lru); //初始化lru,指向自身
  9. ......
  10. }

至此,free_area_init_node()的初始化操作执行完毕,据前面分析可以知道该函数主要是将整个 linux 物理内存管理框架进行初始化,包括内存管理节点 node、管理区 zone 以及页面管理 page 等数据的初始化

回到前面的 free_area_init()函数的循环体内的最后两个函数 node_set_state()和 check_for_memory(),node_set_state()主要是对 node 节点进行状态设置,而 check_for_memory()则是做内存检查。

到这里,内存管理框架的构建基本完毕。


  
  1. void __ init setup_arch(char **cmdline_p)
  2. {
  3. ......
  4. max_pfn = e820__end_of_raCm_pfn(); //max_pfn初始化
  5. ......
  6. find_low_pfn_range(); //max_low_pfn、高端内存初始化
  7. ......
  8. ......
  9. early_alloc_pgt_buf(); //页表缓冲区分配
  10. reserve_brk(); //缓冲区加入memblock.reserve
  11. ......
  12. e820__memblock_setup(); //memblock.memory空间初始化 启动
  13. ......
  14. init_mem_mapping(); //低端内存内核页表初始化 高端内存固定映射区中临时映射区页表初始化
  15. ......
  16. initmem_init(); //high_memory初始化 通过memblock内存管理器设置node节点信息
  17. ......
  18. x86_init.paging.pagetable_init(); // 节点node、内存管理区zone、page初始化
  19. ......
  20. }

最后补充一下 pfn 和物理地址以及 pfn 和虚拟地址的转换。


  
  1. //物理地址->物理页
  2. #define PAGE_SHIFT _PAGE_SHIFT
  3. #define _PAGE_SHIFT 12
  4. #define phys_to_pfn(phys) ((phys) >> PAGE_SHIFT)
  5. #define pfn_to_phys(pfn) ((pfn) << PAGE_SHIFT)
  6. #define phys_to_page(phys) pfn_to_page(phys_to_pfn(phys))
  7. #define page_to_phys(page) pfn_to_phys(page_to_pfn(page))

pfn_to_page、page_to_pfn 可以参考上面的内存模型,不同的模型实现的细节不一样。

这里可以看出物理页的大小是 4096,即 4kb,虽然内核在虚拟地址中是在高地址的,但是在物理地址中是从 0 开始的。

在 linux 内核直接映射区里内核逻辑地址与物理页的转换关系如下:


  
  1. #define pfn_to_virt(pfn) __va(pfn_to_phys(pfn))
  2. #define virt_to_pfn(kaddr) (phys_to_pfn(__pa(kaddr)))
  3. #define virt_to_page(kaddr) pfn_to_page(virt_to_pfn(kaddr))
  4. #define page_to_virt(page) pfn_to_virt(page_to_pfn(page))
  5. #define __pa(x) ((unsigned long) (x) - PAGE_OFFSET)
  6. #define __va(x) ((void *)((unsigned long) (x) + PAGE_OFFSET))

PAGE_OFFSET 与具体的架构有关,在 x86_32 中,PAGE_OFFSET 是 0xC0000000,即 32 位系统中,内核的逻辑地址只有高位的 1GB

总结

Linux 内存管理是一个很复杂的“工程”,Linux 会通过中断调用获取被 BIOS 保留的内存地址范围以及系统可以使用的内存地址范围。在内核初始化阶段,通过 memblock 内存分配器,实现页分配器初始化之前的内存管理和分配请求,memblock 内存区管理算法将可用可分配的内存用 memblock.memory 进行管理,已分配的内存用 memblock.reserved 进行管理,只要内存块加入到 memblock.reserved 里面就表示该内存被申请占用了,申请和释放的操作都集中在 memblock.reserved,这个算法效率不高,但是却是合理的,因为在内核初始化阶段并没有太多复杂的内存操作场景,而且很多地方都是申请的内存都是永久使用的。为了合理地利用 4G 的内存空间,Linux 采用了 3:1 的策略,即内核占用 1G 的线性地址空间,用户占用 3G 的线性地址空间,且 Linux 采用了一种折中方案是只对 1G 内核空间的前 896 MB 按线性映射, 剩下的 128 MB 采用动态映射,即走多级页表翻译,这样,内核态能访问空间就更多了。传统的多核运算是使用 SMP(Symmetric Multi-Processor )模式,将多个处理器与一个集中的存储器和 I/O 总线相连,所有处理器访问同一个物理存储器,因此 SMP 系统有时也被称为一致存储器访问(UMA)结构体系。而 NUMA 模式是一种分布式存储器访问方式,处理器可以同时访问不同的存储器地址,大幅度提高并行性。NUMA 模式下系统的每个 CPU 都有本地内存,可支持快速访问,各个处理器之间通过总线连接起来,以支持对其它 CPU 本地内存的访问,但是这些访问要比处理器本地内存的慢。Linux 内核通过插入一些兼容层,使两个不同体系结构的差异被隐藏,两种模式都使用了同一个数据结构,另外 linux 的物理内存管理机制将物理内存划分为三个层次来管理,依次是:Node(存储节点)、Zone(管理区)和 Page(页面)。

Linux 内存管理的内容十分多且复杂,上面介绍到的也只是其中的一部分,如果感兴趣的话可以下载一份源代码,然后细细品味[手动狗头]


转载:https://blog.csdn.net/weixin_52183917/article/details/127887695
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场