我们知道kmem_cache中对于每CPU都有一个array_cache,已作为每CPU申请内存的缓存.  此函数的目的在于:每个kmem_cache都有一个kmem_list3实例,该实例的shared作为一个kmem_cache上所有CPU的内存申请缓存.  但是在此之前,seup_cpu_cache中对于kmem_cache中array_cache的值初始化体现不出缓存思想,而且对于kmem_cache中的kmem_list3.shared也没有利用.

kmem_cache_init_late的目的就在于完善slab分配器的缓存机制.

start_kernel()
|-->page_address_init()
|
|-->setup_arch(&command_line);
|
|-->setup_per_cpu_areas();
|
|-->build_all_zonelist()
|
|-->page_alloc_init()
|
|-->pidhash_init()
|
|-->vfs_caches_init_early()
|
|-->mm_init()
|
|-->.......
|
|-->gfp_allowed_mask = __GFP_BITS_MASK;
| 在此之前,gfp_allowed_mask = GFP_BOOT_MASK;
|
|-->kmem_cache_init_late();
|
void __init kmem_cache_init_late(void)
|-->struct kmem_cache *cachep;
|
|-->list_for_each_entry(cachep, &cache_chain, next)
|-->if (enable_cpucache(cachep, GFP_NOWAIT)) BUG();
|
|--g_cpucache_up = FULL;
|
|-->init_lock_keys();
|
|-->register_cpu_notifiler(&cpu_notifier);
int enabel_cpucache(struct kmem_cache *cachep, gfp_t gfp)
|-->int limit;
|
|-->if (cachep->buffer_size > ) limit = ;
| else if (cachep->buffer_size > PAGE_SIZE) limit = ;
| else if (cachep->buffer_size > ) limit = ;
| else if (cachep->buffer_size > ) limit = ;
| else limit = ;
| 为什么选择这些数值啊,不明白???
|
|-->int shared = ;
| if(cachep->buffer_size <= PAGE_SIZE && num_possible_cpus() > )
| shared = ;
|
|--int err = ;
| err = do_tune_cpucache(cachep, limit, (limit + ) / , shared, gfp);
|
|--return err;
int do_tune_cpucache(struct kmem_cache *cachep, int limit,
int batchcount, int shared, gfp_t gfp)
|-->struct ccupdate_struct *new = NULL;
| new = kazlloc(sizeof(*new), gfp);
|
|--int i;
|--for_each_online_cpu(i)
|--{
| new->new[i] = alloc_arraycache(cpu_to_node(i), limit,
| batchcount, gfp);
| 根据limit, batchcount数值,构建新的array_cache实例.
|
| 因为kmem_cache中的array_cache是每个CPU的,所以此处是循环,为每个CPU都
| 都构建一个array_cache实例.
|--}
|
|-->new->cachep = cachep;
|
|-->on_each_cpu(do_ccupdate_local, (void*)new, );
| 将kmem_cache下的每个CPU的array_cache[i]更换成new->new[i];
|
|-->cachep->batchcount = batchcount;
| cachep->limit = limit;
| cachep->shared = shared;
|
|
| 上面以替换了kmem_cache下的每个CPU的array_cache[i],
| 因此需要把原来的array_cache释放掉.
|--for_each_online_cpu(i)
|--{
| struct array_cache *ccolde = new->new[i];
| if(!ccold) continue;
|
| free_block(cachep, ccold->entry, ccold->avail, cpu_to_node(i));
| 我们知道在此之前,ccold->avail一直为0,所以该函数暂时可以不看.
| 此函数,就是把ccold->avail个ccole->entry中的数组元素指向的内存空间
| 释放给slab管理器.
|
|
| kfree(ccold);
| 基本同于free_block,我们知道slab所管理的内存都是位于低端内存,低端内存的物
| 理地址及其对应的虚拟地址存在固定偏移,因此根据该部分的虚拟地址可以很容易的找到
| struct page实例,而struct page中的lru链表,在slab中被复用了,根据链表
| 指针可以找到kmem_cache实例,所以kfree基本等同于free_block;
| 但是kfree与free_block的重要的不同点在于,free_block直接将内存释放给了
| slab管理器,而kfree首选将内存释放给每CPU的array_cache数组.
|
|--}
|-->kfree(new);
|
|--return alloc_kmemlist(cachep, gfp);
| 每个kmem_cache中的kmem_list3.shared上array_cache可以被所有CPU共享.
我们知道kmem_cache中对于每CPU都有一个array_cache,已作为每CPU申请内存的缓存.
此函数的目的在于:每个kmem_cache都有一个kmem_list3实例,该实例的shared作为
一个kmem_cache上所有CPU的内存申请缓存(对于UMA,kmem_cache.alien没有用处).
此时,我们不妨猜测,当一个CPU通过kmalloc申请内内存时,将从kmem_cache实例上
自己的array_cache进行申请,如果没有则从kmem_list3->shared上补充到array_cache上,
如果kmem_list3上也每有,将从slab管理器上获取,充分体现了缓存的利用.
int alloc_kmemlist(struct kmem_cache *cachep, gfp_t gfp)
|-->int node = ;
| struct kmem_list3 *l3 = NULL;
| struct array_cache *new_shared = NULL;
| struct array_cache **new_alien = NULL;
|
|-->for_each_online_node(node)
|--{
| new_shared = NULL;
| if(cachep->shared)
| new_shared = alloc_arraycache(node,
| cachep->shared * cachep->batchcount,
| 0xbaadf00d, gfp);
|
|
| l3 = cachep->nodelists[node];
| if(l3)
| |-{
| | struct array_cache *shared = l3->shared;
| | if(shared)
| | free_block(cachep, shared->entry, shared->avail, node);
| | l3->shared = new_shared;
| | if(!l3->alien) l3->alien = new_alien, new_alien = NULL;
| | l3->free_limit = ( + NR_CPUS) * cachep->batchcount
| | + cachep->num;| | kfree(shared);
| | free_alien_cache(new_alien);
| | continue; //对于单节点,再次continue时,将退出循环
| |-}
| |
| |
| ...... 对于UMA体系 nothing
| |
|--}
|
|--return ;
void do_ccupdate_local(void *info)
|-->struct ccupdate_struct *new = info;
| struct array_cache *old = cpu_cache_get(new->cachep);
|
|-->new->cachep->array[smp_processor_id()] =
| new->new[smp_processor_id];
| new->new[smp_processor_id()] = old;
struct array_cache *alloc_arraycache(int node, int entries,
int batchcount, gfp_t gfp)
|-->int memsize = sizeof(void *) * entries
| + sizeof(struct array_cache);
| 根据entries的数值,计算该分配的array_cache空间大小.
|
|-->struct array_cache *nc = NULL;
| nc = kmalloc_node(memsize, gfp, node);
| nc->avail = ;
| nc->limit = entries;
| nc->batchcount = batchcount;
| nc->touched = ;
| spin_lock_init(&nc->lock);
|
|-->return nc;

内存管理 初始化(七)kmem_cache_init_late 初始化slab分配器(下)的更多相关文章

  1. Linux内存管理6---伙伴算法与slab

    1.前言 本文所述关于内存管理的系列文章主要是对陈莉君老师所讲述的内存管理知识讲座的整理. 本讲座主要分三个主题展开对内存管理进行讲解:内存管理的硬件基础.虚拟地址空间的管理.物理地址空间的管理. 本 ...

  2. DPDK内存管理-----(一)初始化

    1 前言 DPDK通过使用hugetlbfs,减少CPU TLB表的Miss次数,提高性能. 2 初始化 DPDK的内存初始化工作,主要是将hugetlbfs的配置的大内存页,根据其映射的物理地址是否 ...

  3. 启动期间的内存管理之bootmem_init初始化内存管理–Linux内存管理(十二)

    1. 启动过程中的内存初始化 首先我们来看看start_kernel是如何初始化系统的, start_kerne定义在init/main.c?v=4.7, line 479 其代码很复杂, 我们只截取 ...

  4. 启动期间的内存管理之初始化过程概述----Linux内存管理(九)

    在内存管理的上下文中, 初始化(initialization)可以有多种含义. 在许多CPU上, 必须显式设置适用于Linux内核的内存模型. 例如在x86_32上需要切换到保护模式, 然后内核才能检 ...

  5. Linux内存管理 - slab分配器和kmalloc

    本文目的在于分析Linux内存管理机制的slab分配器.内核版本为2.6.31.1. SLAB分配器 内核需要经常分配内存,我们在内核中最常用的分配内存的方式就是kmalloc了.前面讲过的伙伴系统只 ...

  6. 内存管理之slab分配器

    基本思想 与传统的内存管理模式相比, slab 缓存分配器提供了很多优点.首先,内核通常依赖于对小对象的分配,它们会在系统生命周期内进行无数次分配.slab 缓存分配器通过对类似大小的对象进行缓存而提 ...

  7. Linux内存管理之bootmem分配器

    为什么要使用bootmem分配器,内存管理不是有buddy系统和slab分配器吗?由于在系统初始化的时候需要执行一些内存管理,内存分配的任务,这个时候buddy系统,slab分配器等并没有被初始化好, ...

  8. 启动期间的内存管理之引导分配器bootmem--Linux内存管理(十)

    在内存管理的上下文中, 初始化(initialization)可以有多种含义. 在许多CPU上, 必须显式设置适用于Linux内核的内存模型. 例如在x86_32上需要切换到保护模式, 然后内核才能检 ...

  9. (笔记)Linux内核学习(九)之内核内存管理方式

    一 页 内核把物理页作为内存管理的基本单位:内存管理单元(MMU)把虚拟地址转换为物理 地址,通常以页为单位进行处理.MMU以页大小为单位来管理系统中的也表. 32位系统:页大小4KB 64位系统:页 ...

随机推荐

  1. JAVA-JSP内置对象之session对象设置并获得session生命周期

    相关资料:<21天学通Java Web开发> session对象设置并获得session生命周期1.通过session对象的setMaxInactiveInterval()方法可以设置se ...

  2. JS正则验证邮箱的格式(转)

    转载自:https://www.cnblogs.com/dyllove98/archive/2013/06/28/3161626.html 一.相关的代码 function test() { var ...

  3. 怎样用Google APIs和Google的应用系统进行集成(2)----Google APIs的全部的RESTFul服务一览

    上篇文章,我提到了,Google APIs暴露了86种不同种类和版本号的API.我们能够通过在浏览器里面输入https://www.googleapis.com/discovery/v1/apis这个 ...

  4. Spark Shuffle 中 JVM 内存使用及配置内幕详情

      本课主题 JVM 內存使用架构剖析 Spark 1.6.x 和 Spark 2.x 的 JVM 剖析 Spark 1.6.x 以前 on Yarn 计算内存使用案例 Spark Unified M ...

  5. 【C#】使用user32.dll的MessageBox弹窗消息

    要使用user32.dll的MessageBox弹窗消息,自然需要引入user32.dll到项目中. 一个最简单的实例如下: using System; using System.Runtime.In ...

  6. STM32f103的数电采集电路的双ADC的设计与使用

    STM32F103C8T6拥有3个ADC,其独立使用已经在本文的3.1.3里面有详细的介绍,这里主要是介绍双ADC的同时使用,即STM32的同步规则模式使用.在此模式在规则通道组上执行时,外部触发来自 ...

  7. 【转】.Net 架构图

  8. 【oneday_onepage】——美国主食吃什么

    Cocktail 鸡尾酒 It is quite usual to drink cocktails before lunch and dinner in America and somewhat le ...

  9. 1 php protocolbuffers安装

    安装工具 yum install autoconf yum install libtool 安装protoc编译器 # cd /root/soft/protobuf- autogen.sh : if ...

  10. @Resource、@Autowired跟default-autowire区别联系

    @Resource.@Autowired和default-autowire区别联系 今天看了一工程,里面既有default-autowire,又有@Autowired,还有@Resource.我就不明 ...