C++ std::shared_ptr自定义allocator引入内存池
当C++项目里做了大量的动态内存分配与释放,可能会导致内存碎片,使系统性能降低。当动态内存分配的开销变得不容忽视时,一种解决办法是一次从操作系统分配一块大的静态内存作为内存池进行手动管理,堆对象内存分配时从内存池中分配一块类对象大小的内存,释放时并不实际将内存归还给操作系统,而是交给自定义的内存管理模块处理。本文介绍基于std::shared_ptr自定义allocator引入内存池的方法。
尝试重写new和delete运算符
项目中大量使用std::shared_ptr且与多个模块耦合, 如果直接将 std::shared_ptr
重构为手动管理裸指针的实现,改动量太大,而且可能会带来不可预料的问题。于是尝试了重写new和delete运算符并添加了打印,发现 std::shared_ptr
的创建并不会直接调用 new
和 delete
, 原因在于std::shared_ptr
有自己的内存分配机制。
std::allocate_shared
于是,想到了STL的一大组件 Allocator
。C++提供了 std::alloc_shared
函数,可以自定义std::shared_ptr
的内存分配方式,其定义如下:
std::allocate_shared<T>(custom_alloc, std::forward<Args>(args)...);
仅需传入自定义分配器allocator和T的构造参数列表。
实际上, std::make_shared
就是对以上函数进行了封装,使用了默认的分配器。
MemoryPool的使用
内存池直接采用了相关开源项目的定义:
可以选用
https://github.com/DevShiftTeam/AppShift-MemoryPool
或
Fast Efficient Fixed-Sized Memory Pool
MemoryPoolManager 管理内存池的类
- 分配内存池
内存池需要拥有静态生命周期,因此将内存池管理类 MemoryPoolManager
设计为全局单例模式实现,定义Alloc()
和 Free()
方法,实现了内存池与自定义分配器解耦。
- 引入自旋锁实现线程安全
由于使用的相关开源内存池不是线程安全的,因此引入了自旋锁在内存池做内存分配和释放时加锁。自旋锁采用了以下文章中的实现:
Correctly implementing a spinlock in C++
MemoryPoolManager
的完整实现如下:
class MemoryPoolManager {
public:
static MemoryPoolManager& GetInstance();
void* Alloc(size_t sz);
void Free(void* p);
~MemoryPoolManager();
private:
MemoryPoolManager();
MemoryPoolManager(const MemoryPoolManager&)=delete;
MemoryPoolManager& operator=(const MemoryPoolManager&)=delete;
MemoryPool* pool_;
SpinLock spin_lock_;
};
MemoryPoolManager& MemoryPoolManager::GetInstance() {
static MemoryPoolManager instance;
return instance;
}
MemoryPoolManager::MemoryPoolManager() {
pool_ = new MemoryPool();
}
MemoryPoolManager::~MemoryPoolManager() {
std::lock_guard<SpinLock> lock(spin_lock_);
delete pool_;
}
void* MemoryPoolManager::Alloc(size_t sz) {
std::lock_guard<SpinLock> lock(spin_lock_);
return pool_->allocate(sz);
}
void MemoryPoolManager::Free(void* p) {
std::lock_guard<SpinLock> lock(spin_lock_);
pool_->free(p);
}
自定义分配器Custom Allocator
为了使用 std::alloc_shared
,还需要实现 Custom Allocator
。其中包含了需要的函数和别名定义,相关文章可参考: Building Your Own Allocators。以下接口中许多成员在C++20中被移除。
template <typename T>
class CustomAllocator {
public:
using value_type = T;
using size_type = std::size_t;
using difference_type = std::ptrdiff_t;
CustomAllocator() = default;
~CustomAllocator() = default;
template <typename U>
CustomAllocator(const CustomAllocator<U>&) noexcept {}
T* allocate(size_t n) {
return static_cast<T*>(MemoryPoolManager::GetInstance().Alloc(n * sizeof(T)));
}
void deallocate(T* p, size_t) {
MemoryPoolManager::GetInstance().Free(p);
}
size_type max_size() const noexcept {
return std::numeric_limits<size_type>::max() / sizeof(T);
}
private:
template <typename U>
friend class CustomAllocator;
};
其中T* allocate(size_t n)
方法实现内存的分配, 直接调用了MemoryPoolManager的 Alloc
方法;void deallocate(T* p, size_t)
做内存的释放,直接调用了MemoryPoolManager的 Free
方法。
我们知道 new
操作会分配内存并会调用类的构造函数 ,那么allocate
了需要手动调用构造函数吗?
在自定义分配器中,一般不需要手动实现 construct
和 destroy
,因为标准库中的 std::allocator_traits
会处理这些工作。std::allocator_traits
默认会使用 placement new
来调用对象的构造函数,并调用对象的析构函数。
相当于在CustomAllocator
中增加以下函数:
template<typename U, typename... Args>
void construct(U* p, Args&&... args) {
::new((void*)p) U(std::forward<Args>(args)...);
}
template<typename U>
void destroy(U* p) {
p->~U();
}
使用std::allocate_shared
接下来就可以使用std::allocate_shared
了 ,需传入自定义分配器allocator对象和类的构造函数参数列表。仿照 std::make_shared
的实现,基于可变长参数模板做了一层函数封装:
template <typename T, typename... Args>
std::shared_ptr<T> AllocateShared(Args&&... args) {
return std::allocate_shared<T>(CustomAllocator<T>(), std::forward<Args>(args)...);
}
这样,使用AllocateShared
直接就可以返回一个std::shared_ptr
C++ std::shared_ptr自定义allocator引入内存池的更多相关文章
- nginx源代码分析之内存池实现原理
建议看本文档时结合nginx源代码. 1.1 什么是内存池?为什么要引入内存池? 内存池实质上是接替OS进行内存管理.应用程序申请内存时不再与OS打交道.而是从内存池中申请内存或者释放内存到内存池 ...
- 深度剖析CPython解释器》Python内存管理深度剖析Python内存管理架构、内存池的实现原理
目录 1.楔子 第1层:基于第0层的"通用目的内存分配器"包装而成. 第2层:在第1层提供的通用 *PyMem_* 接口基础上,实现统一的对象内存分配(object.tp_allo ...
- 内存分配(new/delete,malloc/free,allocator,内存池)
以下来源http://www.cnblogs.com/JCSU/articles/1051826.html 程序员们经常编写内存管理程序,往往提心吊胆.如果不想触雷,唯一的解决办法就是发现所有潜伏的地 ...
- 巧用std::shared_ptr全局对象释放单例内存
巧用std::shared_ptr 单例的使用相对比较广泛,但是需要在程序退出前调用它的析构函数对数据进行释放,常规做法是在main函数末尾进行释放工作, 但是这样相对比较繁琐,因此便有了利用全局变量 ...
- STL源码剖析——空间配置器Allocator#3 自由链表与内存池
上节在学习第二级配置器时了解了第二级配置器通过内存池与自由链表来处理小区块内存的申请.但只是对其概念进行点到为止的认识,并未深入探究.这节就来学习一下自由链表的填充和内存池的内存分配机制. refil ...
- 感悟优化——Netty对JDK缓冲区的内存池零拷贝改造
NIO中缓冲区是数据传输的基础,JDK通过ByteBuffer实现,Netty框架中并未采用JDK原生的ByteBuffer,而是构造了ByteBuf. ByteBuf对ByteBuffer做了大量的 ...
- 基于C/S架构的3D对战网络游戏C++框架_05搭建系统开发环境与Boost智能指针、内存池初步了解
本系列博客主要是以对战游戏为背景介绍3D对战网络游戏常用的开发技术以及C++高级编程技巧,有了这些知识,就可以开发出中小型游戏项目或3D工业仿真项目. 笔者将分为以下三个部分向大家介绍(每日更新): ...
- std::shared_ptr
在std::shared_ptr被引入之前,C++标准库中实现的用于管理资源的智能指针只有std::auto_ptr一个而已.std::auto_ptr的作用非常有限,因为它存在被管理资源的所有权转移 ...
- 定长内存池之BOOST::pool
内存池可有效降低动态申请内存的次数,减少与内核态的交互,提升系统性能,减少内存碎片,增加内存空间使用率,避免内存泄漏的可能性,这么多的优点,没有理由不在系统中使用该技术. 内存池分类: 1. ...
- std::shared_ptr<void>的工作原理
前戏 先抛出两个问题 如果delete一个指针,但是它真实的类型和指针类型不一样会发生什么? 是谁调用了析构函数? 下面这段代码会发生什么有趣的事情? // delete_diff_type.cpp ...
随机推荐
- 使用bootstrap-select 动态加载数据不显示的问题,级联数据置为空
动态加载数据 $.showLoading('数据加载中');//开启遮挡层 $.ajax({ url: "/PickoutStock/GetSendReceive", data: ...
- 将虚拟机跑在ceph之中
目录 openStack对接ceph 1. cinder对接ceph 1.1 ceph创建存储池 1.2 ceph授权 1.3 下发ceph文件 1.4 修改globals文件 1.5 部署cinde ...
- Django DRF @action 装饰器
@action 装饰器在Django REST Framework (DRF) 中非常有用,它可以帮助你在ViewSet中创建自定义的动作,而不仅仅是依赖标准的CRUD操作(Create, Read, ...
- Django配置为连接到Microsoft SQL Server
可以将Django配置为连接到Microsoft SQL Server 2019.为此,你需要更改数据库设置中的一些配置选项.首先,确保你已经安装了 django 和 pyodbc 这两个库: p ...
- [oeasy]教您玩转python - 0006 - 自由软件运动和开源运动
顺序执行 回忆上次内容 上次写了10000行代码 10000行代码 都是写在明面上的 人家一下载py 文件 就能看个明明白白 修改或者运行程序都很方便 这程序全都这么公开出来 大家随意修改 ...
- AT_abc178_d 题解
洛谷链接&Atcoder 链接 本篇题解为此题较简单做法及较少码量,并且码风优良,请放心阅读. 题目简述 给定一个正整数 \(S\),问有多少个数满足以下条件: 序列中必须为 \(\ge 3\ ...
- Superviso可视化监控进程
如果您需要同时运行多个 ThinkPHP 命令,可以在 Supervisor 中为每个命令创建一个单独的程序段.以下是示例配置,其中包含两个 ThinkPHP 命令:command1.php 和 co ...
- 【Project】JS的Map对象前后交互问题
这是我在项目中写的一个Map对象: let map = new Map(); for (let i = 0; i < type_checked_value.length; i++) { let ...
- 英语表达中address和solve的区别
"Address" 和 "solve" 都表示处理问题,但在具体用法和含义上有所不同: Address: 含义: 处理.应对.讨论或提及问题. 强调: 关注并开 ...
- 大语言模型GPT-4的训练文本数据有多少:45GB 的训练数据集
相关: https://aws.amazon.com/cn/what-is/foundation-models/ OpenAI 就在 2023 年使用 170 万亿个参数和 45GB 的训练数据集训练 ...