Redis的模块化开发设计的还是相当不错的,在Bio.h和Bio.c文件中定义了一个多线程的文件任务处理模块,在添加和处理任务的时候使用互斥锁和条件变量进行的同步,而且本身也支持多线程,这个模块的支持两个类型,一个是关闭文件,另一个是将内存中的数据刷新到磁盘中去,也算是数据持久化的一部分了。其中三个宏定义了这些数据。

#define REDIS_BIO_CLOSE_FILE    0 /*关闭一个系统调用*/
#define REDIS_BIO_AOF_FSYNC 1 /*文件数据刷新到磁盘*/
#define REDIS_BIO_NUM_OPS 2/*支持任务类型数*/

模块的基础变量数据:

static pthread_t bio_threads[REDIS_BIO_NUM_OPS];/*多线程情况下线程的个数*/
static pthread_mutex_t bio_mutex[REDIS_BIO_NUM_OPS];/*互斥锁*/
static pthread_cond_t bio_condvar[REDIS_BIO_NUM_OPS];/*条件变量*/
static list *bio_jobs[REDIS_BIO_NUM_OPS];/*后台任务链表,每个线程一个,根据下标区分*/
static unsigned long long bio_pending[REDIS_BIO_NUM_OPS];/*记录每个线程剩余的任务数*/
struct bio_job
{/*后台IO节点,任务是通过链表来维护的,这个算是链表内的节点数据,第一个是创建时间,第二个是指定参数。*/
time_t time; /* Time at which the job was created. */
/* Job specific arguments pointers. If we need to pass more than three
* arguments we can just pass a pointer to a structure or alike. */
void *arg1, *arg2, *arg3;
};

具体的实现接口,注意,这个模块中.h和.c文件中定义的接口不一样,不知道是写错了还是怎么回事,.h中定义的部分接口没有实现:

void bioInit(void); /初始化变量数据和线程数据/
void bioCreateBackgroundJob(int type, void *arg1, void *arg2, void *arg3);/*添加一个任务*/void *bioProcessBackgroundJobs(void *arg);/*处理指定的任务数组*/
unsigned long long bioPendingJobsOfType(int type);/*获取剩余的任务数*/
void bioKillThreads(void);/*关闭线程*/
1.void bioInit(void);
void bioInit(void)
{
pthread_attr_t attr;
pthread_t thread;
size_t stacksize;
int j; /*初始化条件变量和互斥锁*/
for (j = ; j < REDIS_BIO_NUM_OPS; j++)
{
pthread_mutex_init(&bio_mutex[j],NULL);
pthread_cond_init(&bio_condvar[j],NULL);
bio_jobs[j] = listCreate();
bio_pending[j] = ;
} /*初始化线程属性,自动增加线程栈的大小*/
pthread_attr_init(&attr);
pthread_attr_getstacksize(&attr,&stacksize);
if (!stacksize) stacksize = ; /* The world is full of Solaris Fixes */
while (stacksize < REDIS_THREAD_STACK_SIZE) stacksize *= ;
pthread_attr_setstacksize(&attr, stacksize); /* Ready to spawn our threads. We use the single argument the thread
* function accepts in order to pass the job ID the thread is
* responsible of. */
for (j = ; j < REDIS_BIO_NUM_OPS; j++)
{
void *arg = (void*)(unsigned long) j;
if (pthread_create(&thread,&attr,bioProcessBackgroundJobs,arg) != )
{
redisLog(REDIS_WARNING,"Fatal: Can't initialize Background Jobs.");
exit();
}
bio_threads[j] = thread;
}
}//这个没啥可说的,无非是初始化同步的数据和线程数据
void bioCreateBackgroundJob(int type, void *arg1, void *arg2, void *arg3);/*添加一个任务*/
 /*创建一个后台任务,创建任务支持多线程
添加事件和处理事件就像是消费者和生产者的问题一样,采用互斥和条件变量来控制
参数1是添加到哪个队列中,剩余是三个参数*/
void bioCreateBackgroundJob(int type, void *arg1, void *arg2, void *arg3)
{
struct bio_job *job = zmalloc(sizeof(*job)); job->time = time(NULL);
job->arg1 = arg1;
job->arg2 = arg2;
job->arg3 = arg3;
/*添加的时候要注意并发问题,添加完了发个信号*/
pthread_mutex_lock(&bio_mutex[type]);
listAddNodeTail(bio_jobs[type],job);
bio_pending[type]++;
pthread_cond_signal(&bio_condvar[type]);
pthread_mutex_unlock(&bio_mutex[type]);
}
void *bioProcessBackgroundJobs(void *arg);
/*事件消费函数*/
void *bioProcessBackgroundJobs(void *arg)
{
struct bio_job *job;
unsigned long type = (unsigned long) arg;
sigset_t sigset; /* Make the thread killable at any time, so that bioKillThreads()
* can work reliably. */
pthread_setcancelstate(PTHREAD_CANCEL_ENABLE, NULL);/*设置线程为收到cancle信号马上退出*/
pthread_setcanceltype(PTHREAD_CANCEL_ASYNCHRONOUS, NULL); pthread_mutex_lock(&bio_mutex[type]);
/* Block SIGALRM so we are sure that only the main thread will
* receive the watchdog signal. */
sigemptyset(&sigset);
sigaddset(&sigset, SIGALRM);
if (pthread_sigmask(SIG_BLOCK, &sigset, NULL))
redisLog(REDIS_WARNING,
"Warning: can't mask SIGALRM in bio.c thread: %s", strerror(errno)); while()
{
listNode *ln; /* The loop always starts with the lock hold. */
if (listLength(bio_jobs[type]) == )
{
pthread_cond_wait(&bio_condvar[type],&bio_mutex[type]);
continue;
}
/* Pop the job from the queue. */
ln = listFirst(bio_jobs[type]);
job = ln->value;
/* It is now possible to unlock the background system as we know have
* a stand alone job structure to process.*/
pthread_mutex_unlock(&bio_mutex[type]);
     /*处理任务的时候解除互斥锁,提高效率*/
/* 区分任务类型,具体执行 */
if (type == REDIS_BIO_CLOSE_FILE)
{
close((long)job->arg1);
}
else if (type == REDIS_BIO_AOF_FSYNC)
{
aof_fsync((long)job->arg1);
}
else
{
redisPanic("Wrong job type in bioProcessBackgroundJobs().");
}
zfree(job); /* Lock again before reiterating the loop, if there are no longer
* jobs to process we'll block again in pthread_cond_wait(). */
pthread_mutex_lock(&bio_mutex[type]);/*修改公共资源的的是要加锁发,防止并发问题*/
listDelNode(bio_jobs[type],ln);/*删除节点,并减掉任务数*/
bio_pending[type]--;
}
}
void bioKillThreads(void);/*关闭线程*/
 void bioKillThreads(void)
{
int err, j; for (j = ; j < REDIS_BIO_NUM_OPS; j++)
{
if (pthread_cancel(bio_threads[j]) == ) /*给线程发送结束信号,发送成功之后等待其结束*/
{
if ((err = pthread_join(bio_threads[j],NULL)) != )
{
redisLog(REDIS_WARNING,"Bio thread for job type #%d can be joined: %s",j, strerror(err));
}
else
{
redisLog(REDIS_WARNING,"Bio thread for job type #%d terminated",j);
}
}
}
}

这个后台任务值负责关闭系统的调用和数据的持久化。

Redis 数据持久化(一)的更多相关文章

  1. Redis学习笔记(5)——Redis数据持久化

    出处http://www.cnblogs.com/xiaoxi/p/7065328.html 一.概述 Redis的强大性能很大程度上都是因为所有数据都是存储在内存中的,然而当Redis重启后,所有存 ...

  2. Redis数据持久化,安全

    一.redis数据持久化 由于redis是一个内存数据库,如果系统遇到致命问题需要关机或重启,内存中的数据就会丢失,这是生产环境所不能允许的.所以redis提供了数据持久化的能力. redis提供了两 ...

  3. Redis数据持久化机制AOF原理分析一---转

    http://blog.csdn.net/acceptedxukai/article/details/18136903 http://blog.csdn.net/acceptedxukai/artic ...

  4. Redis 数据持久化的方案的实现

    原文:Redis 数据持久化的方案的实现 版权声明:m_nanle_xiaobudiu https://blog.csdn.net/m_nanle_xiaobudiu/article/details/ ...

  5. Redis数据持久化—RDB持久化与AOF持久化

    目录 Redis数据持久化-RDB持久化与AOF持久化 RDB持久化 RDB文件的创建 RDB文件的载入 自动间隔性保存 检查保存条件是否满足 AOF持久化 AOF持久化的实现 AOF文件的载入与数据 ...

  6. redis 数据持久化

    1.快照(snapshots) 缺省情况情况下,Redis把数据快照存放在磁盘上的二进制文件中,文件名为dump.rdb.你可以配置Redis的持久化策略,例如数据集中每N秒钟有超过M次更新,就将数据 ...

  7. Redis数据持久化、数据备份、数据的故障恢复

    1.redis持久化的意义----redis故障恢复 在实际的生产环境中,很可能会遇到redis突然挂掉的情况,比如redis的进程死掉了.电缆被施工队挖了(支付宝例子)等等,总之一定会遇到各种奇葩的 ...

  8. Redis数据持久化

    持久化选项 Redis提供了两种不同的持久化方法来将数据存储到硬盘里面.一种方法叫快照(snapshotting),它可以将存在于某一时刻的所有数据都写入硬盘里面.另一种方法叫只追加文件(append ...

  9. redis数据持久化(快照/日志):

    1.RDB快照的配置选项: save // 900内,有1条写入,则产生快照 save // 如果300秒内有1000次写入,则产生快照 save // 如果60秒内有10000次写入,则产生快照 ( ...

随机推荐

  1. Aptana 中去掉“Missing semicolon”提醒

    打开“窗口”下的“首选项” 然后找到“Aptana Studio”,在其下找到并点击Validation,在右侧窗口找到Javascript Syntax Validator,在下方的Options中 ...

  2. HDU 3911 线段树区间合并、异或取反操作

    题目:http://acm.hdu.edu.cn/showproblem.php?pid=3911 线段树区间合并的题目,解释一下代码中声明数组的作用: m1是区间内连续1的最长长度,m0是区间内连续 ...

  3. tomcat JNDI 设置

    一.在Spring配置文件中的配置   <bean id="dataSource" class="org.springframework.jndi.JndiObje ...

  4. mysql不同版本号之间的一些区别

    5.1.69-community和5.6.26-log版本相比,有一些语法不支持,如: datetime(3),CURRENT_TIMESTAMP(3)

  5. 引擎崩溃、异常、警告、BUG与提示总结及解决方法

    http://www.58player.com/blog-635-128.html [Unity3D]引擎崩溃.异常.警告.BUG与提示总结及解决方法   此贴会持续更新,都是项目中常会遇到的问题,总 ...

  6. 剑指Offer 二维数组中的查找

    题目描述 在一个二维数组中,每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序.请完成一个函数,输入这样的一个二维数组和一个整数,判断数组中是否含有该整数. 思路法一: * 矩阵是 ...

  7. HTTP协议详解篇(待续)

    1.工作流程 HTTP通信机制是在一次完整的HTTP通信过程中,Web浏览器与Web服务器之间将完成下列7个步骤: (1)建立TCP连接 在HTTP工作开始之前,Web浏览器首先要通过网络与Web服务 ...

  8. 【GoLang】golang 微服务框架 介绍

    原文如下: rpcx是一个类似阿里巴巴 Dubbo 和微博 Motan 的分布式的RPC服务框架,基于Golang net/rpc实现. 谈起分布式的RPC框架,比较出名的是阿里巴巴的dubbo,包括 ...

  9. Oracle11g +Win 64+PLSQL9.0

    最近在Oracle11g配置数据库的时候发现了一个问题,就是找不到监听,网上说win7的64位的系统必须装上32位的客户端才能被PLSQL 识别,事实上也是这样,PLSQL 只能识别32位的客户端,所 ...

  10. JavaScript——callback(回调函数

    1.回调函数定义 回调函数就是一个通过函数指针调用的函数.如果你把函数的指针(地址)作为参数传递给另一个函数,当这个指针被用为调用它所指向的函数时,我们就说这是回调函数.回调函数不是由该函数的实现方直 ...