技术开发 频道

Redis 2.4:后台线程如何解决aof缺陷?

  【IT168技术】Redis终于在2.4版本里引入了除主线程之外的后台线程,这个事情由来已久.早在2010年2月就有人提出aof的缺陷,提及的问题主要有:

  ① 主线程aof的每次fsync(everysecond模式)在高并发下时常出现100ms的延时,这源于fsync必不可少的磁盘操作,即便已经优化多次请求的离散小io转化成一次大的连续io(sina的同学也反映过这个问题).

  ② 主线程里backgroundRewriteDoneHandler函数在处理bgrewriteaof后台进程退出的时候存在一个rename new-aof-file old-aof-file,然后再close old-aof-file的操作, close是一个unlink的操作(最后的引用计数), unlink消耗的时间取决于文件的大小,是个容易阻塞的系统调用.

  ③ 当发生bgsave或者bgrewriteaof的时候主线程和子进程同时写入不同的文件,这改变了原有连续写模式,不同写入点造成了磁盘磁头的寻道时间加长(其实一个台物理机多实例也有这个问题, 要避免同一时间点做bgrewriteaof), 这又加长了fsync时间.

  经过漫长的设计和交流,antirez终于在2.4版里给出了实现, 这个设计保持了Redis原有的keep it simple的风格,实现的特别简单且有效果,实现的主要原理就是把fsync和close操作都移动到background来执行.

  后台线程

  2.4.1版本引入新的文件bio.c,这个文件包含了后台线程的业务逻辑.如图.

  bioInit在Redis启动的时候被调用,默认启动2个后台线程(如图中的thread1,2),其一负责fsync fd的任务(解决缺陷1),其二负责close fd的任务(解决缺陷2).这两个线程条件等待各自独立的2个链表(close job,fsync job)上,看是否有新任务的加入,有则进行fsync或者close.

  解决问题1

  主线程仅仅把aofbuf的数据刷新到aof文件里,然后通过bioCreateBackgroundJob函数往这队列里插入fsync job,于是原有主线程的fsync工作被转移到后台线程来做,这样主线程阻塞问题就异步的解决了.

  但这又引发了一个问题,主线程对同一个fd如果有write操作,后台线程同时在fsync,这两个线程会互相影响. antirez为此做了一定研究,并给出了简单的解决方案.

  为了避免线程的互相影响,主线程每次write之前都要检测一下后台线程任务队列里是否有fsync操作,如果有则延迟这次aofbuf的flush,延迟flush这个功能,当然会增大丢数据的可能,我们来看看实现.

aof.c
=======
78 void flushAppendOnlyFile(int force) {
     .......
84     if (server.appendfsync == APPENDFSYNC_EVERYSEC)
85         sync_in_progress = bioPendingJobsOfType(REDIS_BIO_AOF_FSYNC) != 0;
86
87     if (server.appendfsync == APPENDFSYNC_EVERYSEC && !force) {
88         /* With this append fsync policy we do background fsyncing.
89          * If the fsync is still in progress we can try to delay
90          * the write for a couple of seconds.
*/
91         if (sync_in_progress) {
92             if (server.aof_flush_postponed_start == 0) {
93                 /* No previous write postponinig, remember that we are
94                  * postponing the flush and return.
*/
95                 server.aof_flush_postponed_start = server.unixtime;
96                 return;
97             } else if (server.unixtime - server.aof_flush_postponed_start < 2) {
98                 /* We were already waiting for fsync to finish, but for less
99                  * than two seconds this is still ok. Postpone again.
*/
100                 return;
101             }
102             /* Otherwise fall trough, and go write since we can't wait
103              * over two seconds.
*/
104             redisLog(REDIS_NOTICE,"Asynchronous AOF fsync is taking too long (disk is busy?). Writing the AOF buffer without waiting        for fsync to complete, this may slow down Redis.");
105         }
106     }

   我们来解读一下这段代码, force这个参数如果为1,则为强制flush,为0否则允许延迟flush.

  85行:这段就是判断后台线程是否有fsync任务,如果存在则会出现主线程write,后台线程fsync的并发行为.sync_in_process就表示存在冲突的可能性,则开始延迟flush.

  92行:如果当前未发生延迟,现在开始延迟flush,记录一下时间就立即返回,这就发生了延迟flush,aofbuf里的信息未被刷出去.

  97行:当再次进入该函数之后,如果距离开始延迟时间仍然小于2s,则允许继续延迟.

  104行:距离开始延迟事件已经超过2s了,必须强制flush了,否则丢数据可能超过2s.

  解决了冲突之后就是加入后台任务了,以前是fsync现在改成了加入队列

aof.c
========
151     } else if ((server.appendfsync == APPENDFSYNC_EVERYSEC &&
152                 server.unixtime > server.lastfsync)) {
153         if (!sync_in_progress) aof_background_fsync(server.appendfd);
154         server.lastfsync = server.unixtime;
155     }

   好了缺陷1解决了.

0
相关文章