linux下定位多线程内存越界问题实践总结

linux大本营 · · 578 次点击 · · 开始浏览    
这是一个创建于 的文章,其中的信息可能已经有所发展或是发生改变。

最近定位了在一个多线程服务器程序(OceanBase MergeServer)中,一个线程非法篡改另一个线程的内存而导致程序core掉的问题。定位这个问题历经曲折,尝试了各种内存调试的办法。往往感觉就要柳暗花明了,却发现又进入了另一个死胡同。最后,使用强大的mprotect+backtrace+libsigsegv等工具成功定位了问题。整个定位过程遇到的问题和解决办法对于多线程内存越界问题都很典型,简单总结一下和大家分享。

现象

core是在系统集成测试过程中发现的。服务器程序MergeServer有一个50个工作线程组成的线程池,当使用8个线程的测试程序通过MergeServer读取数据时,后者偶尔会core掉。用gdb查看core文件,发现core的原因是一个指针的地址非法,当进程访问指针指向的地址时引起了段错误(segment fault)。见下图。

发生越界的指针ptr_位于一个叫做cname_的对象中,而这个对象是一个动态数组field_columns_的第10个元素的成员。如下图。

复现问题

之后,花了2天的时间,终于找到了重现问题的方法。重现多次,可以观察到如下一些现象:

1. 随着客户端并发数的加大(从8个线程到16个线程),出core的概率加大;

2. 减少服务器端线程池中的线程数(从50个到2个),就不能复现core了。

3. 被篡改的那个指针,总是有一半(高4字节)被改为了0,而另一半看起来似乎是正确的。

4. 请看前一节,重现多次,每次出core,都是因为field_columns_这个动态数组的第10个元素data_[9]的cname_成员的ptr_成员被篡改。这是一个不好解释的奇怪现象。

5. 在代码中插入检查点,从field_columns_中内容最初产生到读取导致越界的这段代码序列中“埋点”,既使用二分查找法定位篡改cname_的代码位置。结果发现,程序有时core到检查点前,有时又core到检查点后。

综合以上现象,初步判断这是一个多线程程序中内存越界的问题。

使用glibc的MALLOC_CHECK_

因为是一个内存问题,考虑使用一些内存调试工具来定位问题。因为OB内部对于内存块有自己的缓存,需要去除它的影响。修改OB内存分配器,让它每次都直接调用c库的malloc和free等,不做缓存。然后,可以使用glibc内置的内存块完整性检查功能。

使用这一特性,程序无需重新编译,只需要在运行的时候设置环境变量MALLOC_CHECK_(注意结尾的下划线)。每当在程序运行过程free内存给glibc时,glibc会检查其隐藏的元数据的完整性,如果发现错误就会立即abort。用类似下面的命令行启动server程序:

exportMALLOC_CHECK_=2bin/mergeserver-z45447-r10.232.36.183:45401-p45441

使用MALLOC_CHECK_以后,程序core到了不同的位置,是在调用free时,glibc检查内存块前面的校验头错误而abort掉了。如下图。

但这个core能带给我们想信息也很少。我们只是找到了另外一种稍高效地重现问题的方法而已。或许最初看到的core的现象是延后显现而已,其实“更早”的时刻内存就被破坏掉了。

valgrind

glibc提供的MALLOC_CHECK_功能太简单了,有没有更高级点的工具不光能够报告错误,还能分析出问题原因来?我们自然想到了大名鼎鼎的valgrind。用valgrind来检查内存问题,程序也不需要重新编译,只需要使用valgrind来启动:

nohupvalgrind --error-limit=no--suppressions=suppress bin/mergeserver -z45447-r10.232.36.183:45401-p45441 >nohup.out &

默认情况下,当valgrind发现了1000中不同的错误,或者总数超过1000万次错误后,会停止报告错误。加了--error-limit=no以后可以禁止这一特性。--suppressions用来屏蔽掉一些不关心的误报的问题。经过一翻折腾,用valgrind复现不了core的问题。valgrind报出的错误也都是一些与问题无关的误报。大概是因为valgrind运行程序大约会使程序性能慢10倍以上,这会影响多线程程序运行时的时序,导致core不能复现。此路不通。

需要C/C++ Linux高级服务器架构师学习资料后台加群563998835(包括C/C++,Linux,golang技术,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,ZK,流媒体,CDN,P2P,K8S,Docker,TCP/IP,协程,DPDK,ffmpeg等)

magic number

既然MALLOC_CHECK_可以检测到程序的内存问题,我们其实想知道的是谁(哪段代码)越了界。此时,我们想到了使用magic number填充来标示数据结构的方法。如果我们在被越界的内存中看到了某个magic number,就知道是哪段代码的问题了。

首先,修改对于malloc的封装函数,把返回给用户的内存块填充为特殊的值(这里为0xEF),并且在开始和结束部分各多申请24字节,也填充为特殊值(起始0xBA,结尾0xDC)。另外,我们把预留内存块头部的第二个8字节用来存储当前线程的ID,这样一旦观察到被越界,我们可以据此判定是哪个线程越的界。代码示例如下。

然后,在用户程序通过我们的free入口释放内存时,对我们填充到边界的magic number进行检查。同时调用mprobe强制glibc对内存块进行完整性检查。

最后,给程序中所有被怀疑的关键数据结构加上magic number,以便在调试器中检查内存时能识别出来。例如

好了,都加好了。用MALLOC_CHECK_的方式重新运行。程序如我们所愿又core掉了,检查被越界位置的内存:

如上图,红色部分是我们自己填充的越界检查头部,可以看到它没有被破坏。其中第二行存储的线程号经过确认确实等于我们当前线程的线程号。

蓝色部分为前一个动态内存分配的结尾,也是完整的(24个字节0xdc)。0x44afb60和0x44afb68两行所示的内存为glibc malloc存储自身元数据的地方,程序core掉的原因是它检查这两行内容的完整性时发现了错误。由此推断,被非法篡改的内容小于16个字节。仔细观察这16字节的内容,我们没有看到熟悉的magic number,也就无法推知有bug的代码是哪块。这和我们最初发现的core的现象相互印证,很可能被非法修改的内容仅为4个字节(int32_t大小)。

另外,虽然我们加宽了检查边界,程序还是会core到glibc malloc的元数据处,而不是我们添加的边界里。而且,我们总可以观察到前一块内存(图中蓝色所示)的结尾时完整的,没被破坏。这说明,这不是简单的内存访问超出边界导致的越界。我们可以大胆的做一下猜测:要么是一块已经释放的内存被非法重用了;要么这是通过野指针“空投”过来的一次内存修改。

如果我们的猜测是正确的,那么我们用这种添加内存边界的方式检查内存问题的方法几乎必然是无效的。

打怪利器electric-fence

至此,我们知道某个时间段内某个变量的内存被其他线程非法修改了,但是却无法定位到是哪个线程哪段代码。这就好比你明明知道未来某个时间段在某个地点会发生凶案,却没办法看到凶手。无比郁闷。

有没有办法能检测到一个内存地址被非法写入呢?有。又一个大名鼎鼎的内存调试库electric-fence(简称efence)就华丽登场了。

使用MALLOC_CHECK_或者magic number的方式检测的最大问题是,这种检查是“事后”的。在多线程的复杂环境中,如果不能发生破坏的第一时间检查现场,往往已经不能发现罪魁祸首的蛛丝马迹了。

electric-fence利用底层硬件(CPU提供的虚拟内存管理)提供的机制,对内存区域进行保护。实际上它就是使用了下一节我们要自己编码使用的mprotect系统调用。当被保护的内存被修改时,程序会立即core掉,通过检查core文件的backtrace,就容易定位到问题代码。

这个库的版本有点混乱,容易弄错。搜索和下载这个库时,我才发现,electric-fence的作者也是大名鼎鼎的busybox的作者,牛人一枚。但是,这个版本在linux上编译连接到我的程序的时候会报WARNING,而且后面执行的时候也会出错。后来,找到了debian提供的一个更高版本的库,估计是社区针对linux做了改进。

使用efence需要重新编译程序。efence编译后提供了一个静态库libefence.a,它包含了能够替代glibc的malloc, free等库函数的一组实现。编译时需要一些技巧。首先,要把-lefence放到编译命令行其他库之前;其次,用-umalloc强制g++从libefence中查找malloc等本来在glibc中包含的库函数:

 g++ -umalloc –lefence …

用strings来检查产生的程序是否真的使用了efence:

和很多工具类似,efence也通过设置环境变量来修改它运行时的行为。通常,efence在每个内存块的结尾放置一个不可访问的页,当程序越界访问内存块后面的内存时,就会被检测到。如果设置EF_PROTECT_BELOW=1,则是在内存块前插入一个不可访问的页。通常情况下,efence只检测被分配出去的内存块,一个块被分配出去后free以后会缓存下来,直到一下次分配出去才会再次被检测。而如果设置了EF_PROTECT_FREE=1,所有被free的内存都不会被再次分配出去,efence会检测这些被释放的内存是否被非法使用(这正是我们目前怀疑的地方)。但因为不重用内存,内存可能会膨胀地很厉害。

我使用上面2个标记的4种组合运行我们的程序,遗憾的是,问题无法复现,efence没有报错。另外,当EF_PROTECT_FREE=1时,运行一段时间后,MergeServer的虚拟内存很快膨胀到140多G,导致无法继续测试下去。又进入了一个死胡同。

终极神器mprotect + backtrace + libsigsegv

electric-fence的神奇能力实际上是使用系统调用mprotect实现的。mprotect的原型很简单,

intmprotect(constvoid*addr,size_tlen,intprot);

mprotect可以使得[addr,addr+len-1]这段内存变成不可读写,只读,可读写等模式,如果发生了非法访问,程序会收到段错误信号SIGSEGV。

但mprotect有一个很强的限制,要求addr是页对齐的,否则系统调用返回错误EINVAL。这个限制和操作系统内核的页管理机制相关。

如图,我们已经知道这个动态数组的第10个元素会被非法越界修改。review了代码,发现从这个数组内容初始化完毕以后,到使用这个数组内容这段时间,不应该再有修改操作。那么,我们就可以在数组内容被初始化之后,立即调用mprotect对其进行只读保护。

尝试一

因为mprotect要求输入的内存地址页对齐,所以我修改了动态数组的实现,每次申请内存块的时候多分配一个页大小,然后取页对齐的地址为第一个元素的起始位置。

如上图,浅蓝色部分为为了对齐内存地址而做的padding。代码见下

动态数组申请的最小内存块的大小为64KB。这里,动态数组中每个元素的大小为80字节,我们只需要从第1个元素开始保护一个页的大小即可:

既然这个保护区域是程序中自动插入的,需要在内存释放给系统前回复它为可读写,否则必然会因mprotect产生段错误。

好了,编译、重启、运行重现脚本。悲剧了。程序运行了很久都不再出core了,无法复现问题。我们在分配动态数组内存时,为了对齐在内存块前添加的padding导致程序运行时的内存分布和原来产生core的运行环境不同了。这可能是无法复现的原因。要想复现,我们不能破坏原来的内存分配方式。

尝试二

不改变动态数组的内存块申请方式,又要满足mprotect保护的地址必须页对齐的要求,怎么做呢?我们换一个思路,从第10个元素向前,找到包含它且离它最近的页对齐的内存地址。如下图

但这样会造成一个问题。图中浅蓝色部分本不是这个动态数组对象所拥有的内存,它可能被其他任何线程的任何数据结构在使用。我们使用这种方式保护红色区域,会有很多无关的落入蓝色区域的修改操作导致mprotect产生段错误。

实验了一下,果然,程序跑起来不久就在其他无关的代码处产生了段错误。这种保护方式的代码如下:

成功

在上一节的保护方式下,我们因为保护了无关内存区域,会导致程序过早产生SIGSEGV而退出。我们能否截获信号,不让程序在非法访问mprotect保护区域后仍然能继续执行呢?当然。我们可以定制一个SIGSEGV段错误信号的处理函数。在这个处理函数中,如果能打印段错误时候的当前调用栈,就可以找到罪魁祸首了。

代码如上图。注意,处理SIGSEGV的handler函数有一些小技巧(坑很多):

1. SIGSEGV一般是内核处理的(page fault)。使用库libsigsegv可以简化用户空间撰写处理函数的难度。

2. 处理函数中,不能调用任何可能再分配内存的函数,否则会引起double fault。例如,在这段处理函数中,使用open系统调用打开文件,不能使用fopen;buff是从栈上分配的,不能从heap上申请;不能使用backtrace_symbols,它会向glibc动态申请内存,而要使用安全的backtrace_symbols_fd把backtrace直接写入文件。

3. 最重要的,在SIGSEGV的处理函数中,我们需要恢复引起段错误的内存块为可读写的。这样,当处理函数返回被中断的代码继续执行时,才不能再次引起段错误。重新编译代码,运行重现脚本。查看记录了backtrace的文件sigsegv.bt,我们看到了熟悉的被篡改的指针地址(一半为0):

这个段错误会最终导致程序core掉,因为这个SIGSEGV信号不是由我们使用mprotect的保护而产生的。查看core文件,可以查到被越界的内存(即ptr_)的地址。从sigsegv.bt文件中查找,果然找到了那一次非法访问:

使用addr2line检查上面这个调用栈中的地址,我们终于找到了它。又经过一番代码review和验证,才总算确定了错误原因。有一个动态new出来的对象的指针在两个有关联的线程中共享,在某种极端情况下,其中一个delete了对象之后,另一个线程又修改了这个对象。

小结

小结一下,遇到棘手的内存越界问题,可以使用下面顺序逐个尝试:

1. code review分析代码。

2. valgrind用起来最简单,几乎是傻瓜式的。能用尽量用。

3. glibc的MALLOC_CHECK_使用起来和很简单,不需要重现编译代码。可以用来发现问题,但是其本身无法定位问题。和magic number结合起来,可以用来定位一类内存越界的问题。

4. 和electric-fence齐名的还有一个内存调试库叫做dmalloc。虽然在本次解决问题的过程中没有用到,这个库对于检测内存泄露等其他问题很有用。推荐大家学习一下,放到自己的工具库中。

5. electric-fence是定位一类“野指针”访问问题的利器,强烈推荐使用。

6. 如果上述所有工具都帮不了你,那么只好在熟悉代码逻辑的基础上,使用终极武器了。

7. code review。通过尝试代码库中不同版本编译出来的程序复现bug,用二分法定位引入bug的最早的一次代码提交。


有疑问加站长微信联系(非本文作者)

本文来自:简书

感谢作者:linux大本营

查看原文:linux下定位多线程内存越界问题实践总结

入群交流(和以上内容无关):加入Go大咖交流群,或添加微信:liuxiaoyan-s 备注:入群;或加QQ群:692541889

578 次点击  
加入收藏 微博
暂无回复
添加一条新回复 (您需要 登录 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传