Fuzz_AFL学习

Fuzz

  • what:从维基百科上看,模糊处理是对代码库或可执行文件的自动输入测试。在摸索过程中,无效或意外(有时是随机)的数据被提供给可执行文件,希望能找到一些未定义的行为,或漏洞。
  • why:
    • 模糊测试对于以下方面很有价值:
      • 从不受信任的来源接收输入的软件(安全性);
      • 理智性检查两个复杂算法的等价性(正确性);
      • 验证接受复杂输入的大容量 API 的稳定性(稳定性), 例如解压缩器,即使所有输入都是可信的。
  • where:
    • 特定于 C/C++ 的错误,需要清理器捕获:
      • 释放后使用,缓冲区溢出
      • 未初始化内存的使用
      • 内存泄漏
    • 算术错误:
      • 除以零、整数/浮点数溢出、无效的按位移位
    • 普通崩溃:
      • 空取消引用,未捕获异常
    • 并发错误:
      • 数据竞赛, 死锁
    • 资源使用错误:
      • 内存耗尽、挂起或无限循环、无限递归(堆栈溢出)
    • 逻辑错误:
      • 同一协议的两个实现之间的差异
      • 往返一致性错误(例如压缩输入、解压缩、与原始内容进行比较)
      • 断言失败

AFL深入学习

fuzz运行中的细节

那模糊测试产生的输入样例呢?

libFuzzer将输入样例作为一个字节数组,并将它的指针与长度传入给接口函数。AFL采用了另一种思路,将之视为文件!

像前面的例子,这个文件就是stdin标准输入,afl-fuzzer把标准输入重定向到其产生的测试样例,这样在程序中scanf/cin就相当于在利用测试样例了。

另外如果有其他需要?譬如读取的是二进制格式的输入而非终端字符。

办法之一就是使用C标准库的freopen函数将标准输入以二进制文件的形式打开,然后使用fread等函数对之进行读取。

另一个办法就是在命令行的--后程序参数中加一个@@,这是一个占位符,AFL发现这个占位符就不会把测试样例重定向给stdin,转而将值保存为一个磁盘文件,然后在main函数中,@@占位符对应的argv就是该文件的路径字符串,读取之即可。

在Fuzzing共享库时,可能需要编写一个简单demo,将输入传递给要Fuzzing的库(其实大多数项目中都自带了类似的demo)。这种情况下,可以通过设置LD_LIBRARY_PATH让程序加载经过AFL插桩的.so文件,不过最简单的方法是静态构建

libFuzzer将整个被测对象视为一个函数接口,每次测试视为循环体中对函数的一次调用。但是AFL不然,他将被测对象看作一个可执行程序,每次测试视为对程序的一次调用,自然也会在新的进程环境中。

一次Fuzzing过程通常会持续很长时间,如果这期间运行afl-fuzz实例的终端终端被意外关闭了,那么Fuzzing也会被中断。而通过在screen session中启动每个实例,可以方便的连接和断开。

afl-fuzz并行Fuzzing,一般的做法是通过-M参数指定一个主Fuzzer(Master Fuzzer)、通过-S参数指定多个从Fuzzer(Slave Fuzzer)

多系统并行的基本工作原理类似于单系统并行中描述的机制,你需要一个简单的脚本来完成两件事。在本地系统上,压缩每个fuzzer实例目录中queue下的文件,通过SSH分发到其他机器上解压。


种子库要求与原则

(1) 有效的输入

尽管有时候无效输入会产生bug和崩溃,但有效输入可以更快的找到更多执行路径。

(2) 尽量小的体积

较小的文件会不仅可以减少测试和处理的时间,也能节约更多的内存,AFL给出的建议是最好小于1 KB,但其实可以根据自己测试的程序权衡,这在AFL文档的perf_tips.txt中有具体说明。

种子库修剪

语料库蒸馏(Corpus Distillation)

AFL提供了两个工具来帮助我们完成这部工作——afl-cminafl-tmin

afl-cmin的核心思想是:尝试找到与语料库全集具有相同覆盖范围的最小子集。举个例子:假设有多个文件,都覆盖了相同的代码,那么就丢掉多余的文件。

整体的大小得到了改善,接下来还要对每个文件进行更细化的处理。afl-tmin缩减文件体积的原理这里就不深究了,有机会会在后面文章中解释,这里只给出使用方法(其实也很简单,有兴趣的朋友可以自己搜一搜)。

afl-tmin有两种工作模式,instrumented modecrash mode


处理测试结果

确定造成这些crashes的bug是否可以利用,怎么利用

crash exploration mode:这是afl-fuzz的一种运行模式,也称为peruvian rabbit mode,用于确定bug的可利用性

triage_crashes:AFL源码的experimental目录中有一个名为triage_crashes.sh的脚本,可以帮助我们触发收集到的crashes

crashwalk:如果你想得到更细致的crashes分类结果,以及导致crashes的具体原因,那么crashwalk就是不错的选择之一。这个工具基于gdb的exploitable插件,安装也相对简单,在ubuntu上

afl-collec:是afl-utils套件中的一个工具,同样也是基于exploitable来检查crashes的可利用性。它可以自动删除无效的crash样本、删除重复样本以及自动化样本分类。


代码覆盖率

基本块(Basic Block):缩写为BB,指一组顺序执行的指令,BB中第一条指令被执行后,后续的指令也会被全部执行,每个BB中所有指令的执行次数是相同的

边(edge):AFL的技术白皮书中提到fuzzer通过插桩代码捕获边(edge)覆盖率。那么什么是edge呢?我们可以将程序看成一个控制流图(CFG),图的每个节点表示一个基本块,而edge就被用来表示在基本块之间的转跳。知道了每个基本块和跳转的执行次数,就可以知道程序中的每个语句和分支的执行次数,从而获得比记录BB更细粒度的覆盖率信息。

元组(tuple):具体到AFL的实现中,使用二元组(branch_src, branch_dst)来记录当前基本块 + 前一基本块 的信息,从而获取目标的执行流程和代码覆盖情况

如何计算我们的测试用例对前面测试目标的代码覆盖率:

GCOV:它随gcc一起发布,所以不需要再单独安装,和afl-gcc插桩编译的原理一样,gcc编译时生成插桩的程序,用于在执行时生成代码覆盖率信息。

LCOV:它是GCOV的图形前端,可以收集多个源文件的gcov数据,并创建包含使用覆盖率信息注释的源代码HTML页面。

afl-cov:可以快速帮助我们调用前面两个工具处理来自afl-fuzz测试用例的代码覆盖率结果。在ubuntu中可以使用apt-get install afl-cov安装afl-cov

AFL++/AFL文档详细阅读

基于AFL的相关改进工作

  • 智能调度:搜索策略->挑选种子
    • AFLFast
      • fast, coe, explore, quad, lin, exploit
    • MOpt
      • 最优粒子群算法

AFL++相较于AFL的改进

  • 种子调度,增添了:
    • AFLFAST
    • mmopt
    • 稀有调度
  • Custom Mutator API
    • 插件系统可以很容易地对新的研究想法进行原型化,并为行业专业人员提供了一种简单的方法来根据他们的目标定制测试用例
  • MOpt的Core模式和Pilot模式
  • afl++支持几种检测后端:LLVM、GCC、QEMU、Unicorn和QBDI。最重要的是,它提供了一个代理模块,可以适应将测试用例转发到目标,并为afl-fuzz提供任何类型的覆盖,甚至是远程和非覆盖

流程(AFL++)

insert image description here
对不同的目标进行模糊测试 AFLplus/best_practices.md at stable ·AFLplus/AFLplusplus (github.com)

以下为使用可用的源代码对目标进行模糊测试:

检测目标

insert image description here

  • 根据clang/clang++版本和gcc版本进行选择编译器

    • LTO

      • 被解决的问题:BB随机编号,无法发现新路径
      • 配置/拓展
        • 共享库:要检测的每个共享库都必须单独编译
        • 词典:编译时,基于字符串比较的字典会自动 生成并放入目标二进制文件中
        • 加速fuzz:为了进一步加快模糊测试的速度,可以设置一个固定的共享内存映射
    • LLVM

      • 应用场景:特定于 clang 的,并不适用于GCC
      • llvm持久模式:AFL++ 在单个分叉中多次模糊目标进程,而不是为每个模糊执行分叉一个新进程
    • GCC

      • 应用场景:特定于 gcc 的,并不适用于 LLVM
  • 不同模式可选择对应检测选项

    • 如:拆分整数、字符串、浮点数和开关比较;仅检测指定的零件
  • 选择消毒器:使用消毒剂可以允许查找不一定会导致崩溃的错误

    • 每个清理器只应运行一个 afl-fuzz 实例 类型
    • 某些消毒剂不能一起使用
  • 修改目标:如果目标具有使模糊测试更加困难的特征,例如校验和, HMAC 等,然后修改源代码,以便检查这些值删除

  • 编译目标源代码

    • 避免检测共享库

准备模糊测试活动

insert image description here

  • 收集输入
  • 使输入语料库唯一
    • 使用 AFL++ 工具从语料库中删除未在目标中生成新的路径/覆盖范围afl-cmin
  • 最小化语料库文件
    • 在目标中仍遍历相同路径的输入文件越短, 模糊会越好,为每个文件执行afl-tmin

模糊目标

insert image description here

  • 运行 afl-fuzz
    • 添加字典:默认情况下,AFL更适合对紧凑数据格式的fuzzing,包括图像、多媒体、压缩数据、正则表达式语法,或者shell脚本等;对一些格式繁琐、冗余的数据,如HTML,SQL和JavaScript等,支持并不好。为了避免构建语法敏感型的工具所带来的麻烦,afl-fuzz提供了一种方式可以对语言关键字、magic headers或者其他特殊的符号和目标数据类型相关的符号。
      • 通过创建一个新目录并将每个令牌放在单独的文件中, 在这种情况下,无需转义或以其他方式格式化数据
      • 通过创建一个平面文本文件,其中令牌在 名称=“值”的格式
    • 控制内存使用和超时
      • afl-fuzz 不强制实施内存限制,系统可能会用完内存,可以用选项减少内存
    • 使用多个内核
      • 尽可能多的内核/线程来进行模糊,应该有一个主模糊器和尽可能多的辅助模糊器
    • 使用多台机器进行模糊测试
      • 只需确保每台服务器只有一个且只有一个实例,并且它的名称是唯一的
    • 模糊运动的状态
      • AFL++ 附带脚本以显示模糊测试的状态运动
    • 停止模糊测试,重新启动模糊测试,添加新种子
      • Control-C
    • 检查模糊测试的覆盖范围
    • 提高速度
      • 使用持续模式
      • 使用指向输入文件
      • 在启动第一个afl-fuzz实例之前运行重新启动

崩溃分析

insert image description here

  • 崩溃分类
    • 基于覆盖范围的崩溃分组通常会产生一个小数据集可以手动或使用非常简单的 GDB 或 Valgrind 脚本快速分类
  • “崩溃探索”模式 -C
    • 在此模式下,模糊器将一个或多个崩溃的测试用例作为输入和使用其反馈驱动的模糊测试策略来非常快速地枚举所有代码 在程序中保持崩溃状态时可以访问的路径。输出是一个小型文件语料库,可以非常快速地检查以查看攻击者对错误地址的控制程度,或者是否有可能通过最初的越界阅读。

要点(AFL)

边界覆盖率

  • AFL 中为了更方便的描述边界(edge),将源基本块和目的基本块的配对组合称为 tuple
  • 通过记录 tuple 信息就可以统计边界覆盖率了,程序记录 tuple 的命中数,命中数被划分成 8 个组别

记录覆盖率

//插桩伪代码
cur_location = <COMPILE_TIME_RANDOM>; //每个代码块生成一个随机数,作为其“位置”的记录
shared_mem[cur_location ^ prev_location]++;  //对分支处的”源位置“和”目标位置“进行异或,并将异或的结果作为该分支的key,保存每个分支的执行次数(就是在用hash记录元组及覆盖情况),这里可能会碰撞
prev_location = cur_location >> 1; //所有自己跳转到自己计算得到的hash的key都是0,要避免这种情况,于是进行移位操作

具体代码中,变量__afl_prev_loc保存的是前一次跳转的”位置”,其值与ecx(这里的ecx,保存的是伪代码中的cur_location)做异或后,保存在edi中,并以edx(共享内存)为基址,对edi下标处进行加一操作。而ecx的值右移1位后,保存在了变量__afl_prev_loc中。

在每个插桩处,afl-as会添加相应指令,将ecx的值设为0到MAP_SIZE之间的某个随机数,从而实现了伪代码中的cur_location = <COMPILE_TIME_RANDOM>;

AFL为每个代码块生成一个随机数,作为其“位置”的记录;随后,对分支处的”源位置“和”目标位置“进行异或,并将异或的结果作为该分支的key,保存每个分支的执行次数。用于保存执行次数的实际上是一个哈希表,大小为MAP_SIZE=64K,当然会存在碰撞的问题;根据AFL文档中的介绍,对于不是很复杂的目标,碰撞概率还是可以接受的

AFL需要将cur_location右移1位后,再保存到prev_location中。官方文档中解释了这样做的原因。假设target中存在A->AB->B这样两个跳转,如果不右移,那么这两个分支对应的异或后的key都是0,从而无法区分;另一个例子是A->BB->A,如果不右移,这两个分支对应的异或后的key也是相同的

计算覆盖率

  • fuzzer对trace_bits(共享内存)进行预处理

    • target是将每个分支的执行次数用1个byte来储存,而fuzzer则进一步把这个执行次数归入8种buckets中

      static const u8 count_class_lookup8[256] = {
      //左边为分支执行次数   //右边为记述byte
        [0]           = 0, 
        [1]           = 1, 
        [2]           = 2, 
        [3]           = 4, 
        [4 ... 7]     = 8, 
        [8 ... 15]    = 16,
        [16 ... 31]   = 32,
        [32 ... 127]  = 64,
        [128 ... 255] = 128
      
      };
      
    • 这样处理之后,对分支执行次数就会有一个简单的归类

    • 对于某些mutated input来说,如果这次执行没有出现崩溃等异常输出,fuzzer还会检查其是否新增了执行路径。具体来说,是对trace_bits计算hash并来实现

    • 通过比较hash值,就可以判断trace_bits是否发生了变化,从而判断此次mutated input是否带来了新路径,为之后的fuzzing提供参考信息

插桩

所插入代码从用途上都是分为两类:1)记录目标程序执行过程中的 tuple 信息,需保证在每个基本块上都有插入;2)必要的初始操作以及维护一个 forkserver。

不同的插桩模式

  • 普通模式

    • 在汇编阶段,插入指令后再交由真正的 as 汇编器处理。这里将会查找汇编文件中的 .text 节区并在各控制转移指令处插入跳板 trampoline_fmt_32/trampoline_fmt_64
    • 跳板的作用是跳转到具体的实现部分 main_payload_32/main_payload_64,此部分指令只会插入一次。如: main_payload_32 部分:
      • 其中一个分支是用于记录目标程序执行过程中的 tuple 信息
      • 另一分支在进行初始操作之外,主要作用是维护 forkserver,它会将已经初始化好的目标进程,例如暂停在 main 函数入口,按需再 fork 出一个子进程交予 fuzzer 进行测试,即 fuzzer 是被 fuzz 进程的父进程,借助 copy-on-write 特性,此方法可以极大的提高 fuzz 效率。forkserver 和 fuzzer 间是通过 pipe 管道进行通信的,除了控制命令,fork 成功后的 PID 以及 waitpid 返回状态都是借由此方式传递
        • forkserver:为了避免execve()的开销,AFL使用了所谓的Forkserver。fuzzer将一个forkserver注入目标,通过IPC机制控制。每当AFL需要执行一个测试用例时,它就写入输入,然后告诉目标fork自己。子进程将执行测试用例,父进程等待这个时候。forkserver也可以稍后在目标中分叉。在这种情况下,fuzzer不需要每次运行昂贵的初始化和启动例程。
  • llvm 模式:代码首先由编译器前端 clang 处理后得到中间代码 IR,再经过各 pass 工作节点的优化和转换,最终交给编译器后端生成机器码

  • AFL 的插桩思路是通过编写 pass 来实现 tuple 信息的记录,在此过程中会对每一基本块都插入探针

  • 初始化和 forkserver 操作则通过链接完成

  • qemu 模式

    • 直接利用 QEMU 内置的跟踪功能,并通过 patch 源码的方式来实现 afl-as.h 中的操作
  • 共享内存

    插桩后的target(目标文件),会记录执行过程中的分支信息;随后,fuzzer便可以根据这些信息,判断这次执行的整体流程和代码覆盖情况。AFL使用共享内存,来完成以上信息在fuzzer和target之间的传递。

    • uzzer在启动时,会执行setup_shm()方法进行配置。其首先调用shemget()分配一块共享内存,大小MAP_SIZE为64K
    • 分配成功后,该共享内存的标志符会被设置到环境变量中,从而之后fork()得到的子进程可以通过该环境变量,得到这块共享内存的标志符,fuzzer本身,会使用变量trace_bits来保存共享内存的地址,每次target执行之前,fuzzer首先将该共享内容清零
    • target会检查是否已经将共享内存映射完成,通过调用shmat(),target将这块共享内存也映射到了自己的内存空间中,并将其地址保存在__afl_area_ptredx
    • 如果使用了fork server模式,那么上述获取共享内存的操作,是在fork server中进行;随后fork出来的子进程,只需直接使用这个共享内存即可

fuzzer 实现

  • 初始化

    • trace_bits 和 virgin_bits 的 bitmap 来分别记录当前的 tuple 信息及总的 tuple 信息,其中 trace_bits 位于共享内存上,能方便进程间的通信。另外,还分别通过名为 virgin_tmout 和 virgin_crash 的 bitmap 来记录 fuzz 过程中出现的所有目标程序 timeout 及 crash 时的 tuple 信息
    • forkserver 由 init_forkserver 函数来完成,也就是运行 afl-as.h 文件 main_payload 中维护 forkserver 的分支,这样一来 run_target 函数只需关注和 forkserver 的交互即可,而不必每次都重新创建一个目标进程,其中,fsrv_ctl_fd 管道用于写,fsrv_st_fd 管道用来读
  • fuzzing 策略: AFL 中用到的 fuzzing 策略分为两类,即确定性策略和随机性策略

  • insert image description here

  • 其中确定性策略又分为位翻转、字节翻转、算术加减、整数替换、字典替换和字典插入(bitflip, arithmetic, interest, dictionary),是非dumb mode(-d)和主fuzzer(-M)会进行的操作,其变异方式没有随机性,目的是为了生成更多简洁有效的测试用例,不过由于此类策略比较耗时,因此测试用例只会进行一轮这样的操作在确定性策略 fuzzing 过程中,如果发现后续的变异操作已经在前面进行过了,为避免重复将会跳过该操作,如果没有重复则由 common_fuzz_stuff 函数将变异后的内容写入测试文件并运行目标程序

    • bitflip:

      • token检测:在进行bitflip 1/1变异时,对于每个byte的最低位(least significant bit)翻转还进行了额外的处理:如果连续多个bytes的最低位被翻转后,程序的执行路径都未变化,而且与原始执行路径不一致,那么就把这一段连续的bytes判断是一条token。
      • effector map:在进行bitflip 8/8变异时,AFL还生成了一个非常重要的信息——effector map,具体地,在对每个byte进行翻转时,如果其造成执行路径与原始路径不一致,就将该byte在effector map中标记为1,即“有效”的,否则标记为0,即“无效”的。这样做的逻辑是:如果一个byte完全翻转,都无法带来执行路径的变化,那么这个byte很有可能是属于”data”,而非”metadata”(例如size, flag等),对整个fuzzing的意义不大。
    • arithmetic

      • 整数加减变异
      • AFL智能地跳过某些arithmetic变异:第一种情况就是前面提到的effector map:如果一个整数的所有bytes都被判断为“无效”,那么就跳过对整数的变异。第二种情况是之前bitflip已经生成过的变异:如果加/减某个数后,其效果与之前的某种bitflip相同,那么这次变异肯定在上一个阶段已经执行过了,此次便不会再执行。
    • interest

      • 用于替换的是AFL预设的一些比较特殊的数,基本都是可能会造成溢出的数
      • effector map仍然会用于判断是否需要变异;此外,如果某个interesting value,是可以通过bitflip或者arithmetic变异达到,那么这样的重复性变异也是会跳过的
    • dictionary

      • 将用户提供的tokens/自动检测的tokens依次替换/插入到原文件中
      • 用户提供的tokens,是在词典文件中设置并通过-x选项指定的,如果没有则跳过相应的子阶段
    • Havoc and splice have randomness, which is the mutation that all state fuzzers (whether dumb mode, master-slave fuzzer) will execute, and if a test case does not generate a new state after executing the randomness strategy, it will be compared with Another test case is randomly spliced ​​and handed over to the randomness strategy again.

      • Havoc contains multiple rounds of mutations on the original file, each round is made by combining (stacked) multiple methods
      • Splice is to splice two seed files to get a new file, and continue to perform havoc mutation on this new file
        insert image description here
  • corpus replacement

    • With the deepening of fuzzing, the target program will generate more and more execution paths. Whether the corresponding test case can be added to the corpus queue depends on whether there is a new state in trace_bits. We already know that the fuzzer will record the total tuple information of the target program through virgin_bits, each tuple corresponds to a byte, and the initial value is 0xFF, that is, each bit is 1. This design is intentional. Do you remember that each tuple is divided into 8 hit groups, and each bit can correspond to a hit group. If no such new state occurs, its value will still be 1. If other value is set to 0. This is why after executing the target program, the classify_counts function is called to group the number of tuple hits recorded this time. In this way, it is only necessary to compare the trace_bits and virgin_bits after the grouping operation to determine whether there is a new one. State generation, at the same time, the use of bit operations is also to improve the speed of code execution
    • A subset of the corpus covering all current tuple states is maintained in the fuzzer. These test cases are marked as "favored", and they are relatively better in performance, so they can obtain a greater probability of fuzzing, which is the beginning of the fuzz_one function. make judgments. To obtain such a collection, we need an array called top_rated, which stores the current optimal test cases corresponding to each tuple state. When a new state is generated, we judge whether it is better than the existing members in top_rated
    • If the top_rated array is updated, then the cull_queue function will be called later, which will sequentially traverse the test cases in the top_rated array until the selected test case set can completely cover all the current tuple states, that is, complete the update of the "favored" set in the corpus

Auxiliary module

  • Corpus and test case minimization
    • The "favored" set is a streamlined subset of the corpus. The idea in afl-cmin is similar but more complex and will remove redundant test cases. As for the minimization of test cases, the purpose is to remove the data in the test cases as much as possible, while keeping the execution state of the target program unchanged. For test cases that do not generate crashes, we can judge these based on the instrumentation technology discussed earlier. Does the simplification operation affect the execution path of the target program? The simplification operations used in afl-tmin.c are divided into block clearing '0', block removal and character clearing '0'
  • Parallel fuzzing
    • Use the afl-gotcpu tool to obtain the CPU usage, and then decide to increase or decrease the afl-fuzz routine, and use the afl-whatsup tool to count the results of each parallel routine. One of the great benefits of parallelism is that the corpus can be shared between routines, thus speeding up the fuzz process
  • grammar dictionary
    • Dictionaries are also critical to improving fuzzer performance. We know that the deterministic strategy of the AFL mutation engine includes dictionary replacement and dictionary insertion operations, which allows us to obtain higher code coverage when fuzzing some strong grammatical file formats. Although this method is still far from directly generating test cases that conform to a specific syntax format, the actual effect is still ideal. The code in the libtokencap directory is designed to facilitate us to generate dictionary files. By performing hook-like operations on functions such as strcmp() and memcmp(), we can extract the grammatical keywords in the parameters
  • memory detection tool
    • In order to better detect bugs related to memory errors, AFL also introduces support for the memory detection tool asan (address sanitizer)

Directions where AFL++ can be improved

  • afl++对多线程的扩展还不是很理想。由于它决定使用文件系统进行测试用例交付,至少对于不是LLVM的后端是这样,并且由于依赖于fork()系统调用来实现某些目标,因此大部分时间都花在内核上。为快照开发Linux内核模式是朝这个方向迈出的第一步。我们使afl++代码完全线程安全。逻辑上的下一步是多线程支持,最小化并行fuzzer之间的同步开销

  • 哈希碰撞问题

  • 当前的目标是使用最常用的最佳插装、突变和调度作为默认配置。对于未来的工作,通过之前对目标的静态分析来找到这些指标,可能会提出一个最佳努力的最佳解决方案——例如,大量的strcmp可能是使用RedQueen和其他指标的指标

  • 虽然自定义Mutator已经为研究人员提供了很大的灵活性,但其目标是添加额外的插件功能来替换或添加构建模块(如调度程序、执行程序和队列)的功能

  • AFL++ 检查信号(SIGSEGV,SIGABRT等)。安装自定义处理程序的程序这些信号可能需要注释掉相关代码。在同一个静脉,模糊目标生成的子进程中的故障可能会逃避检测,除非您手动添加一些代码来捕获它

  • 与任何其他暴力工具一样,模糊器提供的覆盖范围有限,如果 加密、校验和、加密签名或压缩用于 完全包装要测试的实际数据格式

  • ASAN 和 64 位二进制文件有一些bug,这不是由于 AFL-Fuzz 的任何特定故障

  • 没有直接支持模糊测试网络服务、后台守护程序、 或需要 UI 交互才能工作的交互式应用。需要制作简单的代码更改,使它们以更传统的方式运行

  • 高效性:AFL++ 已经非常高效,但是在某些特定的场景下,仍然有优化的空间。比如,对于大型项目和长时间运行的应用程序,AFL++ 的效率可能有待提高。

  • 自适应性:AFL++ 目前依赖于用户手动选择变异策略,如果能够实现自适应变异策略选择,将会更加高效

  • 兼容性:AFL++ 目前支持多种编程语言和输入格式,但是仍然有一些语言和格式不支持。如果能够扩展支持范围,将会更加实用

  • Diversity: AFL++ currently uses relatively few mutation strategies. If more mutation strategies can be added, more diverse test cases will be generated, thereby improving test coverage

Source code analysis

picture

References

[ Original] AFL Project Analysis of Vulnerability Mining Technology-Binary Vulnerabilities-Kanxue Forum-Security Community|Security Recruitment|bbs.pediy.com (kanxue.com)

Notes on the internal implementation details of AFL - Notepad (rk700.github.io)

Supongo que te gusta

Origin blog.csdn.net/Im_print/article/details/131598917
Recomendado
Clasificación