Skip to content

Latest commit

 

History

History
 
 

quantization

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 
 
 

运行该示例前请安装Paddle1.6或更高版本

检测模型量化压缩示例

概述

该示例使用PaddleSlim提供的量化压缩策略对分类模型进行压缩。 在阅读该示例前,建议您先了解以下内容:

配置文件说明

关于配置文件如何编写您可以参考:

其中save_out_nodes需要得到检测结果的Variable的名称,下面介绍如何确定save_out_nodes的参数 以MobileNet V1为例,可在compress.py中构建好网络之后,直接打印Variable得到Variable的名称信息。 代码示例:

    eval_keys, eval_values, eval_cls = parse_fetches(fetches, eval_prog,
                                                         extra_keys)
    # print(eval_values)

根据运行结果可看到Variable的名字为:multiclass_nms_0.tmp_0

训练

根据 tools/train.py 编写压缩脚本compress.py。 在该脚本中定义了Compressor对象,用于执行压缩任务。

通过python compress.py --help查看可配置参数,简述如下:

  • config: 检测库的配置,其中配置了训练超参数、数据集信息等。
  • slim_file: PaddleSlim的配置文件,参见配置文件说明

您可以通过运行以下命令运行该示例。

step1: 设置gpu卡

export CUDA_VISIBLE_DEVICES=0

step2: 开始训练 使用PaddleDetection提供的配置文件在用8卡进行训练:

python compress.py \
    -s yolov3_mobilenet_v1_slim.yaml \
    -c ../../configs/yolov3_mobilenet_v1_voc.yml \
    -d "../../dataset/voc" \
    -o max_iters=258 \
    LearningRate.base_lr=0.0001 \
    LearningRate.schedulers="[!PiecewiseDecay {gamma: 0.1, milestones: [258, 516]}]" \
    pretrain_weights=https://paddlemodels.bj.bcebos.com/object_detection/yolov3_mobilenet_v1_voc.tar \
    YoloTrainFeed.batch_size=64

通过命令行覆盖设置max_iters选项,因为PaddleDetection中训练是以batch为单位迭代的,并没有涉及epoch的概念,但是PaddleSlim需要知道当前训练进行到第几个epoch, 所以需要将max_iters设置为一个epoch内的batch的数量。

如果要调整训练卡数,需要调整配置文件yolov3_mobilenet_v1_voc.yml中的以下参数:

  • max_iters: 一个epoch中batch的数量,需要设置为total_num / batch_size, 其中total_num为训练样本总数量,batch_size为多卡上总的batch size.
  • YoloTrainFeed.batch_size: 当使用DataLoader时,表示单张卡上的batch size; 当使用普通reader时,则表示多卡上的总的batch_size。batch_size受限于显存大小。
  • LeaningRate.base_lr: 根据多卡的总batch_size调整base_lr,两者大小正相关,可以简单的按比例进行调整。
  • LearningRate.schedulers.PiecewiseDecay.milestones: 请根据batch size的变化对其调整。
  • LearningRate.schedulers.PiecewiseDecay.LinearWarmup.steps: 请根据batch size的变化对其进行调整。

以下为4卡训练示例,通过命令行覆盖yolov3_mobilenet_v1_voc.yml中的参数:

python compress.py \
    -s yolov3_mobilenet_v1_slim.yaml \
    -c ../../configs/yolov3_mobilenet_v1_voc.yml \
    -d "../../dataset/voc" \
    -o max_iters=258 \
    LearningRate.base_lr=0.0001 \
    LearningRate.schedulers="[!PiecewiseDecay {gamma: 0.1, milestones: [258, 516]}]" \
    pretrain_weights=https://paddlemodels.bj.bcebos.com/object_detection/yolov3_mobilenet_v1_voc.tar \
    YoloTrainFeed.batch_size=64

以下为2卡训练示例,受显存所制,单卡batch_size不变, 总batch_size减小,base_lr减小,一个epoch内batch数量增加,同时需要调整学习率相关参数,如下:

python compress.py \
    -s yolov3_mobilenet_v1_slim.yaml \
    -c ../../configs/yolov3_mobilenet_v1_voc.yml \
    -d "../../dataset/voc" \
    -o max_iters=516 \
    LearningRate.base_lr=0.00005 \
    LearningRate.schedulers="[!PiecewiseDecay {gamma: 0.1, milestones: [516, 1012]}]" \
    pretrain_weights=https://paddlemodels.bj.bcebos.com/object_detection/yolov3_mobilenet_v1_voc.tar \
    YoloTrainFeed.batch_size=32

通过python compress.py --help查看可配置参数。 通过python ../../tools/configure.py ${option_name} help查看如何通过命令行覆盖配置文件yolov3_mobilenet_v1_voc.yml中的参数。

训练时的模型结构

这部分介绍来源于量化low-level API介绍

PaddlePaddle框架中和量化相关的IrPass, 分别有QuantizationTransformPass、QuantizationFreezePass、ConvertToInt8Pass。在训练时,对网络应用了QuantizationTransformPass,作用是在网络中的conv2d、depthwise_conv2d、mul等算子的各个输入前插入连续的量化op和反量化op,并改变相应反向算子的某些输入。示例图如下:


图1:应用QuantizationTransformPass后的结果

保存断点(checkpoint)

如果在配置文件中设置了checkpoint_path, 则在压缩任务执行过程中会自动保存断点,当任务异常中断时, 重启任务会自动从checkpoint_path路径下按数字顺序加载最新的checkpoint文件。如果不想让重启的任务从断点恢复, 需要修改配置文件中的checkpoint_path,或者将checkpoint_path路径下文件清空。

注意:配置文件中的信息不会保存在断点中,重启前对配置文件的修改将会生效。

保存评估和预测模型

如果在配置文件的量化策略中设置了float_model_save_path, int8_model_save_path 在训练结束后,会保存模型量化压缩之后用于预测的模型。接下来介绍这2种预测模型的区别。

FP32模型

在介绍量化训练时的模型结构时介绍了PaddlePaddle框架中和量化相关的IrPass, 分别是QuantizationTransformPass、QuantizationFreezePass、ConvertToInt8Pass。FP32模型是在应用QuantizationFreezePass并删除eval_program中多余的operators之后,保存的模型。

QuantizationFreezePass主要用于改变IrGraph中量化op和反量化op的顺序,即将类似图1中的量化op和反量化op顺序改变为图2中的布局。除此之外,QuantizationFreezePass还会将conv2ddepthwise_conv2dmul等算子的权重离线量化为int8_t范围内的值(但数据类型仍为float32),以减少预测过程中对权重的量化操作,示例如图2:


图2:应用QuantizationFreezePass后的结果

8-bit模型

在对训练网络进行QuantizationFreezePass之后,执行ConvertToInt8Pass, 其主要目的是将执行完QuantizationFreezePass后输出的权重类型由FP32更改为INT8。换言之,用户可以选择将量化后的权重保存为float32类型(不执行ConvertToInt8Pass)或者int8_t类型(执行ConvertToInt8Pass),示例如图3:


图3:应用ConvertToInt8Pass后的结果

综上,可得在量化过程中有以下几种模型结构:

  1. 原始模型
  2. 经QuantizationTransformPass之后得到的适用于训练的量化模型结构,在${checkpoint_path}下保存的eval_model是这种结构,在训练过程中每个epoch结束时也使用这个网络结构进行评估,虽然这个模型结构不是最终想要的模型结构,但是每个epoch的评估结果可用来挑选模型。
  3. 经QuantizationFreezePass之后得到的FP32模型结构,具体结构已在上面进行介绍。本文档中列出的数据集的评估结果是对FP32模型结构进行评估得到的结果。这种模型结构在训练过程中只会保存一次,也就是在量化配置文件中设置的end_epoch结束时进行保存,如果想将其他epoch的训练结果转化成FP32模型,可使用脚本 PaddleSlim/classification/quantization/freeze.py进行转化,具体使用方法在评估中介绍。
  4. 经ConvertToInt8Pass之后得到的8-bit模型结构,具体结构已在上面进行介绍。这种模型结构在训练过程中只会保存一次,也就是在量化配置文件中设置的end_epoch结束时进行保存,如果想将其他epoch的训练结果转化成8-bit模型,可使用脚本 slim/quantization/freeze.py进行转化,具体使用方法在评估中介绍。

评估

每个epoch保存的评估模型

因为量化的最终模型只有在end_epoch时保存一次,不能保证保存的模型是最好的,因此 如果在配置文件中设置了checkpoint_path,则每个epoch会保存一个量化后的用于评估的模型, 该模型会保存在${checkpoint_path}/${epoch_id}/eval_model/路径下,包含__model____params__两个文件。 其中,__model__用于保存模型结构信息,__params__用于保存参数(parameters)信息。模型结构和训练时一样。

如果不需要保存评估模型,可以在定义Compressor对象时,将save_eval_model选项设置为False(默认为True)。

脚本slim/eval.py中为使用该模型在评估数据集上做评估的示例。 运行命令为:

python ../eval.py \
    --model_path ${checkpoint_path}/${epoch_id}/eval_model/ \
    --model_name __model__ \
    --params_name __params__ \
    -c ../../configs/yolov3_mobilenet_v1_voc.yml \
    -d "../../dataset/voc"

在评估之后,选取效果最好的epoch的模型,可使用脚本 slim/quantization/freeze.py将该模型转化为以上介绍的2种模型:FP32模型,int8模型,需要配置的参数为:

  • model_path, 加载的模型路径,为${checkpoint_path}/${epoch_id}/eval_model/
  • weight_quant_type 模型参数的量化方式,和配置文件中的类型保持一致
  • save_path FP32, 8-bit 模型的保存路径,分别为 ${save_path}/float/, ${save_path}/int8/

运行命令示例:

python freeze.py \
    --model_path ${checkpoint_path}/${epoch_id}/eval_model/ \
    --weight_quant_type ${weight_quant_type} \
    --save_path ${any path you want} \
    -c ../../configs/yolov3_mobilenet_v1_voc.yml \
    -d "../../dataset/voc"

最终评估模型

最终使用的评估模型是FP32模型,使用脚本slim/eval.py中为使用该模型在评估数据集上做评估的示例。 运行命令为:

python ../eval.py \
    --model_path ${float_model_path}
    --model_name model \
    --params_name weights \
    -c ../../configs/yolov3_mobilenet_v1_voc.yml \
    -d "../../dataset/voc"

预测

python预测

FP32模型可直接使用原生PaddlePaddle Fluid预测方法进行预测。

在脚本slim/infer.py中展示了如何使用fluid python API加载使用预测模型进行预测。

运行命令示例:

python ../infer.py \
    --model_path ${save_path}/float \
    --model_name model \
    --params_name weights \
    -c ../../configs/yolov3_mobilenet_v1_voc.yml \
    --infer_dir ../../demo

PaddleLite预测

FP32模型可使用PaddleLite进行加载预测,可参见教程Paddle-Lite如何加载运行量化模型

示例结果

当前release的结果并非超参调优后的最好结果,仅做示例参考,后续我们会优化当前结果。

MobileNetV1-YOLO-V3

weight量化方式 activation量化方式 Box ap Paddle Fluid inference time(ms) Paddle Lite inference time(ms)
baseline - 76.2% - -
abs_max abs_max - - -
abs_max moving_average_abs_max - - -
channel_wise_abs_max abs_max - - -

FAQ