神经网络推理加速之模型量化
· 赵鹏, 陈新宇, 秦臻南, 叶军 翻译: 包怡欣 (INTEL MLT TEAM)1. 引言
在深度学习中,推理是指将一个预先训练好的神经网络模型部署到实际业务场景中,如图像分类、物体检测、在线翻译等。由于推理直接面向用户,因此推理性能至关重要,尤其对于企业级产品而言更是如此。
衡量推理性能的重要指标包括延迟(latency)和吞吐量(throughput)。延迟是指完成一次预测所需的时间,吞吐量是指单位时间内处理数据的数量。低延迟和高吞吐量能够保证良好的用户体验和工业生产要求。
许多云服务商和硬件供应商提供了一系列针对推理优化的基础设施,例如亚马逊的SageMaker、Deep Learning AMIs,英特尔®的Deep Learning Boost、矢量神经网络指令集(VNNI)等。
除了硬件层面的优化,在算法层面,模型量化是加速神经网络推理的有效手段之一。Apache MXNet*社区提供了丰富的量化工具,用户无需重新训练模型,只需通过量化工具就可以对训练好的模型进行量化。量化后的模型可以通过像VNNI这样的低精度(INT8)指令进行加速,有助于节省存储带宽,提高缓存命中率,减少能耗。
通过MXNet*进行模型量化后,ResNet50 V1可在AWS* EC2 CPU 实例中达到6.42倍的性能加速(其中运算符融合获得了1.75倍的加速,VNNI的INT8指令则带来了3.66倍的加速),同时精度损失仅为0.38%,可以说达到了速度和精度的完美平衡。
本文先描述模型量化的原理以及在MXNet*上的实现,然后讲述如何从用户角度使用量化工具,最后介绍在英特尔®至强®处理器上VNNI带来的性能提升。
2. 模型量化
MXNet*支持从单精度(FP32)到有符号的8比特整型(s8)以及无符号的8比特整型(u8)的模型量化。u8可以用于CNN网络的推理。对于大多数CNN网络而言,Relu是常用的激活函数,其输出是非负的。因此,在CNN网络的推理中使用u8的优势显而易见——我们可以多使用1比特来表示数据从而达到更高的精度。s8则适用于通用的模型量化。
在使用MXNet*进行模型量化时,用户无需重新训练模型,只需通过量化校准工具就可以对训练好的FP32模型进行量化加速,因此部署过程非常方便快捷。
模型的量化推理包含两个阶段:
图1. MXNet* INT8推理流程示意图
- 量化校准过程(预处理阶段),我们使用验证集中的一小部分图片(通常为整个数据集的1-5%)来收集数据分布的信息,包括最小值/最大值、基于熵理论的最佳阈值、基于对称量化的量化因子等。最终,这些量化参数会被记录在新生成的量化模型中。
- INT8推理(运行阶段), 量化模型可以像原始模型一样被加载并用于推理。
3. 模型优化
在深度学习领域,MXNet*是最早提供完整量化方案的深度学习框架之一,其内置了很多高级的性能优化工具,如支持INT8的数据加载器、离线校准、图优化等。通过图优化实现的运算符融合,是对一些常见的操作进行功能合并,如Conv+Relu, Conv+BN, Conv+Sum等。运算符融合能够减少在量化过程中反复的数据类型转化,从而使得量化后的网络相比于原始模型更加简洁高效。下图中的ResNet50 V1显示了网络在运算符融合和量化前后的变化。
图2. ResNet50 V1网络结构(左图:FP32,右图:INT8)
另外值得一提的是,当用户在不同的硬件上部署量化模型时, 无论是否支持VNNI指令,MXNet*的量化方案都是可用的。例如从C5.18x.large (英特尔®第一代可扩展处理器,不支持VNNI指令) 切换到C5.24x.large (英特尔®第二代可扩展处理器,支持VNNI指令),用户无需修改代码,同时又能获得大幅度的性能提升。
图3. 英特尔® Deep Learning Boost
4. 模型部署
用户可以使用MXNet*的量化校准工具和API轻松地将他们的FP32模型量化成INT8模型。MXNet*官方也提供了图像分类和物体检测 (SSD-VGG16)的量化示例。用户还可以参考量化API来将这些工具集成到实际的推理任务中。
下面,以SSD-VGG16为例介绍MXNet*的模型量化过程。
4.1 准备阶段
使用以下命令安装MXNet*,包含英特尔®MKL库能够优化推理性能。
pip install --pre mxnet-mkl
首先,下载训练好的SSD-VGG16模型 和打包的二进制数据。创建model 和data的目录,解压zip文件并重命名,如下所示:
data/
|--val.rec
|--val.lxt
|--val.idx
model/
|--ssd_vgg16_reduced_300–0000.params
|--ssd_vgg16_reduced_300-symbol.json
然后,你可以使用如下命令来验证FP32的模型:
# USE MKLDNN AS SUBGRAPH BACKEND
export MXNET_SUBGRAPH_BACKEND=MKLDNN
python evaluate.py --cpu --num-batch 10 --batch-size 224 --deploy --prefix=./model/ssd_
4.2 量化阶段
MXNet*为SSD-VGG16提供了一个量化脚本。用户可以通过设置不同的配置项将模型从FP32量化成INT8,包括batch size、量化用的batch数目、校准模式、目标数据类型、不做量化的层,以及数据加载器的其他配置。我们可以使用如下指令进行量化,默认情况下脚本使用5个batch(每个batch包含32个样本)进行量化:
python quantization.py
量化后的INT8模型会以如下形式存储在model目录下:
data/
|--val.rec
|--val.lxt
|--val.idx
model/
|--ssd_vgg16_reduced_300–0000.params
|--ssd_vgg16_reduced_300-symbol.json
|--cqssd_vgg16_reduced_300–0000.params
|--cqssd_vgg16_reduced_300-symbol.json
4.3 部署INT8推理
使用如下指令执行INT8模型的推理:
python evaluate.py --cpu --num-batch 10 --batch-size 224 --deploy --prefix=./model/cqssd_
4.4 结果可视化
从Pascal VOC2007验证集中取一张图片,其检测结果如下图所示,图4.1显示的是FP32模型的推理结果,图4.2显示的是INT8模型的推理结果。
结果可视化的指令如下:
# Download demo image
python data/demo/download_demo_images.py
# visualize float32 detection
python demo.py --cpu --network vgg16_reduced --data-shape 300 --thresh 0.4 --deploy --prefix=./model/ssd_
# visualize int8 detection
python demo.py --cpu --network vgg16_reduced --data-shape 300 --thresh 0.4 --deploy --prefix=./model/cqssd_
图4.1. SSD-VGG检测结果, FP32
图4.2. SSD-VGG检测结果, INT8
5. 性能
本节将展示模型量化的性能提升,所测数据均来自AWS EC2 C5.24xlarge实例上的英特尔®第二代可扩展处理器(支持VNNI指令)。完整的硬件和软件配置请参阅通知和免责声明。 更多的模型和性能数据请参考Apache / MXNet C ++接口和GluonCV模型中的示例。
通过运算符融合和模型量化,图5中的总吞吐量得到了从6.42X到4.06X不等的显著提高。 其中,运算符融合带来的加速随着模型中可融合的运算符数量的多少而变化。
图5. MXNet* 融合和量化加速对比
模型量化则可以为大部分模型提供稳定的加速,ResNet 50 v1为3.66X,ResNet 101 v1为3.82X,SSD-VGG16为3.77X,其值非常接近于INT8的理论加速比——4X。
图6. MXNet* VNNI加速比
在图7中的延迟测试中,运行时间越短表示性能越好。 除了SSD-VGG16之外,我们测试的模型都可以在7毫秒内完成推理。 特别是对于需要在移动端部署的MobileNet V1,其网络计算时间只需1.01毫秒,达到了极佳的速度。 另外,实际生产环境通常并不需要使用CPU中的所有核心进行推理任务,建议可以选取适当的计算核心(比如4个),以达到推理时间和成本的最优配比。
图7. MXNet* 延迟比较
除了极佳的加速,量化后的模型的准确性也非常接近于FP32模型的精度,如图8所示,量化后的精度损失低于0.5%。
图8. MXNet* 融合和量化精度对比
6. 总结
-
对于图像分类和物体检测的CNN网络,经过运算符融合和INT8量化后进行推理能够带来显著的加速。
-
量化后的INT8模型的精度与FP32模型的精度很接近,差异小于0.5%。
-
第二代英特尔®至强®可扩展处理器,使用英特尔®DL Boost和新的VNNI指令集,能够让用户无需修改代码即可进一步提升模型的计算性能(~4X)。
7. 感谢
感谢Apache社区和亚马逊MXNet团队的支持。感谢 Mu Li, Jun Wu, Da Zheng, Ziheng Jiang, Sheng Zha, Anirudh Subramanian, Kim Sukwon, Haibin Lin, Yixin Bao, Emily Hutson , Emily Backus提供的帮助。另外也感谢Apache MXNet的用户提出的很多中肯的意见和建议。
8. 附录
Models | Data Shape | Batch Size | Metric | C5.24xlarge Base | C5.24xlarge Fusion | C5.24xlarge Fusion +Quantization | Speedup | FP32 Acc | INT8 Acc |
---|---|---|---|---|---|---|---|---|---|
ResNet50 V1 | 3x224x224 | 1 | Latency(ms) | 9.18 | 6.05 | 2.41 | 3.81 | 76.48 | 76.10 |
64 | Throughput(img/sec) | 347.77 | 610.04 | 2,232.67 | 6.42 | ||||
ResNet101 V1 | 3x224x224 | 1 | Latency(ms) | 17.28 | 12.08 | 4.92 | 3.51 | 77.30 | 77.02 |
64 | Throughput(img/sec) | 201.88 | 316.52 | 1,210.37 | 6.00 | ||||
MobileNet 1.0 | 3x224x224 | 1 | Latency(ms) | 2.96 | 2.02 | 1.01 | 2.92 | 72.14 | 71.97 |
64 | Throughput(img/sec) | 1,070.08 | 2,222.70 | 5,778.97 | 5.40 | ||||
Inception V3 | 3x299x299 | 1 | Latency(ms) | 13.24 | 10.05 | 6.07 | 2.18 | 77.86 | 77.95 |
64 | Throughput(img/sec) | 304.72 | 423.26 | 1,344.95 | 4.41 | ||||
SSD-VGG16 | 3x300x300 | 1 | Latency(ms) | 25.89 | 25.25 | 8.24 | 3.14 | 83.58 mAP | 83.33 mAP |
224 | Throughput(img/sec) | 78.01 | 84.09 | 317.04 | 4.06 |
9. 通知和免责申明
性能测试中使用的软件和工作集群可能只针对英特尔®微处理器的性能进行了优化。
如SYSmark和MobileMark等的性能测试是通过特定的计算机系统、组件、软件、操作符和函数进行测量的,上述任何因素的改变都可能引起结果的改变。您需要综合其他信息和性能测试,包括与其他产品组合时该产品的性能,以帮助您全面评估您的预期购买。更多完整信息请访问www.intel.com/benchmarks。
性能结果基于AWS截至2019年7月1日的测试,并不能反映所有公开可用的安全更新。没有任何产品或组件是绝对安全的。
测试配置:
重现脚本: https://github.com/intel/optimized-models/tree/v1.0.6/mxnet/blog/medium_vnni
软件: Apache MXNet 1.5.0b20190623
硬件: AWS EC2 c5.24xlarge实例, 基于英特尔®第二代可扩展至强®处理器(Cascade Lake),全核频率为3.6GHz,单核最高频率可达3.9GHz
英特尔、英特尔标识和英特尔至强是英特尔公司或其在美国和/或其他国家的子公司的商标。*其他名称和品牌可能被视为他人的财产。©英特尔公司