MXNet 图优化与算子融合
MXNet 图优化与算子融合Graph Optimization and Quantization based on subgraph and MKL-DNN
Purpose
MKL-DNN引入了两个高级特性:融合计算和降精度核。这些特性可以显著地提高各种深度学习拓扑在CPU上的推理性能。
然而,MXNet由于图表示的局限性和以往缺乏图的优化,仍然不能从中受益。幸运的是,MXNet的新子图特性使这些改进现在成为可能。
本文说明基于子图的解决方案,以利用MKL-DNN在MXNet中的功能。一般来说,解决方案将MKL-DNN算子划分为子图,然后在子图中用融合的内核(如果可能)替代这些MKL-DNN算子。可以通过使用MKL-DNN的降精度核(如INT8核)来选择量化流,加速模型的推理过程。
Milestone
本文三个步骤可被视为本项目的里程碑,并用于跟踪过程。
•完成后,将子图分支转换为主分支
•完成,MKL-DNN融合实现到子图分支
•完成后,将量化流实现提交到主分支
Workflow
步骤1. 将MKL-DNN算子划分到子图中
这是子图的主要用途之一。可以列出所有支持的运算符MKL-DNN,并将其传递给DefaultSubgraphProperty。应用图划分后,所有MKL-DNN算子都将分组到子图节点中,子图边界上的数据格式将自动在MKL-DNN内部格式和NDArray默认格式之间转换。根据执行模式,子图边界有点不同。
1. Symbolic mode
子图将尽量覆盖相邻的MKL-DNN算子。
 
2. Imperative mode
命令式
每个MKL-DNN操作符将在一个独立的子图中执行,以确保MKL-DNN内部格式不会暴露在子图之外。
 
Step 2. MKL-DNN operator fusion
MKL-DNN算子融合
MKL-DNN库支持在一次执行中,运行多个特定的模式算子。比如卷积+relu。可以定义新的SubgraphSelector子图选择器,捕获这种操作符模式,并生成新的MKL-DNN特定算子来替换原来的算子。
 
新的融合算子是独立算子,表示定义的MKL-DNN库算子。例如,在MKL-DNN库中,卷积可以支持在卷积之后执行relu的post算子。因此,对于卷积+relu融合,将创建一个MKL-DNN卷积(命名为_sg_MKL-DNN_conv),并将relu描述为后算子。
NNVM_REGISTER_OP(_sg_MKL-DNN_conv)
.set_attr<FStatefulComputeEx>("FStatefulComputeEx<cpu>",  SgMKL-DNNConvOpForward)
In general, new fused operators follow the abstraction of MKL-DNN library, and subgraph fusion pass is the lowering process to convert NNVM common graph to MKL-DNN graph. Fusion pass only happens inside the subgraph created by step1, so won’t affect MXNet default operators.
一般来说,新的融合算子遵循MKL-DNN库的抽象,子图融合pass是NNVM common图到MKL-DNN图的降阶过程。融合pass只发生在由step1创建的子图中,不会影响MXNet默认算子。
Step 3. Quantization
MKL-DNN支持卷积神经网络中大多数精度较低的基元,尤其是融合基元。MXNet INT8推理包括两个步骤:
1. INT8模型,量化参数,收集校准数据准备
只执行此步骤一次。为了在FP32模型的基础上建立INT8模型,在MKL-DNN支持的情况下,在子图内部运行QuantizeGraph pass,用INT8算子代替FP32算子,并在适当的位置插入dequantize解量化算子。
 
2. Run INT8 inference
当INT8符号和参数准备好进行inference时,用户可以对与以前相同的新输入数据进行推理。
Accuracy Validation
在使用MKL-DNN时,无论量化程度如何,子图解本身都不会引入精度损失,反而会增强框架的稳定性。
| 
 NETWORK  | 
 FP32  | 
 FP32 with Fusion  | 
||
| 
 Top1  | 
 Top5  | 
 Top1  | 
 Top5  | 
|
| 
 Resnet-152 by MKL-DNN  | 
 77.16  | 
 92.98  | 
 77.16  | 
 92.98  | 
| 
 Inception by MKL-DNN  | 
 72.36  | 
 90.58  | 
 72.36  | 
 90.58  | 
在量化允许的情况下,MKL-DNN与采用熵模式校准的FP32相比,可以在不到0.5%的精度损失范围内获得巨大的性能改进。
Accuracy data from the internal branch are shown in below table .
| 
 
  | 
 FP32  | 
 INT8  | 
|||||
| 
 
  | 
 
  | 
 No Calibration  | 
 Calibration using 5 batches  | 
 Calibration Method  | 
|||
| 
 NETWORK  | 
 Top1  | 
 Top5  | 
 Top1  | 
 Top5  | 
 Top1  | 
 Top5  | 
|
| 
 Resnet-152 by GPU  | 
 77.19  | 
 93.01  | 
 75.56  | 
 92.32  | 
 75.58  | 
 92.24  | 
 Threshold by min/max  | 
| 
 75.65  | 
 92.35  | 
 Threshold by entropy loss  | 
|||||
| 
 Resnet-152 by MKL-DNN  | 
 77.16  | 
 92.98  | 
 76.59  | 
 92.71  | 
 76.44  | 
 92.69  | 
 Threshold by min/max  | 
| 
 76.76  | 
 92.79  | 
 Threshold by entropy loss  | 
|||||
| 
 Inception-bn by GPU  | 
 72.38  | 
 90.61  | 
 71.98  | 
 90.26  | 
 71.78  | 
 90.26  | 
 Threshold by min/max  | 
| 
 71.98  | 
 90.36  | 
 Threshold by entropy loss  | 
|||||
| 
 Inception-bn by MKL-DNN  | 
 72.36  | 
 90.58  | 
 72.21  | 
 90.50  | 
 72.16  | 
 90.43  | 
 Threshold by min/max  | 
| 
 72.19  | 
 90.45  | 
 Threshold by entropy loss  | 
|||||
Performance
On performance part, both fusion and quantization can provide the huge improvement on various kinds of topologies.
Below is the inference performance data(images/sec) from the internal branch based on SKX-8180 1 socket with batch size 64.
在性能方面,融合和量化都可以为各种拓扑结构提供巨大的改进。
以下是基于批处理大小为64的SKX-8180 套接字的内部分支的推理性能数据(图像/秒)。
| 
 Topology  | 
 Base  | 
 With Fusion  | 
 With Fusion + Quantization  | 
| 
 resnet50-v1  | 
 208.17  | 
 348.80  | 
 568.25  | 
| 
 resnet50-v2  | 
 198.87  | 
 256.10  | 
 
  | 
| 
 vgg-16  | 
 92.11  | 
 101.00  | 
 150.92  | 
| 
 inception-bn  | 
 475.74  | 
 658.75  | 
 836.94  | 
| 
 inception-v3  | 
 175.97  | 
 227.29  | 
 327.39  | 
| 
 inception-v4  | 
 88.99  | 
 109.15  | 
 
  | 
| 
 inception-resnet-v2  | 
 104.13  | 
 124.75  | 
 
  | 
| 
 mobilenet 1.0  | 
 668.71  | 
 1380.64  | 
 1788.95  | 
| 
 squezenet  | 
 708.63  | 
 849.27  | 
 975.90  | 
测试用例量化解决方案仍在开发中。准备好后会分享更多的数据。
测试需要包括两个部分。第一个是图形转换测试。需要确保:
| 
 Step  | 
 Criterion  | 
| 
 1  | 
 所有MKL-DNN算子按执行方式划分为一个或多个子图。  | 
| 
 2  | 
 可以捕获所需的模式并创建所需的融合算子。  | 
| 
 3  | 
 量化过程可以将期望的算子转换为具有正确数据连接的量化版本。  | 
另一个是MKL-DNN特定融合算子的单元测试。测试应涵盖所有融合场景,以确保融合算子能够提供准确的结果。
Q & A
•用户将如何调用该功能-要使用的工作流、命令和API是什么?
此功能将在其成熟后启用。
•计划进行哪些API增强(或更改)?有关于向后兼容性的问题吗?
此更改应用了方案提供的API,没有向后兼容性问题。
•调度的单元和集成测试是什么?完整模型的E2E测试是好的,需要一些小测试,可以通过PR检查和常规回归来执行。
将进行完整的测试,包括单元测试和模型级测试。增加单元测试,检查生成的图形和融合运算器输出的正确性。
模型级测试将检查新变化的训练和推理精度。
•添加非CV测试用例。
测试了RNN,GAN,RL网络。例如,通过sockeye模型(GNMT、transformers)验证性能和功能。
•是否正确地假设用户选择完全独立于底层后端的算子?
不完全是。在这个阶段,后端流不会随子图而改变。
通过在runtime生成变量(USE \u MKLDNN,USE \u CUDNN)和ctx(gpu,cpu)来指定用户的后端。
•这是否意味着如果要卷积,例如,mxnet将自动在cpu、GPU和mkldnn之间进行选择?如果是的话,这到底是怎么做到的?
不,按照当前的MXNet后端使用情况,用户不能在不同的后端之间切换单个算子。
•认为重要的是,必须明确区分算子及其不同的实现。最后,用户应该能够定义一个网络图,有责任找到执行它的最佳方式。
同意。最后,应该达到这个状态,但这不是这一步的目标。
                    
                
                
            
        
浙公网安备 33010602011771号