1. 引言

在算法模型部署阶段,大家可能会遇到这三个问题:

  1. 为了保证精度,模型尾部 conv/linear 需要是 int32 输出
  2. 为了适配后处理代码,模型尾部 conv/linear 输出 layout 有时是 NCHW 的,有时是 NHWC 的
  3. 为什么 conv/linear 输出的 scale 会是 1?这符合预期吗?

本文使用 pytorch 框架,以 conv 为例,介绍如何同时满足 conv int32 + NCHW/NHWC 这两种情况。另外,专开一个章节介绍 scale 为 1 的原因。

2. 输出类型/layout 解读

2.1 Conv int32 + NCHW

从一个基础示例看 conv 输出类型与 layout:

class SmallModel(nn.Module):
    def __init__(self):
        super(SmallModel, self).__init__()
        self.quant = QuantStub()
        self.dequant = DeQuantStub()
        self.conv1 = nn.Conv2d(in_channels=1, out_channels=256, kernel_size=1)
        self.batchnorm = nn.BatchNorm2d(256)
        self.relu = nn.ReLU()
        self.conv2 = nn.Conv2d(in_channels=256, out_channels=60, kernel_size=1)
    
    def forward(self, x):
        x = self.quant(x)
        x = self.conv1(x)
        x = self.batchnorm(x)
        x = self.relu(x)
        x = self.conv2(x)
        x = self.dequant(x)
        return x

example_input = torch.randn(8, 1, 1, 160)
model = SmallModel()
output = model(example_input)

进行工具链量化转换后,输出 conv 情况如下图:

Description

BPU conv 输出默认是 NHWC 的,由于 pytorch 框架输出是 NCHW 的,所以工具会在模型尾部自动加一个 transpose 来保证 layout 一致。此时,模型尾部 conv 输出也是 int32 的,符合 conv int32 + NCHW 预期。

2.2 Conv int32 + NHWC

  • 错误示范
class SmallModel(nn.Module):
    def __init__(self):
        super(SmallModel, self).__init__()
        self.quant = QuantStub()
        self.dequant = DeQuantStub()
        self.conv1 = nn.Conv2d(in_channels=1, out_channels=256, kernel_size=1)
        self.batchnorm = nn.BatchNorm2d(256)
        self.relu = nn.ReLU()
        self.conv2 = nn.Conv2d(in_channels=256, out_channels=60, kernel_size=1)

    def forward(self, x):
        x = self.quant(x)
        x = self.conv1(x)
        x = self.batchnorm(x)
        x = self.relu(x)
        x = self.conv2(x)
        x = x.permute(0,2,3,1)
        x = self.dequant(x)
        return x

example_input = torch.randn(8, 1, 1, 160)
model = SmallModel()
output = model(example_input)

进行工具链量化转换后,输出 conv 情况如下图:

Description

尾部 conv 输出 layout 符合预期。

尾部 conv 输出 int16,不符合预期。原因是:在模型中,只有 conv 与 dequant 直接相连,conv 才会是 int32。

怎么实现 conv int32 + NHWC 输出呢?

  • 正确示范
class SmallModel(nn.Module):
    def __init__(self):
        super(SmallModel, self).__init__()
        self.quant = QuantStub()
        self.dequant = DeQuantStub()
        self.conv1 = nn.Conv2d(in_channels=1, out_channels=256, kernel_size=1)
        self.batchnorm = nn.BatchNorm2d(256)
        self.relu = nn.ReLU()
        self.conv2 = nn.Conv2d(in_channels=256, out_channels=60, kernel_size=1)

    def forward(self, x):
        x = self.quant(x)
        x = self.conv1(x)
        x = self.batchnorm(x)
        x = self.relu(x)
        x = self.conv2(x)
        x = self.dequant(x)
        x = x.permute(0,2,3,1)
        return x

example_input = torch.randn(8, 1, 1, 160)
model = SmallModel()
output = model(example_input)

在 dequant 后面加 permute 即可实现 conv int32 + NHWC 输出。

Description

3. 什么时候 scale 为 1

在第 2 节中的示例,正常走工具链搭建 QAT 的流程,一般情况下,都不会出现 scale 为 1 的情况,如下图示例:箭头指向的位置都是 scale 的数值。

Description

什么时候 scale 会是 1 呢?首先要来了解 scale=1 是在什么时候生成的:在 prepare 初始化模型的时候,scale 为 1,举个例子,看 scale 的变化

calib_model = prepare(model.eval(), example_input, calibration_8bit_weight_16bit_act_qconfig_setter)
print("calib_model:", calib_model)        # scale均为1

calib_model.eval()
set_fake_quantize(calib_model, FakeQuantState.CALIBRATION)
print("calib_model:", calib_model)        # scale均为1
calib_model(example_input)

calib_model.eval()                            
print("calib_model:", calib_model)        # scale不为1
set_fake_quantize(calib_model, FakeQuantState.VALIDATION)
calib_out = calib_model(example_input)
print("calib_model:", calib_model)        # scale不为1

qat_bc = export(calib_model, example_input)

根据上述代码,沿着这个线索来分析 scale 为 1 的可能原因。

  • 没校准,直接 export 导出 bc 文件
  • 在进行模型编译时,采用 prepare 后加载权重的方式,若权重中的 scale 为 1,则编译时 scale 也为 1
  • 在进行模型编译时,采用 prepare 后加载权重的方式,加载权重时,部分位置的权重没加载进去,这部分 scale 就会是 1

scale 为 1 一定就是错的吗?其实不一定,只能说大部分是错的。判断 scale=1 正确与否,跑一下模型推理,看结果是否正确即可~

4. 典型问题

问题描述:qat 模型精度正常,export 后的 qat.bc 精度不正常,且在 convert+compile 后发现,部分 conv 输出 scale 为 1,量化类型为 int16。
在这里插入图片描述

最终原因:训练 qat 结束保存权重时,网络某输出结构为:

        x = self.conv2(x)
        x = self.dequant(x)  

为了适配板端部署 layout 要求,直接修改该输出结构为:

        x = self.conv2(x)
        x = x.permute(0,2,3,1)
        x = self.dequant(x)  

x)
x = self.dequant(x)


为了适配板端部署 layout 要求,直接修改该输出结构为:

```Plain
        x = self.conv2(x)
        x = x.permute(0,2,3,1)
        x = self.dequant(x)  

并加载了之前训练的权重,且未关注 miss key/unexpected key,此时会出现部分 conv 输出 scale 为 1,量化类型为 int16 的问题。

Logo

加入社区

更多推荐