在当今的人工智能领域,视觉变换器(Vision Transformers,ViTs)已经成为了一种颠覆性的力量,正在挑战传统的卷积神经网络(CNNs)。而在这个竞争激烈的环境中,后训练量化(Post-Training Quantization, PTQ)作为一种有效的模型压缩方法,开始受到越来越多的关注。本文将探讨一种新提出的量化方法——ERQ(Error Reduction for Quantization),它通过创新的两步策略来降低视觉变换器中的量化误差。
量化的必要性
随着深度学习模型的快速发展,尤其是在计算机视觉任务中,模型的复杂性和计算要求不断增加。这种复杂性在视觉变换器中尤为明显,由于其独特的架构和自注意力机制,ViTs 的计算需求和内存占用非常高,这使得它们在资源受限的环境中应用受到挑战。因此,如何有效地进行模型量化,以降低其存储和计算成本,成为了学术界和工业界的一个重要研究方向。
量化通常涉及将权重和激活的数值精度降低,以便更高效地利用硬件资源。PTQ 是一种在模型训练完成后进行量化的方法,它通过使用少量的校准数据集来实现这一目标,这样可以显著降低计算开销。近年来,许多研究者提出了不同的 PTQ 方法,然而大部分方法忽视了量化权重和激活之间复杂的相互依赖关系,导致了显著的量化误差。
ERQ:解决量化误差的双重策略
针对这一问题,ERQ 提出了一个精细的两步量化策略,旨在分别减少由激活和权重量化引起的量化误差。该方法的第一步是激活量化误差减少(Activation Quantization Error Reduction, Aqer),它通过将激活量化误差的最小化视为一个岭回归问题来解决。具体而言,Aqer 的目标是最小化在量化激活后产生的均方误差(MSE)。
在这个式子中,W是权重,x是输入,\delta x和\delta W分别表示激活和权重的量化误差。通过求解这个岭回归问题,ERQ 有效地更新了权重,从而减少了激活量化带来的误差。
权重量化误差减少(Wqer)
在完成激活量化误差的减少后,ERQ 进入第二步:权重量化误差减少(Weight Quantization Error Reduction, Wqer)。Wqer 采用逐步的量化和修正策略,逐步量化权重,并通过引入“舍入精炼”(Rounding Refinement)技术,进一步降低量化误差。
在每一次迭代中,ERQ 首先量化一半的权重,然后通过计算量化误差来调整舍入方向。这一过程不仅提高了量化的精度,也使得后续的权重更新更加有效。
通过这种方式,ERQ 能够有效地减小由于权重量化产生的误差,并最终提高模型的整体准确性。
实验结果与讨论
在一系列的实验中,ERQ 表现出了优异的性能。特别是在图像分类任务上,ERQ 在 W3A4 的 ViT-S 模型上超过了现有最先进的 GPTQ 方法,其准确率提升了 22.36%。此外,ERQ 还在对象检测和实例分割等任务中展示了广泛的适用性。
对于不同的模型和任务,ERQ 的有效性得到了验证。例如,在使用 COCO 数据集进行对象检测时,ERQ 也显著提高了模型的 AP(平均精度)指标,验证了其在实际应用中的潜力。
然而,ERQ 也有其局限性。尽管目前在权重量化上取得了显著进展,但对于自注意力层的量化误差仍需进一步的研究。此外,ERQ 尚未扩展到大型语言模型(LLMs)的应用,未来的工作将集中在如何将这一方法推广到更广泛的模型架构上。
结论
ERQ 的提出为后训练量化提供了一种新的思路,通过系统性地减少激活和权重的量化误差,为视觉变换器的有效部署铺平了道路。随着对模型压缩研究的不断深入,ERQ 有望在未来的研究和应用中发挥更大的作用。
参考文献
- Yunshan Zhong et al., "ERQ: Error Reduction for Post-Training Quantization of Vision Transformers".
- Dosovitskiy et al., "An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale".
- Touvron et al., "Training data-efficient image transformers & distillation through attention".
- Liu et al., "Swin Transformer: Hierarchical Vision Transformer using Shifted Windows".
- Frantar et al., "GPTQ: Generalized Post-Training Quantization".
以上文章以通俗易懂的方式探讨了 ERQ 及其在视觉变换器量化中的应用,展现了量化领域的最新进展和未来的研究方向。
欢迎来到这里!
我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。
注册 关于