深度可分离卷积参考文献
时间: 2024-03-18 22:36:59 浏览: 59
深度可分离卷积网络的理论与实战(TF2.0)
深度可分离卷积是一种在深度学习中常用的卷积操作,它可以有效地减少模型的参数量和计算量,同时保持较好的性能。深度可分离卷积由两个步骤组成:深度卷积和逐点卷积。
深度卷积(Depthwise Convolution)是指对输入的每个通道分别进行卷积操作,使用一个卷积核(filter)对每个通道进行独立的卷积运算。这样可以减少参数量,因为每个通道只需要一个卷积核。
逐点卷积(Pointwise Convolution)是指使用1x1的卷积核对深度卷积的结果进行卷积操作。逐点卷积可以用来增加通道数或者减少通道数,通过调整卷积核的数量来实现。
深度可分离卷积的优势在于可以显著减少参数量和计算量,从而提高模型的效率和速度。同时,它还可以提供较好的特征表示能力,使得模型在保持性能的同时具有更小的体积。
以下是一些关于深度可分离卷积的参考文献:
1. Chollet, F. (2017). Xception: Deep learning with depthwise separable convolutions. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1251-1258).
2. Howard, A. G., Zhu, M., Chen, B., Kalenichenko, D., Wang, W., Weyand, T., ... & Adam, H. (2017). MobileNets: Efficient convolutional neural networks for mobile vision applications. arXiv preprint arXiv:1704.04861.
3. Sandler, M., Howard, A., Zhu, M., Zhmoginov, A., & Chen, L. C. (2018). MobileNetV2: Inverted residuals and linear bottlenecks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 4510-4520).
阅读全文