《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信与网络 > 设计应用 > GSDCPeleeNet:基于PeleeNet的高效轻量化卷积神经网络
GSDCPeleeNet:基于PeleeNet的高效轻量化卷积神经网络
2021年电子技术应用第3期
倪伟健,秦会斌
杭州电子科技大学 电子信息学院 新型电子器件与应用研究所,浙江 杭州310018
摘要: 卷积神经网络在各个领域都发挥着重要的作用,尤其是在计算机视觉领域,但过多的参数数量和计算量限制了它在移动设备上的应用。针对上述问题,结合分组卷积方法和参数共享、密集连接的思想,提出了一种新的卷积算法Group-Shard-Dense-Channle-Wise。利用该卷积算法,在PeleeNet网络结构的基础上,改进出一种高效的轻量化卷积神经网络——GSDCPeleeNet。与其他卷积神经网络相比,该网络在具有更少参数的情况下,几乎不损失识别精度甚至识别精度更高。该网络选取1×1卷积层中卷积核信道方向上的步长s作为超参数,调整并适当地选取该超参数,可以在网络参数量更小的情况下,拥有更好的图像分类效果。
中圖分類號: TN911.73;TP399
文獻標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.200844
中文引用格式: 倪偉健,秦會斌. GSDCPeleeNet:基于PeleeNet的高效輕量化卷積神經(jīng)網(wǎng)絡(luò)[J].電子技術(shù)應(yīng)用,2021,47(3):22-26,30.
英文引用格式: Ni Weijian,Qin Huibin. GSDCPeleeNet:efficient lightweight convolutional neural based on PeleeNet[J]. Application of Electronic Technique,2021,47(3):22-26,30.
GSDCPeleeNet:efficient lightweight convolutional neural based on PeleeNet
Ni Weijian,Qin Huibin
Institute of New Electronic Devices and Applications,School of Electronic Information,Hangzhou Dianzi University, Hangzhou 310018,China
Abstract: Convolutional neural network plays an important role in various fields, especially in the field of computer vision, but its application in mobile devices is limited by the excessive number of parameters and computation. In view of the above problems, a new convolution algorithm, Group-Shard-Dense-Channle-Wise, is proposed in combination with the idea of grouping convolution and parameter sharing and dense connection. Based on the PeleeNet network structure, an efficient lightweight convolutional neural network, GSDCPeleeNet, is improved by using the convolution algorithm. Compared with other convolutional neural networks, this network has almost no loss of recognition accuracy or even higher recognition accuracy under the condition of fewer parameters. In this network, the step size s in the channel direction of convolution kernel in the 1×1 convolutional layer is selected as the super parameter. When the number of network parameters is smaller, better image classification effect can be achieved by adjusting and selecting the super parameter appropriately.
Key words : image classification;convolutional neural network;lightweight;dense connectivity;parameter sharing

0 引言

    隨著深度學(xué)習(xí)理論的提出和硬件設(shè)備計算速度的不斷突破,卷積神經(jīng)網(wǎng)絡(luò)在近年來得以迅速發(fā)展。2012年,AlexNet[1]在ImageNet大規(guī)模視覺識別挑戰(zhàn)賽中獲得了圖像分類冠軍。之后,為了提高網(wǎng)絡(luò)模型的準確率,研究人員不斷地加深卷積網(wǎng)絡(luò)的深度,相繼提出了性能更加優(yōu)越的卷積神經(jīng)網(wǎng)絡(luò),如VGG16[2]、GoogLeNet[3]和DenseNet[4]等。

    這些網(wǎng)絡(luò)準確率普遍較高,但是有著非常復(fù)雜的模型和很深的層次,參數(shù)量十分巨大。在實際生活的應(yīng)用中,模型往往需要在資源有限的嵌入式設(shè)備和移動設(shè)備上運行。因此,研究人員開始著手研究,并且相繼提出了更高效的輕量級卷積神經(jīng)網(wǎng)絡(luò)。它們保持了網(wǎng)絡(luò)的性能,大大減少了模型的參數(shù)量,從而減少計算量,提升了模型速度。

    曠視科技的ShuffleNet在ResNet[5]單元上進行了改進,有兩個創(chuàng)新的地方:逐點分組卷積和通道混洗[6]。WANG R J等提出的PeleeNet是一種輕量級網(wǎng)絡(luò),它在DenseNet基礎(chǔ)上進行了改進和創(chuàng)新,主要有五個方面的結(jié)構(gòu)改進[7]。ZHANG J N等提出了一種卷積核及其壓縮算法,通過這種卷積方法,ZHANG J N等發(fā)明了輕量卷積神經(jīng)網(wǎng)絡(luò)SDChannelNets[8]

    可以看出,上述輕量卷積神經(jīng)網(wǎng)絡(luò)均存在一定不足。在使用分組卷積時,為了解決分組卷積導(dǎo)致的信息丟失問題,需要增加額外的操作。在運用1×1卷積時,會導(dǎo)致1×1卷積的參數(shù)量在網(wǎng)絡(luò)總參數(shù)量中占據(jù)大部分。通過分析,這些網(wǎng)絡(luò)需要通過調(diào)整相應(yīng)的超參數(shù)來提高網(wǎng)絡(luò)識別精度。這些操作往往會大大增加網(wǎng)絡(luò)模型參數(shù)量。

    為了解決這個不足,本文結(jié)合參數(shù)共享、密集連接的卷積方法和分組卷積,基于PeleeNet網(wǎng)絡(luò),提出了輕量級卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)GSDCPeleeNet。適當(dāng)調(diào)節(jié)超參數(shù),在損失較小準確度甚至擁有更高準確度的情況下,減小了模型的參數(shù)量。  




本文詳細內(nèi)容請下載:http://m.ihrv.cn/resource/share/2000003403




作者信息:

倪偉健,秦會斌

(杭州電子科技大學(xué) 電子信息學(xué)院 新型電子器件與應(yīng)用研究所,浙江 杭州310018)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。