引言
光線在傳播過程中會因大氣中懸浮的微小顆粒和塵埃而發(fā)生多次散射,導致捕獲的圖像質(zhì)量退化,出現(xiàn)模糊、對比度下降、色彩失真等問題[1]。在計算機視覺領域中,模型訓練離不開清晰圖像的支持,尤其是涉及語義分割、目標檢測等相關任務,因此清晰圖像的獲取尤為重要。圖像去霧旨在通過一系列處理,將模糊的霧霾圖像還原成清晰的無霧圖像,從而為相關任務提供技術支持。
圖像去霧技術根據(jù)核心原理可分為三類:基于圖像增強、基于物理模型及基于深度學習的方法[2]。早期圖像去霧技術主要依賴于圖像增強,通過調(diào)整圖像的對比度或頻域從而在視覺上改善清晰度,但未能從根本上消除霧霾。例如,Wu等人提出利用小波變換方法將圖像分解為高頻與低頻分量[3],其中高頻分量包含了邊緣紋理等信息,通過處理高頻系數(shù)增強圖像細節(jié),提升圖像清晰度;Oakley等人提出直方圖均衡化[4],通過調(diào)整圖像的灰度直方圖分布,增強圖像對比度;Zhang等人基于Retinex理論[5],將去霧看作是解耦反射分量和光照分量的過程,通過分離光照干擾以恢復場景反射特性,從而改善圖像質(zhì)量。然而這類方法在處理非均勻霧霾或復雜場景時易出現(xiàn)色彩失真或過增強等問題。相比之下,基于物理模型的去霧方法,則是從大氣光的成像原理出發(fā),用大氣散射模型描述霧霾圖像的成因,如式(1)所示:
I(x)=J(x)t(x)+A(1-t(x))(1)
其中I表示霧霾圖像,J表示無霧圖像,t表示傳輸率,A表示大氣光。由于t和A是未知變量,求解無霧圖像J則成為一個病態(tài)問題,因此這類方法往往需要引入先驗知識。經(jīng)典的有He等人[6]提出的暗通道先驗,指出無霧的清晰圖像在RGB顏色空間上至少有一個通道上的像素值接近于0;Berman等人[7]提出“霧線”先驗,指出RGB顏色空間中顏色相似的像素點會在有霧的情況由原先的簇狀聚集轉(zhuǎn)變成直線;Zhu等人[8]提出顏色衰減先驗,指出像素的亮度和飽和度的差值和霧霾濃度呈正相關。引入這些先驗知識,再結合大氣散射模型,可求解出無霧圖像J。但這些先驗知識往往都是依賴于特定條件或場景,通過研究大量數(shù)據(jù)總結得出,一旦場景發(fā)生改變,先驗可能會失效,進而影響最終的去霧效果。如He等人提出的暗通道先驗,當圖像中存在大面積的天空區(qū)域時,去霧后會產(chǎn)生嚴重的失真和Halo效應[9],如圖1所示。隨著技術的發(fā)展,研究者為了避免這一局限性,開始將深度學習應用于去霧任務,前期主要采用兩段式,如Cai等人[10]提出的DehazeNet網(wǎng)絡,先利用卷積計算透射率t,再結合物理模型求解出無霧圖像。盡管級聯(lián)估計能夠逐步細化透射率與大氣光參數(shù),但該過程易發(fā)生參數(shù)誤差疊加[11]。于是,研究者們進一步提出端到端的去霧方法,如Li等人[12]提出的AOD-Uet,直接將霧圖作為輸入,無霧圖像作為輸出,利用神經(jīng)網(wǎng)絡計算二者之間的映射關系,擺脫了物理模型的束縛。

圖1暗通道去霧結果
目前,基于深度學習的端到端的去霧方法已經(jīng)成為主流,通過數(shù)據(jù)驅(qū)動學習霧霾圖像到清晰圖像間的映射關系,其中基于編碼器-解碼器的網(wǎng)絡結構,由于其可擴展性以及低復雜性,在去霧任務中受到廣泛青睞。然而自然場景下的霧霾分布呈現(xiàn)顯著的空間非均勻性,傳統(tǒng)的編碼器-解碼器結構處理這種復雜場景時存在明顯局限性:一是編碼器在下采樣過程中,雖然能夠提取高層語義特征,但往往會丟失大量高頻細節(jié)信息,尤其是在霧霾濃度較高的遠景區(qū)域,圖像的紋理和邊緣細節(jié)容易被過度平滑;二是解碼器在上采樣階段,難以精確重建與深度相關的霧霾分布特征,尤其是在景深變化劇烈的區(qū)域,容易出現(xiàn)不自然的過渡效果;三是網(wǎng)絡信息傳遞單向,缺乏不同層級特征的動態(tài)交互,導致全局與局部特征協(xié)同不足。這些問題最終導致重建圖像出現(xiàn)偽影、色彩失真以及對比度不足,從而削弱了去霧效果[13]。
為解決上述問題,本文提出了一種基于改進UNet的多尺度層級融合去霧網(wǎng)絡(MHFEUN),主要貢獻如下:
(1)針對編碼器下采樣過程中高頻細節(jié)丟失問題,基于UNet改進結構,引入多尺度輸入機制,通過不同尺度圖像捕獲層級特征,補充高頻細節(jié)信息。
(2)針對解碼器上采樣過程中特征重建問題,提出了特征增強塊(Feature Enhancement Blocks, FEB),通過融合高效通道注意力(Efficient Channel Attention, ECA)機制和像素注意力(Pixel Attention, PA)機制,精準聚焦景深劇烈變化區(qū)域的關鍵特征,避免空間信息丟失。
(3)針對全局與局部特征協(xié)同欠缺問題,提出了多尺度特征融合模塊(Multiscale Feature Fusion Module, MSFM),以自適應特征交互機制替代傳統(tǒng)線性連接,促進不同層級特征動態(tài)交互,實現(xiàn)全局與局部特征的充分協(xié)同。
本文詳細內(nèi)容請下載:
http://m.ihrv.cn/resource/share/2000006859
作者信息:
季云云1,熊亮2
(1.馬鞍山學院大數(shù)據(jù)與人工智能學院,安徽馬鞍山243100;
2.國軒高科動力能源有限公司,安徽合肥230041)

