《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 基于改進U-Net的多尺度層級融合去霧網(wǎng)絡
基于改進U-Net的多尺度層級融合去霧網(wǎng)絡
網(wǎng)絡安全與數(shù)據(jù)治理
季云云1,熊亮2
1.馬鞍山學院大數(shù)據(jù)與人工智能學院; 2.國軒高科動力能源有限公司
摘要: 計算機視覺任務中,霧霾的存在會導致圖像出現(xiàn)質(zhì)量下降問題,現(xiàn)有的去霧方法因全局與局部特征協(xié)同建模不足及多尺度霧濃度自適應處理欠缺,常出現(xiàn)去霧殘留和色彩失真?;诟倪MUNet的多尺度層級融合去霧網(wǎng)絡以多尺度輸入捕獲層級特征,結合分層次特征融合優(yōu)化信息傳遞。相鄰層嵌入特征增強塊自適應聚焦關鍵區(qū)域,跨層交叉融合實現(xiàn)多尺度互補,促使網(wǎng)絡內(nèi)部信息充分流動。實驗表明,該方法在合成與真實數(shù)據(jù)集上均優(yōu)于對比方法,尤其在細節(jié)恢復、色彩保真和真實場景泛化性方面表現(xiàn)突出。
中圖分類號:TP391.4文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2025.11.006引用格式:季云云,熊亮. 基于改進UNet的多尺度層級融合去霧網(wǎng)絡[J].網(wǎng)絡安全與數(shù)據(jù)治理,2025,44(11):30-37.
Multi-scale hierarchical fusion dehazing network based on enhanced U-Net
Ji Yunyun1,Xiong Liang2
1. School of Big Data and Artificial Intelligence, Ma′anshan University,; 2. Gotion High-Tech Power Energy Co., Ltd.
Abstract: In computer vision tasks, the presence of haze leads to a degradation in image quality. Existing dehazing methods frequently suffer from residual haze and color distortion due to insufficient joint modeling of global and local features and the lack of adaptive processing for multi-scale haze concentrations. The proposed multi-scale hierarchical fusion dehazing network based on enhanced U-Net captures hierarchical features through multi-scale inputs and refines information transmission via hierarchical feature fusion. Adjacent layers embed feature enhancement blocks to adaptively focus on key regions, while cross-layer cross-fusion achieves multi-scale complementarity, facilitating full internal information flow. Experiments demonstrate that the method outperforms comparative approaches on both synthetic and real-world datasets, particularly in detail recovery, color fidelity, and generalization to real scenes.
Key words : image dehazing; U-Net; multi-scale; feature fusion

引言

光線在傳播過程中會因大氣中懸浮的微小顆粒和塵埃而發(fā)生多次散射,導致捕獲的圖像質(zhì)量退化,出現(xiàn)模糊、對比度下降、色彩失真等問題[1]。在計算機視覺領域中,模型訓練離不開清晰圖像的支持,尤其是涉及語義分割、目標檢測等相關任務,因此清晰圖像的獲取尤為重要。圖像去霧旨在通過一系列處理,將模糊的霧霾圖像還原成清晰的無霧圖像,從而為相關任務提供技術支持。

圖像去霧技術根據(jù)核心原理可分為三類:基于圖像增強、基于物理模型及基于深度學習的方法[2]。早期圖像去霧技術主要依賴于圖像增強,通過調(diào)整圖像的對比度或頻域從而在視覺上改善清晰度,但未能從根本上消除霧霾。例如,Wu等人提出利用小波變換方法將圖像分解為高頻與低頻分量[3],其中高頻分量包含了邊緣紋理等信息,通過處理高頻系數(shù)增強圖像細節(jié),提升圖像清晰度;Oakley等人提出直方圖均衡化[4],通過調(diào)整圖像的灰度直方圖分布,增強圖像對比度;Zhang等人基于Retinex理論[5],將去霧看作是解耦反射分量和光照分量的過程,通過分離光照干擾以恢復場景反射特性,從而改善圖像質(zhì)量。然而這類方法在處理非均勻霧霾或復雜場景時易出現(xiàn)色彩失真或過增強等問題。相比之下,基于物理模型的去霧方法,則是從大氣光的成像原理出發(fā),用大氣散射模型描述霧霾圖像的成因,如式(1)所示:

I(x)=J(x)t(x)+A(1-t(x))(1)

其中I表示霧霾圖像,J表示無霧圖像,t表示傳輸率,A表示大氣光。由于t和A是未知變量,求解無霧圖像J則成為一個病態(tài)問題,因此這類方法往往需要引入先驗知識。經(jīng)典的有He等人[6]提出的暗通道先驗,指出無霧的清晰圖像在RGB顏色空間上至少有一個通道上的像素值接近于0;Berman等人[7]提出“霧線”先驗,指出RGB顏色空間中顏色相似的像素點會在有霧的情況由原先的簇狀聚集轉(zhuǎn)變成直線;Zhu等人[8]提出顏色衰減先驗,指出像素的亮度和飽和度的差值和霧霾濃度呈正相關。引入這些先驗知識,再結合大氣散射模型,可求解出無霧圖像J。但這些先驗知識往往都是依賴于特定條件或場景,通過研究大量數(shù)據(jù)總結得出,一旦場景發(fā)生改變,先驗可能會失效,進而影響最終的去霧效果。如He等人提出的暗通道先驗,當圖像中存在大面積的天空區(qū)域時,去霧后會產(chǎn)生嚴重的失真和Halo效應[9],如圖1所示。隨著技術的發(fā)展,研究者為了避免這一局限性,開始將深度學習應用于去霧任務,前期主要采用兩段式,如Cai等人[10]提出的DehazeNet網(wǎng)絡,先利用卷積計算透射率t,再結合物理模型求解出無霧圖像。盡管級聯(lián)估計能夠逐步細化透射率與大氣光參數(shù),但該過程易發(fā)生參數(shù)誤差疊加[11]。于是,研究者們進一步提出端到端的去霧方法,如Li等人[12]提出的AOD-Uet,直接將霧圖作為輸入,無霧圖像作為輸出,利用神經(jīng)網(wǎng)絡計算二者之間的映射關系,擺脫了物理模型的束縛。

無標題.png

圖1暗通道去霧結果

目前,基于深度學習的端到端的去霧方法已經(jīng)成為主流,通過數(shù)據(jù)驅(qū)動學習霧霾圖像到清晰圖像間的映射關系,其中基于編碼器-解碼器的網(wǎng)絡結構,由于其可擴展性以及低復雜性,在去霧任務中受到廣泛青睞。然而自然場景下的霧霾分布呈現(xiàn)顯著的空間非均勻性,傳統(tǒng)的編碼器-解碼器結構處理這種復雜場景時存在明顯局限性:一是編碼器在下采樣過程中,雖然能夠提取高層語義特征,但往往會丟失大量高頻細節(jié)信息,尤其是在霧霾濃度較高的遠景區(qū)域,圖像的紋理和邊緣細節(jié)容易被過度平滑;二是解碼器在上采樣階段,難以精確重建與深度相關的霧霾分布特征,尤其是在景深變化劇烈的區(qū)域,容易出現(xiàn)不自然的過渡效果;三是網(wǎng)絡信息傳遞單向,缺乏不同層級特征的動態(tài)交互,導致全局與局部特征協(xié)同不足。這些問題最終導致重建圖像出現(xiàn)偽影、色彩失真以及對比度不足,從而削弱了去霧效果[13]。

為解決上述問題,本文提出了一種基于改進UNet的多尺度層級融合去霧網(wǎng)絡(MHFEUN),主要貢獻如下:

(1)針對編碼器下采樣過程中高頻細節(jié)丟失問題,基于UNet改進結構,引入多尺度輸入機制,通過不同尺度圖像捕獲層級特征,補充高頻細節(jié)信息。

(2)針對解碼器上采樣過程中特征重建問題,提出了特征增強塊(Feature Enhancement Blocks, FEB),通過融合高效通道注意力(Efficient Channel Attention, ECA)機制和像素注意力(Pixel Attention, PA)機制,精準聚焦景深劇烈變化區(qū)域的關鍵特征,避免空間信息丟失。

(3)針對全局與局部特征協(xié)同欠缺問題,提出了多尺度特征融合模塊(Multiscale Feature Fusion Module, MSFM),以自適應特征交互機制替代傳統(tǒng)線性連接,促進不同層級特征動態(tài)交互,實現(xiàn)全局與局部特征的充分協(xié)同。


本文詳細內(nèi)容請下載:

http://m.ihrv.cn/resource/share/2000006859


作者信息:

季云云1,熊亮2

(1.馬鞍山學院大數(shù)據(jù)與人工智能學院,安徽馬鞍山243100;

2.國軒高科動力能源有限公司,安徽合肥230041)


subscribe.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權禁止轉(zhuǎn)載。