- 產品
- 產品解決方案
- 行業解決方案
- 案例
- 數據資產入表
- 賦能中心
- 伙伴
- 關于
時間:2022-06-30來源:我會放電瀏覽數:324次
借助深度神經網絡強大的學習能力,大量的有監督方法都已經被提出并被應用于圖像去霧。通過使用大量合成的有霧-清晰圖像對的訓練,有監督的深度去霧方法在特定的測試集上取得了令人滿意的結果。然而,合成的有霧圖像和真實世界的有霧圖像之間存在較大的差距。

為了克服在合成數據集上訓練的去霧模型的過擬合問題,許多最近的方法試圖使用非成對數據進行訓練來提高模型的泛化能力。然而其中大多數方法僅僅簡單地遵循 CycleGAN 的思路構建去霧循環和上霧循環,卻忽略了現實世界中霧霾環境的物理特性,即霧霾對物體可見度的影響隨深度和霧氣密度而變化。
在本文中,我們提出了一種自增強的圖像去霧框架,稱為D4(Dehazing via Decomposing transmission map into Density and Depth),用于圖像去霧和霧氣生成。我們所提出的框架并非簡單地估計透射圖或清晰圖像,而是聚焦于探索有霧圖像和清晰圖像中的散射系數和深度信息。通過估計的場景深度,我們的方法能夠重新渲染具有不同厚度霧氣的有霧圖像,并用于訓練去霧網絡的數據增強。值得注意的是,整個訓練過程僅依靠非成對的有霧圖像和清晰圖像,成功地從單個有霧圖像中恢復了散射系數、深度圖和清晰內容。
綜合實驗表明,我們的方法在參數量和 FLOP 更少的情況下去霧效果優于最先進的非成對去霧方法。

01研究背景
霧霾是由氣溶膠粒子在大氣中的散射效應引起的一種自然現象。它會嚴重影響圖片中的內容的可見性,給人類和計算機視覺系統帶來影響。
借助深度神經網絡強大的學習能力,大量的有監督方法都已經被提出并被應用于圖像去霧。通過使用大量合成的有霧-清晰圖像對的訓練,有監督的深度去霧方法在特定的測試集上取得了令人滿意的結果。然而,合成的有霧圖像和真實世界的有霧圖像之間存在較大的差距。僅僅在成對圖像上進行訓練的去霧模型很容易過擬合,從而導致在真實世界有霧圖像中泛化很差的現象。
而由于現實世界中有霧/清晰的圖像很難獲得,所以近年來,研究人員提出了許多使用非成對有霧/清晰圖像的深度學習方法來訓練圖像去霧模型。其中,許多方法采用了基于CycleGAN[1] 的思想,來構建去霧循環和上霧循環,從而可以在進行有霧圖像和清晰圖像進行轉換的同時保持內容一致性。
然而,我們認為,簡單地使用 CycleGAN 的思想,通過網絡端到端地實現有霧圖像域和清晰圖像域之間的轉換并不能夠很好地解決非成對圖像去霧這一問題?,F有的基于構建循環的去霧方法忽略了真實有霧環境的物理特性,即真實世界中的霧氣對圖像的影響隨著霧氣濃度和深度的變化而變化,這種關系已經由大氣散射模型[2]給出描述,即一張有霧圖像可以表示為:
(1)
其中,J(x)為清晰圖像,A為大氣光,可以使用[3]中的方法直接確定。t(x)為透射圖,可進一步表示為:
(2)
其中??為散射系數,可表示霧氣的濃度,d(x)表示深度。如圖1(i)和(iii)-(e)所示,基于 CycleGAN 的方法傾向于合成具有固定厚度的霧氣,并且可能錯誤地模擬霧氣效應,即,隨著場景深度的增加,霧氣應該變得更厚。
本方法目標是在原始 CycleGAN 處理非成對圖像去霧方法的基礎上,引入考慮霧氣密度與場景深度的物理模型,使得模型在訓練過程中可以合成更加真實且厚度有變化的霧氣,從而達到數據增強,進而提升模型去霧效果的目的。

圖1 (1)基于CycleGAN的非成對去霧圖示,(2)所提出的方法圖示及(3)結果對比
02基于深度和密度分解的自增強非成
對圖像去霧方法
我們提出了一種基于深度和霧氣密度分解的自增強非成對圖像去霧框架。其訓練過程包括兩個分支,去霧-上霧分支和上霧-去霧分支。如圖2上半部分,在去霧-上霧分支中,一張有霧圖像??首先輸入去霧網絡??中得到估計的透射圖??和估計的散射系數?,進一步通過式(1)合成清晰圖像???。
同時,根據式(2),其深度??可以通過估計的透射圖和散射系數一并求出。之后將??輸入深度估計網絡??,得到估計的深度圖??。然后使用得到的深度圖??和先前得到的散射系數??根據式(1)、(2)得到粗有霧圖像,再經過細化網絡??得到最終的上霧圖像???。而在上霧-去霧分支中,如圖2下半部分,起點則變為了清晰圖像???。
其首先輸入深度估計網絡??得到估計的深度??,結合在均勻分布里隨機采樣的散射因子??,根據式(1)、(2)得到粗上霧圖像,再經過細化網絡??得到上霧圖像???。得到的上霧圖像再經過去霧網絡??得到估計的透射圖??和估計的散射系數??,進一步通過式(1)合成清晰圖像???。
其中對散射因子??進行隨機采樣是我們的一個創新點,因為自然界中的霧氣是有著輕重薄厚之分的,所以通過對散射因子??進行隨機采樣并輸入到下面的霧氣合成部分,我們的網絡便可以在訓練過程中提供富于薄厚變化的霧氣,從而達到自增強的目的。

圖2 框架訓練過程示意圖
注意這里??與??是非成對的清晰/有霧圖像。為了保證整個框架能夠正常訓練,我們使用了若干項損失函數,包括循環一致性損失,對抗損失,偽散射因子監督損失和偽深度監督損失。
循環一致性損失要求在兩個分支中,重建的有霧圖像???應當與給定的有霧圖像??一致,重建的清晰圖像???應當與給定的清晰圖像??一致。其目的是保持圖像內容的一致性。循環一致性損失??表示為:
對抗損失評估生成的圖像是否屬于特定域。換句話說,它約束我們的去霧和再霧化圖像應該是視覺上逼真的,并且分別遵循與訓練集??和???中的圖像具有相同的分布。對于去霧網絡??和對應的判別器??,對抗損失可以表示為:
其中??是從清晰圖像集合??中采樣得到的真實清晰圖像樣本。??是通過去霧網絡??得到的去霧結果。??是用于判斷輸入圖像是否屬于清晰域的判別器。相對應的,圖像細化網絡??和對應的判別器??所使用的對抗損失可以表示為:
其中??是從有霧圖像集合??中采樣得到的真實有霧圖像樣本。??是通過細化網絡??得到的上霧圖片。??是用于判斷輸入圖像是否屬于有霧域的判別器。
由于并不存在直接可用的成對深度信息與成對的散射因子信息用于訓練深度估計網絡和散射因子估計網絡。我們引入了偽散射因子監督損失和偽深度監督損失來訓練這兩個子網絡。
偽散射因子監督損失是指在上霧-去霧分支中,由去霧網絡??預測的散射因子??應當與隨機生成的??的值保持一致。其可以表示為:
偽深度監督損失是指在去霧-上霧分支中,由深度網絡??預測的深度??應當與由??和??求出的??保持一致。其可以表示為:
其中深度估計網絡??直接由深度估計損失??優化,其余的模塊則由??優化,其中??。
03實驗結果

表1 各方法在各數據集上的性能表現
我們將所提出的方法與其他有監督,無監督以及非成對的去霧方法進行了對比,其中有監督的對比方法包括 EPDN[4]、FFANet[5]、HardGAN[6]、PSD[7],非成對方法包括CycleGAN[1], CycleDehaze[8], DisentGAN[9], RefineDNet[10],無監督方法包括DCP[3],YOLY[11]。
定量實驗結果比較。為了驗證我們的方法相較于有監督的方法有著更好的泛化性能,相較于其他無監督或非成對方法也有更好的去霧性能,我們在 SOTS-indoor 數據集上對這些方法進行訓練并在其他數據集上測試它們的性能。同時我們還測試了這些方法的模型參數量和 FLOPs 用來測試這些模型的效率。結果如表1所示。
定性實驗結果比較。為了驗證我們的方法相較于其他方法的優勢,我們還在多個數據集以及真實有霧圖像上進行了定性的測試。其結果如圖3、圖4所示。其中圖3第一組,第二組圖像是 SOTS-indoor 的測試集,與訓練集分布類似,可以看到 FFANet 去霧效果最好,我們的方法優于除了 FFANet 的其余方法。
第三四張分別來自 SOTS-outdoor 和 IHAZE 數據集,與訓練集分布不同。可以看出我們的方法相較其他方法去霧更加徹底,且相對其他方法如 cycledehaze 顏色失真較小,生成的結果更加自然。圖4展示了兩個真實圖像去霧的例子,可以看到我們的方法去霧結果明顯好于其他方法,說明我們的模型泛化能力相對其他模型有著明顯優勢。
除此之外,我們的方法還可以用于有霧圖像的生成,此類技術可以應用于圖像或視頻編輯中,相較于其他的方法,我們的方法生成的有霧圖像可以隨意變化霧氣的薄厚程度,而且更加富有真實感,如圖5所示。
另外,區別于其他的非成對圖像去霧方法,我們的模型還支持對清晰圖像進行相對深度預測,其效果如圖6所示,雖然相比于其他有監督的深度估計網絡,深度估計準確度有限,但我們的方法是首個能夠利用非成對的有霧/清晰圖像訓練出了能夠估計場景深度的方法。

圖3各個方法在測試集上的定性效果比較

圖4 各個方法在真實圖像上的去霧結果對比

圖5 所提出的方法在生成有霧圖像上的效果

圖6 所提出的方法在深度估計上的效果
04結論
本文提出了一種自增強的非成對圖像去霧框架D4,該框架將透射圖的估計分解為對霧氣密度(散射因子)和深度圖的預測。根據估計的深度,我們的方法能夠重新渲染具有不同霧氣厚度的有霧圖像并且用作自增強,以提高模型去霧性能。充分的實驗驗證了我們的方法相對于其他去霧方法的優越性。
但我們的方法也存在著局限性,它通常會過度估計極端明亮區域的透射圖,這將誤導深度估計網絡對過亮區域預測得到較小的深度值。并且我們發現低質量的訓練數據會導致訓練不穩定。盡管如此,我們提出的在物理模型中的變量進一步分解思路可以擴展到其他任務,比如低光照增強等。希望我們的方法能夠啟發未來的工作,尤其是底層視覺中的非成對學習任務。