3.2 基于SAE的SAR圖像處理研究
SAE的特點是可自動從無標記數據中學習特征,并且給出比原始數據更好的特征描述,進一步通過該學習到的特征得到更好的分類效果。有學者將其應用于地物目標分類、艦船分類以及城市變化檢測等場景。并且通過SAE對SAR圖像進行分析,其與傳統方法相比,展現SAE具有自動學習高層特征的特性。
首先,在地物目標分類中,文獻[60–64]分別通過SAE對極化SAR數據進行了目標類型的識別。例如,西安電子科技大學的高蓉[60]針對極化SAR數據具有斑點噪聲以及數據量龐大等問題,對其進行SAE處理,同時結合了極化SAR原始特征與鄰域極化特征實現了對地物數據的有效分類。在實驗測試過程中,針對Flevoland數據的識別獲得了85.1%的準確率,對Germany數據獲得了85.3%的準確率。文獻[61,62]分別將SAE對極化SAR的識別效果與傳統方法進行比較。其中,文獻[61]同樣對Flevoland數據進行測試,運用其中10%的數據進行訓練,90%的數據進行測試,識別率達到93.58%,而運用傳統的SVM方法所獲得的識別率僅為89.86%。此外,文獻[62]對Flevoland數據進行測試,SAE方法識別率達到98.61%,而傳統的隨機森林方法對應識別率僅為97.67%,基于SVM的識別方法為97.50%。并且多層自編碼器方法僅為94.27%,可以看出對網絡加入稀疏編碼過程的必要性。在此基礎上,西安電子科技大學的石俊飛等人[62]還提出,雖然SAE方法能夠學習高層特征,有效地表示城市、森林等復雜的地物結構,卻難以保留圖像的邊界和細節信息。因此,可將SAE與極化層次語義模型相結合。實驗表明,針對San Francisco數據,相比于單獨運用SAE方法進行識別,該方法將準確率提升了0.87%[63,64]。
此外,國防科學技術大學的涂松[65]提出通過SAE深度網絡對SAR圖像進行目標提取。在大尺寸SAR圖像中,首先進行多尺寸顯著區域檢測,之后對顯著圖進行SAE深度網絡分類,實現大尺寸SAR圖像目標快速提取。其中,分別選擇600個目標樣本和600個背景雜波樣本用于訓練SAE網絡。并且為了提高效率,將所有的訓練樣本降采樣為64×64,然后將所有像素排成一個列向量,進行SAE訓練。在該SAE網絡中,輸入為4096維,隱層數量為3層,每個隱層神經元個數為20,輸出為2維。該網絡能實現車輛目標和雜波背景兩類樣本的分類。文獻[66]在進行目標分類時首先進行特征提取,進而通過歸一化和白化的預處理。針對提取到的相互獨立的特征進行SAE網絡提取編碼結果,最終獲得分類標簽。該方法充分體現了SAE方法的無監督性,且針對不同特征進行分類的能力。
SAE應用廣泛,可對城市變化情況進行檢測。由于該領域下帶標簽的已有數據量較小,因此很難通過傳統的監督學習方法實現分類。文獻[67]通過SAE進行檢測,在數據量較小的情況下,檢測概率達到92.34%,并且相比于傳統方法虛警率減小了2.64%。此外,考慮到SAR圖像具有斑點噪聲的特點,且去噪自編碼器對該噪聲具有一定程度的魯棒性。因此,中國科學技術大學的阮懷玉[68]考慮將多尺度稀疏表示與去噪自編碼器網絡相結合形成新的學習架構,實現了艦船的分類。分別對MSTAR地面目標數據集與TerraSAR-X艦船數據集進行分類,并且得到了98.83%和92.67%的識別率。
3.3 基于DBN的SAR圖像處理研究
DBN應用靈活、廣泛。其即可作為一種非監督學習模型,類似于AE,可盡可能保留原始特征,同時降低特征維數;又可以用于監督學習,類似于分類器,可盡可能減小分類錯誤率。因此,DBN可對不同SAR圖像進行識別及其他操作處理。
在極化SAR目標識別領域,前文已經介紹了CNN以及SAE方法的研究成果。而本部分主要介紹基于DBN的極化SAR目標識別處理。其中,西安電子科技大學的羅小歡[69]結合極化SAR圖像散射特征和數字圖像特征以及顏色直方圖特征訓練一個有多個RBM組成的DBN模型。具體地,首先,將極化SAR數據的相干矩陣轉化成一個9維極化SAR數據;之后,在每個維度上抽取大量模塊,并對列向量進行RBM訓練,從而獲得每個維度的結構特征;最后,將該特征與原始相干矩陣元素相結合,訓練DBN,實現極化SAR數據的分類。文獻[70]則將DBN識別結果與傳統方法識別結果進行對比,其中,DBN的識別準確率為87%,而基于SVM方法的識別率僅為44%。此外,西安電子科技大學的趙昌峰[71]將Wishart分布引入RBM,使極化SAR特征表達更加明顯,提出了Wishart RBM (WRBM)。在對Flevoland和San Francisco數據進行測試時,識別率分別達到90.06%和91.49%。
此外,文獻[72]提出由于DBN能夠充分發掘主輔強度圖和相干圖在空間域和時間域上的相關性,因此可運用該方法進行干涉SAR圖像分類處理。并且在對San Francisco進行實驗分析時,分別討論DBN層數、隱層節點數、學習率對網絡識別率的影響。最終,在4層DBN、50個隱層節點以及0.1的學習率情況下,將DBN方法與傳統方法進行對比。其中,K近鄰(K-Nearest Neighbor, KNN)、SVM、SAE與DBN識別結果分別為:89.13%,90.92%,90.89%以及91.03%,可見DBN方法識別優勢較為明顯。此外,該文獻將DBN用于SAR圖像配準,且其能獲得魯棒性特征以及實現準確地配準。具體地,分別將兩幅待匹配的SAR圖像輸入,并提取圖像塊,將其輸入DBN,輸出即為匹配標簽。
4 基于深度學習的多種雷達數據處理研究
在上一節重點總結了基于深度學習的SAR圖像處理研究,而在實際情況下,有學者分別對HRRP、Micro-Doppler譜圖以及R-D譜圖進行研究,并對其進行深度學習方法處理。同樣能獲得較優的結果,并與傳統方法相比,深度學習算法能夠有效地提取對應圖像的深度特征,便于后續處理。
4.1 基于深度學習的HRRP處理研究
HRRP能反映目標散射點沿距離方向的分布信息,且獲取方法更為簡單。其特點是通過發出某一波長的高頻信號,通過反射成像,從而獲得HRRP。圖6為4種目標的HRRP示意圖。在此基礎上,有學者選擇通過不同的深度學習方法對HRRP進行目標的識別,其主要包括CNN, SAE, DBN以及RNN等。
![]() | 圖 6 4種目標HRRP示意圖Fig.6 HRRPs of four targets |
文獻[73]提出,對HRRP進行基于CNN的目標種類識別。具體地,該網絡包含2層5×1大小的卷積層,以及2層3×1的最大池化層,1層包含1000節點的全連接層,最后運用softmax進行分類。通過對8類仿真HRRP數據進行網絡訓練及測試發現,深度CNN識別準確率大于深度感知機,約10%左右。在此基礎上,對該數據加入高斯白噪聲,使得處理后數據信噪比范圍為–20~40 dB。并且每類數據進行1000次蒙特卡洛實驗,對3類目標進行識別,平均準確率達到91.4%。說明CNN對HRRP進行識別時魯棒性較強。
南京航空大學的張歡[74]對Su27, J6, M2K 3種仿真戰斗機的HRRP數據分別采用SVM、深度神經網絡(Neural Network, NN)、SAE方法進行分類。在固定輸入數據為128維情況下,分別討論了深度學習方法中層數、隱層節點數、數據信噪比以及目標姿態對識別效果的影響。其中,當對25 dB數據進行2層且隱層節點數為50的網絡進行訓練及識別時,NN和SAE平均識別率分別為79.63%和85.00%,明顯高于傳統SVM的74.26%。文獻[75]運用SAE方法提取HRRP特征,之后對其進行極限學習機的分類。該方法通過SAE獲取有效分類特征,并且極限學習機的結構簡單,網絡訓練速度相對較快。并且經過測試,發現在識別率相近的情況下,該方法訓練時長是經典SAE方法分類的1/6,效率提升明顯。此外,文獻[76]對SAE進行改進,對無標簽數據進行目標相關性學習,提出SCAE (Stacked Corrective AutoEncoder)方法,進一步提升對HRRP的分類效果。
文獻[77,78]均采用DBN對HRRP數據進行目標類型識別。其中,文獻[77]提出對于RBM部分進行可視層和隱層之間的模糊(fuzzy)連接,即FRBM。通過實驗發現,該模型能夠有效削減取值為0的參數的個數,從而防止過擬合。同時,針對含噪數據,其魯棒性更強。在該文章中,首先對3種飛機模型的HRRP仿真數據分別進行KNN、支持向量數據描述(Support Vector Domain Description, SVDD)、RBM和FRBM方法識別,平均識別率分別為82.3%,85.7%,88.9%和94.3%。其次,分別對原始數據加入高斯白噪聲得到的不同信噪比(20 dB, 10 dB, 5 dB)數據,以及加入椒鹽噪聲的數據分別進行RBM和FRBM分類處理,發現所有情況下FRBM識別率均高于RBM情況,且超出的識別率在10%以上。此外,文獻[78]考慮了不同類別數據量不平衡的問題,并且實驗證明,當不同類型HRRP數據量差異明顯的情況下,通過DBN進行分類,不同類型的識別率差距明顯。因此,該文獻提出在進行DBN分類前,對樣本進行t分布隨機鄰域插入處理,并對插入后的數據進行隨機采樣,擴充了相應類型的樣本量,從而使不同種類樣本量得到平衡。之后,再進行DBN的訓練與識別。在該情況下,3類數據的平均識別率為92.8%,而在原始數據不平衡的情況下,平均識別率僅為56.3%,識別率提升明顯。
文獻[79]考慮到傳統的CNN模型不能提取相鄰時間輸入的樣本之間的相關性,而循環神經網絡(Recurrent Neural Network, RNN)恰能提取該特征,從而提出對HRRP進行RNN處理。該文獻采用RNN中的長短時記憶循環神經網絡(Long-Short Term Memory recurrent neural network, LSTM)對HRRP進行分類。LSTM模型的輸入節點為128,輸出節點數為3,隱層節點數為50。對175幅3類HRRP進行LSTM訓練,并對100幅HRRP進行測試,全部識別正確。
4.2 基于深度學習的Micro-Doppler譜圖處理研究
微多普勒效應是由物體及其構建的微動產生的物理現象。雷達目標的Micro-Doppler譜圖對于目標的檢測識別具有重要意義。一般情況下,通過信號處理方法從雷達回波信號中提取表征目標微動部件情況的時頻譜圖,而對于單一維度的雷達回波無法獲取該信息。圖7為兩個仿真目標的時頻譜圖。對于Micro-Doppler譜圖,已有學者采用深度學習方法對其進行分析,提取深度信息,實現目標識別任務。其中,鑒于CNN方法對處理圖像的優越性,最受人們青睞。此外,SAE方法能夠在無監督情況下提取深層特征,也成為人們研究的重點。并且有學者將兩者結合,或選擇卷積自編碼器(Convolutional Automatic Encoder, CAE)對Micro-Doppler譜圖進行分析,獲得明顯的分類效果。
![]() | 圖 7 兩仿真目標時頻譜圖Fig.7 Time-frequency map pf two simulation targets |
文獻[80–85]均選擇深層CNN方法對Micro-Doppler譜圖進行類型識別。其中,文獻[80]對7種人為動作進行包含3層卷積層,3層最大池化層、1層全連接層以及softmax的CNN分類處理。該方法與傳統PCA, SVM方法識別率進行比較,分別為95.2%, 84.0%以及89.2%。此外,文獻[81]通過Micro-Doppler譜圖的識別進行手勢識別處理。其中,90%的數據進行5層DCNN訓練,并對10%的數據進行測試,得到的7種手勢在4個場景下的平均識別率為93.1%。文獻[82]則通過包含2層卷積層、2層池化層以及1層全連接層的CNN,先后進行人的檢測與人動作的識別。在檢測部分,通過該網絡對人、狗、馬、車4種目標進行分類,從而檢測人是否存在,其檢測概率達到97.6%;在識別部分,對人的跑、走、臥等7種動作進行分類,平均識別概率為90.9%。在文獻[83]中,研究對人類步態的分類問題,其選用了14層CNN模型,其中包含8層卷積層,3層最大池化層和2層全連接層以及softmax分類器。相比于傳統神經網絡和SVM分類方法的68.3%和60.3%的識別率,運用CNN方法的情況下識別率有明顯提升,達到86.9%。在此基礎上,文獻[84]通過基于CNN的遷移學習對人類水下動作進行識別。
此外,有學者將SAE架構應用于Micro-Doppler譜圖的分類問題中。例如,文獻[85]運用SAE方法對人的運動情況進行分類,得到87%的平均識別率,同樣數據進行SVM分類器分類,得到識別率僅為58%。文獻[86]運用3層SAE進行微動數據分類,獲得89%的平均識別率,而對127個特征進行SVM分類,識別率僅為72%。在此基礎上,文獻[87,88]將SAE與CNN相結合進行Micro-Doppler譜圖分類處理。其中,西安電子科技大學的張國祥[44]提出,首先運用SAE進行無監督的特征提取,得到特征譜圖,之后對特征譜圖進行CNN的分類,最終得到95.62%的平均識別率。文獻[89]則運用CAE方法進行分類。其中,在編碼器部分,由3層卷積層,3層池化層組成;在譯碼器部分,由3層反卷積層和3層逆池化層組成。最終,將提取到的特征進行分類器分類。在此基礎上,提出運用遷移學習方法對網絡初始化參數進行設置,從而對CAE模型的識別率提升了10%。
4.3 基于深度學習的R-D譜圖處理研究
當對動作進行分類時,除了進行時頻分析,距離向信息同樣至關重要,即R-D譜圖可作為分類研究對象。在線性調制連續波(Linear Frequency Modulated Continuous Wave, LFMCW)雷達中,首先對回波進行去斜處理,之后在快時間域進行快速傅里葉變換(Fast Fourier Transform, FFT),獲得目標的實時徑向距離信息;進而對各個距離單元內的基帶信號的慢時間域FFT處理,獲得回波信號在距離-多普勒域的能量分布情況,即R-D譜圖。由多幀R-D譜圖組成,即R-D譜圖序列描述一個持續一段時間的行為動作。其中,基于雷達的動態手勢識別處理為典型的應用場景。
針對動態手勢的R-D譜圖序列,文獻[90]提出對Google的Soli傳感器采集的10個人的11類手勢動作進行R-D譜圖序列分類。首先,對于每幀R-D譜圖進行卷積及全連接處理,之后針對整個動作的不同時間點特征圖之間進行LSTM連接,最終獲得87.6%的平均識別率。本課題組對基于R-D譜圖的手勢數據進行了CNN的識別,對向前、向后、旋轉、靜止4種手勢進行分類,示意圖如圖8所示。其中,CNN方法的平均識別率達到87.8%,同組數據進行傳統動態規劃方法識別,平均識別率僅為74.0%,即證明通過CNN方法對該手勢進行識別,識別率提升明顯。