摘要:針對神經(jīng)網(wǎng)絡(luò)的顯著性區(qū)域預(yù)測存在數(shù)據(jù)采集代價大、處理繁瑣等問題,提出2種卷積神經(jīng)網(wǎng)絡(luò),即從頭開始訓(xùn)練的淺層卷積神經(jīng)網(wǎng)絡(luò),以及前三層源自另一個網(wǎng)絡(luò)的深層卷積神經(jīng)網(wǎng)絡(luò)。其中,淺層網(wǎng)絡(luò)結(jié)構(gòu)簡單,可避免過擬合問題;深層網(wǎng)絡(luò)可以充分利用最底層的模型參數(shù),收斂更快,效果更好。所提卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于回歸問題,均沒有直接訓(xùn)練特征圖的線性模型,而是在遷移層上訓(xùn)練了一堆新的卷積層。從端到端的角度解決顯著性預(yù)測,將學(xué)習(xí)過程演化為損失函數(shù)的最小化問題。測試和訓(xùn)練在SALICON,SUN和MIT300數(shù)據(jù)集上進(jìn)行,實驗結(jié)果驗證了所提方法的有效性。其中,深層網(wǎng)絡(luò)和淺層網(wǎng)絡(luò)在SALICON和SUN數(shù)據(jù)上的結(jié)果相似,深層網(wǎng)絡(luò)在MIT300上的結(jié)果更優(yōu),與其他方法相比,所提方法具有不錯的表現(xiàn),而且具有跨數(shù)據(jù)集的魯棒性。
注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社