摘要:面部表情識(shí)別是機(jī)器感知人類情緒變化的重要途徑,但表情識(shí)別受不同個(gè)體及情緒強(qiáng)弱差異影響較大。難以手動(dòng)設(shè)計(jì)準(zhǔn)確的特征.提出一種基于雙通道卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別方法,首先對(duì)采集得到的人臉圖像進(jìn)行預(yù)處理以限制分析范圍,同時(shí)分析人臉灰度圖像與對(duì)應(yīng)的LBP圖像以兼顧全局與細(xì)節(jié)特征;針對(duì)雙通道輸入數(shù)據(jù),利用不同參數(shù)的卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取面部特征,通過(guò)加權(quán)融合分類網(wǎng)絡(luò)進(jìn)行特征融合,并利用soflmax分類不同衰隋.實(shí)驗(yàn)結(jié)果表明,該算法能夠以較高的準(zhǔn)確率識(shí)別6種基本面部表情(高興、悲傷、憤怒、沮喪、恐懼及驚訝).該方法性能優(yōu)于基于手動(dòng)設(shè)計(jì)特征的面部表情識(shí)別方法及單通道CNN方法,相比于其他雙通道CNN方法,能通過(guò)更簡(jiǎn)單的處理得到近似的識(shí)別結(jié)果.
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社
省級(jí)期刊 下單
國(guó)際刊號(hào):1672-1292
國(guó)內(nèi)刊號(hào):32-1684/T
雜志詳情