《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 设计应用 > 基于欧氏距离解缠的多角度跨库人脸表情识别
基于欧氏距离解缠的多角度跨库人脸表情识别
信息技术与网络安全 11期
梁 广
(中国科学技术大学 网络空间安全学院,安徽 合肥230026)
摘要: 当前,人脸表情的识别受数据库偏差和姿势角度差异的影响。为了解决这个问题,提出了一个基于特征解缠的跨数据库无监督学习模型。该模型包含三个主要策略:基于欧氏距离的多属性解缠策略,表情特征内部的对比学习策略,对抗领域自适应策略。该方法首先得到表情、姿势和库相关的特征,并在欧氏空间解缠不同属性的特征。对比学习可以使相同表情标签的特征逼近,不同表情标签的特征疏远。对抗领域自适应策略使得未被学习的目标库样本和已学习过的源库样本的特征分布逼近。该方法在8个公开的数据库上展开实验,得到了充分的验证。
中圖分類號(hào): TP37
文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2021.11.005
引用格式: 梁廣. 基于歐氏距離解纏的多角度跨庫人臉表情識(shí)別[J].信息技術(shù)與網(wǎng)絡(luò)安全,2021,40(11):29-36.
Euclidean distance disentanglement adaptive method for multi-view cross-database facial expression recognition
Liang Guang
(School of Cyberspace Science and Technology,University of Science and Technology of China,Hefei 230026,China)
Abstract: At present, the accuracy of face expression recognition is affected by database biases and posture variations. To solve this problem, this paper proposes a novel cross-database unsupervised learning model based on feature disentanglement. There are three strategies in this model:multiple attribute features disentanglement, contrastive learning within face expression feature, adversarial domain adaptation. The feature disentanglement can get expression-related, pose-related and database-related features, and try to separate the features of different attributes. Contrastive learning can make expression features of the same label closer, and expression features of the different labels as far apart as possible. Adversarial domain adaptive learning makes the unseen sample′s features closer to sample′s features of the training database. Our experiments are carried out on 8 databases and achieved state of the art results.
Key words : facial expression recognition;feature disentanglement;cross database;contrastive learning

0 引言

如今,人臉表情識(shí)別相關(guān)研究的熱度逐漸上升。相應(yīng)的技術(shù)也應(yīng)用于教育質(zhì)量評(píng)估、刑事審訊等多個(gè)領(lǐng)域。然而,當(dāng)前的很多研究主要關(guān)注于相同數(shù)據(jù)庫上的人臉表情識(shí)別,即訓(xùn)練樣本和測試樣本都來自于同一個(gè)數(shù)據(jù)庫。由于不同表情數(shù)據(jù)庫在人種、背景和光照等存在差異,表情識(shí)別的效果受到很大的影響[1]。同時(shí),人臉圖片也包含多個(gè)不同姿勢,不同姿勢之間的差異也導(dǎo)致了表情識(shí)別準(zhǔn)確率的下降。研究者當(dāng)前也在研究降低數(shù)據(jù)庫和姿勢所帶來影響的方法。

由于姿勢的差異對(duì)表情識(shí)別有明顯的影響,研究人員提出了三大類方法來消除表情識(shí)別中的姿態(tài)差異:姿勢規(guī)范化方法[2];單分類器方法[3-4];姿勢魯棒的特征方法[5-8]。由于正臉的表情識(shí)別準(zhǔn)確率高于側(cè)臉,研究者使用姿勢規(guī)范化的方法將側(cè)臉圖像轉(zhuǎn)換成正臉圖像來進(jìn)行識(shí)別表情。然而,用來測試的目標(biāo)數(shù)據(jù)庫通常缺失同一個(gè)人的正-側(cè)臉數(shù)據(jù)對(duì)。這也導(dǎo)致了側(cè)臉圖像在通過生成式對(duì)抗網(wǎng)絡(luò)[9](Generative Adversarial Networks,GAN)生成正臉的過程中存在失真,影響表情識(shí)別效果。對(duì)于單分類器方法,研究者使用單個(gè)分類器來識(shí)別多種姿勢下的表情。這種方法需要大量不同姿勢的圖像來訓(xùn)練單一分類器,而現(xiàn)實(shí)中很難得到足夠多的多角度圖像。而姿勢魯棒的特征方法嘗試訓(xùn)練一個(gè)編碼器來生成對(duì)姿勢差異魯棒的表情特征。這種方法在特征層面降低了表情特征中的姿勢噪聲,同時(shí)不需要大量的目標(biāo)數(shù)據(jù)庫樣本,也無需生成偽樣本。因此本模型選擇了姿勢魯棒的特征方法來降低姿勢差異。




本文詳細(xì)內(nèi)容請(qǐng)下載:http://m.ihrv.cn/resource/share/2000003845





作者信息:

梁  廣

(中國科學(xué)技術(shù)大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,安徽 合肥230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。

相關(guān)內(nèi)容