DOI: 10.11817/j.issn.1672-7207.2020.02.012
基于多方向Gabor特征图协同表示的鲁棒人脸识别
张培1, 2,徐望明1, 2, 3,伍世虔1, 2,靳晓缘1, 2
(1. 武汉科技大学 信息科学与工程学院,湖北 武汉,430081;
2. 武汉科技大学 机器人与智能系统研究院,湖北 武汉,430081;
3. 武汉科技大学 教育部冶金自动化与检测技术工程研究中心,湖北 武汉,430081)
摘要:为提高基于稀疏表示分类(SRC)算法在可变光照、姿态和表情下的人脸识别性能,提出一种基于多方向Gabor特征图(MGFM)和协同表示分类(CRC)的鲁棒人脸识别方法。首先,对人脸图像进行多方向多尺度Gabor变换,并融合同一方向不同尺度的Gabor特征;其次,在每个方向的融合特征图上提取Gist特征。在进行人脸识别时,可采取2种方法:1) 将人脸图像所有方向的Gist特征直接串联或自适应加权后串联构成人脸全局特征向量,并使用协同表示分类器得到识别结果;2) 对人脸图像每个方向的Gist特征向量分别使用协同表示分类器进行预分类,预分类时使用自适应K近邻策略确定候选类并进行评分,取总得分最高的类作为识别结果。最后,在ORL,Extended Yale B和AR等人脸数据库上开展人脸识别实验,由提出的方法分别取得99.8%,100%和99.7%的识别准确率和较快的执行速度。研究结果表明:本文方法利用多方向Gabor特征图(MGFM)建立人脸图像的特征表示能有效描述人脸局部信息,利用自适应K近邻策略改进协同表示分类算法能取得较高的识别准确率和执行效率。
关键词:人脸识别;协同表示;多方向Gabor特征图;自适应K近邻
中图分类号:TP391.41 文献标志码:A 开放科学(资源服务)标识码(OSID)
文章编号:1672-7207(2020)02-0377-08
Robust face recognition based on collaborative representation of multi-directional Gabor feature maps
ZHANG Pei1, 2, XU Wangming1, 2, 3, WU Shiqian1, 2, JIN Xiaoyuan1, 2
(1. School of Information Science and Engineering, Wuhan University of Science and Technology,Wuhan 430081, China;
2. Institute of Robotics and Intelligent Systems, Wuhan University of Science and Technology,Wuhan 430081, China;
3. Engineering Research Center for Metallurgical Automation and Detecting Technology of Ministry of Education, Wuhan University of Science and Technology, Wuhan 430081, China)
Abstract: To improve the performance of face recognition based on SRC under conditions with varied illumination, pose and expression, a robust face recognition method based on multi-directional Gabor feature maps (MGFM) and collaborative representation classification(CRC) was proposed. Firstly, the multi-directional and multi-scale Gabor transform were performed on the face image, and the obtained Gabor features with different scales in the same direction were fused. Secondly, the Gist features were extracted for the fused feature maps in each direction. There were two ways which could be adopted to implement face recognition: 1) the Gist features of all directional feature maps of a face image were cascaded without or with adaptively-weighting to form the global feature vector of the face image and the recognition result was obtained based on collaborative representation classifier; 2) the pre-classification results were obtained by combining Gist features in each direction of a face image with collaborative representation classifiers respectively. The scores of the candidate classes were determined using the adaptive K nearest neighbor strategy, and the final recognition result had the highest total score Thirdly, experiments of face recognition were carried out on ORL, Extended Yale B and AR face database, and the proposed method reached the recognition accuracy of 99.8%, 100% and 99.7% respectively and obtained a faster execution speed. The results show that the proposed method can effectively describe the local information of face image using the multi-directional Gabor feature maps(MGFM), and the improved collaborative representation classification algorithm with the adaptive k-nearest neighbor strategy ultimately achieves higher recognition accuracy and execution efficiency.
Key words: face recognition; collaborative representation; multi-directional Gabor feature maps; adaptive K nearest neighbor
作为特征表示的典型方式之一,稀疏表示(sparse representation,SR)被广泛应用于计算机视觉、模式识别和机器学习等领域[1]。WRIGHT等[2]将稀疏表示理论用于人脸识别,提出基于稀疏表示分类(sparse representation-based classification, SRC)的人脸识别方法。该方法与Eigenfaces[3]和Fisherfaces[4]等传统方法相比,有效地提升了对光照、姿态、表情以及遮挡等可变因素的鲁棒性,为人脸识别技术的研究提供了新思路。GAO等[5]提出了基于核稀疏表示分类(kernel SRC,KSRC)的人脸识别方法,通过核映射关系获取特征的非线性特性,减少了特征量化误差,提高了编码系数向量的稀疏性。YANG等[6]利用最大似然估计解决稀疏编码问题,提出了一种鲁棒的稀疏编码模型,提高了对可变因素的适应性。这些算法都是在SRC方法基础上提高系数编码的效率,是基于人脸图像像素灰度的全局排列,但是对光照、姿态和表情等影响因素的表现力仍然不够。考虑到Gabor特征能够表征人脸图像在不同方向和尺度的局部纹理信息[7],YANG等[8]提出了基于Gabor特征稀疏表示分类(Gabor-feature based SRC, GSRC)的人脸识别方法,通过Gabor特征构造的过完备字典提高编码系数向量的稀疏度,提高了人脸识别准确率。徐望明等[9]提出了一种基于多方向Gabor特征图稀疏表示(multi-directional Gabor feature maps based SRC,MGFM-SRC)的人脸识别方法,在MGFM图像上提取人脸的加权Gist特征并结合SRC算法进行识别,进一步提高了人脸识别性能。杨清山等[10]利用Gabor多通道模型,提取不同通道的Gabor特征分别构造字典结合稀疏表示分类器,提出了一种基于Gabor多通道加权稀疏表示分类算法(weighted multi-channel Gabor sparse representation classification,WMC-GSRC)。由于这些基于SRC的方法需要求解L1-范数最小化约束问题,一般用迭代法求解,计算复杂,且ZHANG等[11]发现稀疏性并不是取得较好人脸识别效果的本质因素,提出了基于协同表示分类的人脸识别方法(collaborative representation-based classification, CRC),在优化目标函数中用L2-范数替代L1-范数求解系数向量,进一步提高了人脸识别的效率和准确率。本文作者在上述研究基础上,提出一种更高效的基于多方向Gabor特征图协同表示(MGFM based CRC,MGFM-CRC)的鲁棒人脸识别方法。首先,将人脸图像与多方向多尺度Gabor滤波器组卷积得到不同方向不同尺度的Gabor特征。然后,将同一方向不同尺度的Gabor特征进行融合,再在每个方向的融合特征图上提取Gist特征。在人脸识别阶段,本文采用2种识别策略:1) 将所有方向的Gist特征直接串联或自适应加权后串联构成人脸特征向量并使用协同表示分类器得到识别结果;2) 对每个方向的Gist特征向量分别使用协同表示分类器进行预分类,预分类时使用自适应K近邻策略确定候选类并评分,取总分最高的类作为识别结果。最后,在典型人脸数据库ORL,Extended Yale B和AR上通过实验验证本文方法对于光照、姿态和表情等可变因素的适应性。
1 多方向Gabor特征图及其Gist特征表示
对于输入的人脸图像,首先,计算其多方向Gabor特征图(MGFM),并进一步提取Gist特征,用特征向量表征输入人脸图像信息。图1所示为Gabor特征图及其Gist特征提取流程。以其中1个方向为例,首先,将人脸图像与该方向的一组不同尺度的Gabor滤波器进行卷积,得到该方向不同尺度下的Gabor特征图;然后,融合多个尺度的实部和虚部Gabor特征;最后,对融合后幅值特征图进一步提取Gist特征,得到输入人脸图像在该方向下的1个特征向量。其他多个不同方向下的特征提取方法以此类推。
该方法的特点在于:1) 利用特征融合方法减小Gabor特征的冗余信息,最大程度地保留有用的局部纹理特性;2) 利用Gist特征提取融合后的幅值特征图的全局特征表示,与Gabor局部特征在表示图像信息上形成互补,这样导致人脸图像特征具有更高分辨率。整个特征提取过程的主要步骤可分为:Gabor局部特征提取、多尺度Gabor特征融合和Gist特征计算。
图1 第u个方向上的Gabor特征图及其Gist特征提取
Fig. 1 Gabor feature map and its Gist feature extraction in the u-th direction
1.1 Gabor局部特征提取
二维Gabor滤波器核函数[12]定义为
(1)
式中:和分别为Gabor核函数的方向和尺度;为2-范数运算符;为图像像素坐标; ,,。Gabor核函数是复数形式,故有实部和虚部2个分量,实部滤波器具有平滑图像的效果,可减少对光照的敏感度,虚部滤波器能有效描述图像的边缘信息。本文采用8个方向和5个尺度的Gabor滤波器组对人脸图像进行卷积:
(2)
式中:I(z)为人脸图像;Mu,v(z)为方向u尺度v下的Gabor特征;为卷积运算符。
1.2 多尺度Gabor特征融合
利用Gabor变换得到的不同方向和尺度的Gabor特征存在相似性,导致一定程度的信息冗余。AMIN等[13]提出了2种Gabor特征融合思路,即融合同一尺度下不同方向的Gabor特征或者融合同一方向下不同尺度的Gabor特征,从实验结果看,后者比前者得到的Gabor融合特征更能够描述人脸图像信息。徐望明等[9]在此基础上提出了一种改进的特征融合方法,本文沿用这种特征融合方法,具体方法描述如下:
1) 根据Gabor特征实部和虚部的采用二进制编码方式得到相应的二值特征图。
(3)
(4)
式中:和分别为Gabor实部特征和虚部特征;和分别为编码后不同方向和尺度的实部和虚部二值特征。
2) 分别对同一方向(如第u个方向)下不同尺度的特征图进行加权融合,得到十进制编码形式:
(5)
(6)
式中:和分别为第u个方向下不同尺度实部和虚部特征融合结果。
3) 根据各个方向上融合后的实部特征和虚部特征求得幅值特征:
(7)
1.3 Gist特征计算
融合后的每个幅值特征图作为输入图像,进一步提取其 Gist 特征[14]形成表示人脸图像的全局特征向量,用于人脸识别。计算输入图像的Gist特征时,也利用一组Gabor滤波器对其进行卷积处理,之后将滤波结果图像划分为均等不重叠的个图像子块,并对每个图像子块取灰度平均值,把所有图像子块的灰度平均值串联起来即形成表示图像的特征向量。
以第个方向为例,将特征图作为输入图像,提取其Gist特征的步骤如下。
1) 对特征图与个Gabor滤波器进行卷积处理,得到卷积后的特征图:
(8)
式中:为像素的坐标;为第i个Gabor滤波器;为8个方向4个尺度的Gabor滤波器总数。
2) 将划分成均等不重叠的个图像子块,其中。
3) 将每个图像子块取灰度平均值得到1个特征值,再将所有特征图的所有子块的特征值按序串联,形成表示每个方向图像的特征向量:
(9)
通过上述特征提取步骤得到第个方向Gabor特征图的全局特征表示形式。以此类推,可以得到所有方向Gabor特征图的全局特征向量。
2 本文提出的人脸识别方法
针对文献[9]中方法进一步改进,提出一种基于多方向Gabor特征图协同表示(MGFM based CRC,MGFM-CRC)的人脸识别方法。在得到多个方向下幅值特征图的Gist特征向量之后,进行人脸识别时,可将所有方向的Gist特征串联(MGFM-CRC-1)或按文献[9]自适应加权后串联(MGFM-CRC-2)构成人脸特征向量,使用协同表示分类器得到识别结果。这里先介绍这2种方法并分析其存在的问题,从而提出一种新方法。首先,对每个方向的Gist特征向量分别使用相应的协同表示分类器进行预分类,预分类时使用自适应K近邻策略确定候选类并对其评分;然后,将所有候选类在所有方向的评分进行汇总;最后,取总分最高的类作为识别结果,该方法记为MGFM-CRC-3。
2.1 MGFM-CRC-1和MGFM-CRC-2
与其他使用SRC分类器的算法一样,文献[9]提出的MGFM-SRC人脸识别方法由于利用L1-范数求解稀疏系数向量,计算复杂。为了减少SRC算法复杂度,文献[11]提出CRC算法,利用L2-范数替代L1-范数求解系数向量,能取得解析解,故计算更高效。CRC算法并不强调分解的系数向量的稀疏性,而是考虑到利用所有字典原子的协同作用,并在保持与SRC算法识别率接近的情况下,大大地减少求解系数的时间。因此,可利用多方向Gabor特征图方法结合协同表示分类器(CRC)完成人脸识别任务,具体方法可描述为:给定k个类别的n幅人脸图像组成的训练样本,按上述方法得到每幅图像在多个方向上的Gist特征向量,将它们按序串联(MGFM-CRC-1)或按文献[9]自适应加权后串联(MGFM-CRC-2)作为表征每幅人脸图像的全局特征向量,将所有人脸全局特征向量组成训练样本特征矩阵B=[B1,B2,,Bk]=[]。其中:为第i类的第j个训练样本图像特征向量;;c为特征向量的维度。由于特征向量维度较高,利用主成分分析法(principal component analysis,PCA)产生1个变换矩阵,将高维特征降维得到矩阵作为协同表示字典矩阵,其中;为主成分个数即降维后特征的维度。同样地,给定1个测试样本图像,得到多个方向的串联特征向量,并降维后得,则其协同表示系数向量可通过以下优化问题求解:
(10)
式中:为正则化参数。
由于采用L2-范数作为规则化项,式(10)无需使用迭代法求解,其解析解为:。令,一旦字典矩阵和参数给定,则P就可以预先计算出来。
求得协同表示的系数向量后,就可以用各个类别的训练样本分别重构测试样本,相应的重构误差ri(Q)为
(11)
式中:为中对应第i类系数向量。
最后,根据重构误差最小化准则进行分类,即将最小误差所对应的类别标签作为测试样本的识别结果。
(12)
2.2 MGFM-CRC-3
MGFM-CRC-1和MGFM-CRC-2方法最终用来分类的图像特征向量均是将多个方向的Gist特征按序级联的结果,这样形成的特征向量维度较高,计算复杂且在存在一定程度上的特征信息冗余;同时,这2种方法中最终只是根据重构误差最小化准则判定识别结果,当最小误差和次小误差比较接近时,可能导致误判。
因此,本文进一步提出MGFM-CRC-3方法对其进行改进:首先,提取到在m个方向下的Gabor特征图的Gist特征后,分别以每个方向下Gabor特征图的Gist特征作为描述人脸图像的特征向量;其次,进行m次协同表示分类,而且每次分类所得的预分类结果由K近邻策略确定并评分,不一定是最近邻(即最小重构误差对应的类);最后,汇总m次协同表示预分类结果,取总分最高的候选类作为最终识别结果。以方向为例进行说明:
给定k个类别的n幅训练样本图像,按前述特征提取方法得到每幅图像在该方向上的特征向量,为第i类第j个人脸图像样本在第u个方向上的特征向量,其中q为特征向量的维度,并将这些特征向量组合成特征集。同样,对测试样本图像提取该方向上的特征向量,计算在对应特征集上的协同表示系数向量:
(13)
再计算该方向上各个类别对应的重构误差:
(14)
式中:,为样本图像类别;为在第u个方向求得的系数向量中与第i类训练样本图像特征对应的系数向量;为在第u个方向第i类训练样本图像特征与相应类系数对测试样本图像特征的重构结果。
根据式(14)所示的协同表示重构误差进行分类时,通常采用最近邻准则,即判定重构误差最小时所对应的类为测试样本的分类结果。由于没有考虑最小误差、次小误差及其他近邻误差的关系,容易导致分类错误。本文提出使用自适应K近邻策略进行改进,即根据各个类对应的重构误差,按设定的阈值条件自动选取K个近邻误差对应的类作为候选分类结果;然后,按重构误差来给各候选类进行评分,重构误差小的赋予大的分值,重构误差大的赋予小的分值。而对于非候选类,直接将其分值设置为0。对于每个类别i,为重构误差从小到大的排序函数,其中。表示重构误差排序第j个位置。利用这个判断条件自适应地选取K个近邻误差。
(15)
式中:为测试样本图像按其在第u个方向下的特征进行分类时判定其属于第i类的得分。
对每个方向均进行1次预分类,一共m次,得到相应的候选类,测试样本图像在每个方向的特征向量进行分类结果融合,则每个类别在所有方向的总得分为
(16)
最后,根据评分最高所对应的类别,判断测试样本图像的识别结果。
(17)
综上,人脸识别方法MGFM-CRC-3具体步骤为:
1) 对含有k个类别的训练样本图像,用本文前述特征提取方法在m(m=8)个方向分别提取特征向量,并构造每个方向的特征集,进一步用PCA降维算法得到变换矩阵,从而得到每个方向的协同表示字典矩阵,;
2) 对测试样本图像,对第u个方向的特征向量,进行特征空间变换,得到每个方向降维后的特征向量;
3) 将字典矩阵和测试样本特征向量分别代替式(13)中的和,求解协同表示的系数向量;
4) 利用式(14)计算每个方向的每个类别的重构误差,;
5) 根据式(15)和式(16)得到在所有方向上每个类别的总评分;
6) 利用式(17)计算出评分最高时所对应的类别就是测试样本图像的识别结果。
3 实验结果与分析
为了验证本文方法的有效性,通过将CRC算法[11]、MGFM-SRC算法[9]、MGFM-CRC-1算法、MGFM-CRC-2算法和MGFM-CRC-3算法分别在典型人脸数据库 ORL[15],Extended Yale B[16-17] 和AR[18]上进行实验。其中,参数设置如下:自适应K近邻系数取5,在ORL库中L2正则化系数取0.08,在Extended Yale B和AR库中L2正则化系数取0.001;实验所用平台配置为Inter Core(TM)i5,主频3.2 GHz,内存4 G,Matlab R2016b。
3.1 算法识别率
3.1.1 ORL人脸数据库
ORL人脸数据库包含40个人,每人10幅,共400幅人脸图像,存在不同程度的光照、表情和姿态变化。本文实验中将原始图像像素归一化为,通过ORL人脸数据库来比较各种算法在不同训练样本个数下的表现。表1所示为在ORL人脸数据库不同算法的识别率。由表1可见:在不同的训练样本个数下,与CRC算法相比,其他算法的识别率都有明显提升,表明多方向Gabor特征图能够描述人脸图像局部信息,对于光照、表情和姿态等变化具有较好的鲁棒性。在每类训练样本个数为5的情况下,MFGM-CRC-2算法和MGFM-CRC-3算法取得了最高识别率99.8%,在其他训练样本数情况下,MGFM-CRC-3算法识别率都要高于其他算法的识别率,表明在CRC分类器决策层使用K近邻策略并融合多个方向的识别结果,进一步提高了算法的鲁棒性。
表1 在ORL人脸数据库不同算法的识别率
Table 1 Recognition results of different methods on the ORL face database %
3.1.2 Extended Yale B人脸数据库
Extended Yale B人脸数据库包含38个人,每人64幅在不同光照条件下的正面人脸图像。本文实验中原始人脸图像像素尺寸归一化为54像素×48像素,各类人脸图像随机选取50%作为训练样本,剩余50%作为测试样本。表2所示为Extended Yale B人脸数据率不同算法的识别率。由于Gabor局部特征具有良好的表征图像的能力,基于MGFM表示的算法在任何特征维度下均比CRC算法识别效果好。在3种数据维度下,MGFM-SRC和MGFM-CRC-3算法均取得了最好的效果,尤其当数据维度为300时,这2种方法的识别率都达到了100.0%(但MGFM-CRC-3算法效率明显高于MGFM-SRC)。另外,MGFM-CRC-3算法识别率高于MGFM-CRC-1和MGFM-CRC-2算法识别率,同样表明对于MGFM采用分方向处理方式,在CRC分类器决策层使用K近邻策略并将多个方向的识别结果进行融合,有利于提升识别率。
表2 在Extended Yale B人脸数据库不同算法的识别率
Table 2 Recognition results of different methods on Extended Yale B face database %
3.1.3 AR人脸数据库
本文实验选取AR人脸数据库中100人(50名男性和50名女性)每人14幅,共1 400幅正面人脸图像,具有不同的光照和表情变化。将原始人脸图像像素尺寸归一化为66像素×48像素,各类选取前7幅人脸图像作为训练样本,其余作为测试样本。表3所示为AR人脸数据库不同算法的识别率。在不同维度下,MGFM-CRC-3算法均取得了最好识别效果。
表3 AR人脸数据库不同算法的识别率
Table 3 Recognition results of different methods on AR face database %
3.2 算法效率
表4所示为各个算法识别一幅人脸图像所需要的CPU时间。由表4可见:CRC算法识别一幅人脸图像所需时间较少,效率优势明显。基于MGFM稀疏表示和协同表示的算法主要耗时体现在MGFM特征提取过程上。其中,MGFM-SRC算法所需时间最多,原因是利用L1-范数最小化来求解系数增加了算法复杂度,而本文提出的3种MGFM-CRC算法在各个数据库上的执行时间则基本保持一致,且效率明显高于MGFM-SRC算法,这是因为使用了CRC分类器,利用L2-范数替代SRC分类器中的L1-范数来求解系数向量,从而能取得解析解,导致计算更加高效。
表4 各个算法执行时间比较
Table 4 Run time comparison of various algorithms /ms
4 结论
1) 基于多方向Gabor特征图 (MGFM)建立人脸图像的特征表示,能有效描述人脸图像局部信息,对于光照、表情和姿态等变化具有较好的鲁棒性。
2) 使用CRC分类器实现人脸识别,CRC算法并不追求求解系数向量的稀疏性,而是利用所有字典原子的协同作用,用L2-范数替代SRC分类器中的L1-范数来求解系数向量,由于能取得解析解,不仅能保持与SRC算法接近的识别率,而且大幅提升计算效率。
3) 原始CRC算法在利用协同表示重构误差进行分类时,采用最近邻准则易导致分类错误,本文方法使用自适应K近邻策略进行改进,同时对多方向Gabor特征图引入分方向处理方式,采用评分机制进行分类判决,取得了较好的效果。
参考文献:
[1] 王卫卫, 李小平, 冯象初, 等. 稀疏子空间聚类综述[J]. 自动化学报, 2015, 41(8): 1373-1384.
WANG Weiwei, LI Xiaoping, FENG Xiangchu, et al. A survey on sparse subspace clustering[J]. Acta Automatica Sinica, 2015, 41(8): 1373-1384.
[2] WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.
[3] TURK M, PENTLAND A. Eigenfaces for recognition[J]. Journal of Cognitive Neuroscience, 1991, 3(1): 71-86.
[4] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J. Eigenfaces vs. Fisherfaces: recognition using class specific linear projection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 711-720.
[5] GAO Shenghua, TSANG I W H, CHIA L T. Kernel sparse representation for image classification and face recognition[M]//Computer Vision – ECCV 2010. Berlin, Heidelberg: Springer, 2010: 1-14.
[6] YANG Meng, ZHANG Lei, YANG Jian, et al. Robust sparse coding for face recognition[C]//CVPR 2011. New York, USA: IEEE, 2011: 625-632.
[7] SHEN Linlin, BAI Li. A review on Gabor wavelets for face recognition[J]. Pattern Analysis and Applications, 2006, 9(2/3): 273-292.
[8] YANG Meng, ZHANG Lei, SHIU S C K, et al. Gabor feature based robust representation and classification for face recognition with Gabor occlusion dictionary[J]. Pattern Recognition, 2013, 46(7): 1865-1878.
[9] 徐望明, 张培, 伍世虔. 基于多方向Gabor特征图稀疏表示的鲁棒人脸识别方法[J]. 北京理工大学学报(自然科学版),2019, 39(7): 732-737.
XU Wangming, ZHANG Pei, WU Shiqian. Face recognition via sparse representation of multi-directional Gabor feature maps[J]. Transactions of Beijing Institute of Technology, 2019, 39(7): 732-737.
[10] 杨清山, 郭成安, 金明录. 基于Gabor多通道加权优化与稀疏表征的人脸识别方法[J]. 电子与信息学报, 2011, 33(7): 1618-1624.
YANG Qingshan, GUO Cheng'an, JIN Minglu. Face recognition based on Gabor Multi-channel weighted optimization and sparse representation[J]. Journal of Electronics and Information Technology, 2011, 33(7): 1618-1624.
[11] ZHANG Lei, YANG Meng, FENG Xiangchu. Sparse representation or collaborative representation: Which helps face recognition? [C]//2011 International Conference on Computer Vision, New York, USA: IEEE, 2011: 471-478.
[12] LIU Chengjun, WECHSLER H. Gabor feature based classification using the enhanced fisher linear discriminant model for face recognition[J]. IEEE Transactions on Image Processing, 2002, 11(4): 467-476.
[13] AMIN M A, YAN H. An empirical study on the characteristics of Gabor representations for face recognition[J]. International Journal of Pattern Recognition and Artificial Intelligence, 2009, 23(3): 401-431.
[14] OLIVA A, TORRALBA A. Modeling the shape of the scene: a holistic representation of the spatial envelope[J]. International Journal of Computer Vision, 2001, 42(3): 145-175.
[15] SAMARIA F S, HARTER A C. Parameterisation of a stochastic model for human face identification[C]//Proceedings of 1994 IEEE Workshop on Applications of Computer Vision. FL, USA, 1994: 138-142.
[16] GEORGHIADES A S, BELHUMEUR P N, KRIEGMAN D J. From few to many: illumination cone models for face recognition under variable lighting and pose[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(6): 643-660.
[17] LEE K C, HO J, KRIEGMAN D J. Acquiring linear subspaces for face recognition under variable lighting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(5): 684-698.
[18] MARTINEZ A, BENAVENTE R. The AR face database[R]. Computer Vision Center, Technical Report 24, West Lafayette, USA: Purdue University, 1998.
(编辑 秦明阳)
收稿日期: 2019 -04 -22; 修回日期: 2019 -07 -10
基金项目(Foundation item):国家自然科学基金资助项目(61775172, 51805386);湖北省教育厅科研计划项目(D20191104)(Projects(61775172, 51805386) supported by the National Natural Science Foundation of China; Project(D20191104) supported by Department of Education Research Program of Hubei Province)
通信作者:徐望明,博士,高级工程师,从事图像处理与模式识别研究;E-mail: xuwangming@wust.edu.cn