基于信息融合的面部表情分析与识别.ppt
《基于信息融合的面部表情分析与识别.ppt》由会员分享,可在线阅读,更多相关《基于信息融合的面部表情分析与识别.ppt(68页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、基于信息融合的面部表情分析基于信息融合的面部表情分析与识别与识别 研 究 生:刘 松 指导老师:应自炉 学科专业:信号与信息处理 论文选题来源论文选题来源广东自然科学基金项目:(032356)研究现状研究现状国际上对人脸面部表情识别的研究现在逐渐成为科研热点。国内外很多机构都在进行这方面的研究,尤其美国、日本。进入90 年代,对人脸表情识别的研究变得非常活跃,吸引了大量的研究人员和基金支持,EI 可检索到的相关文献就多达数千篇。美国、日本、英国、德国、荷兰、法国等经济发达国家和发展中国家如印度、新加坡都有专门的研究组进行这方面的研究。其中MIT、CMU、Maryland 大学、Standfor
2、d 大学、日本城蹊大学、东京大学、ATR 研究所的贡献尤为突出。国内国内的清华大学、哈尔滨工业大学、中科院、中国科技大学、南京理工大学、北方交通大学等都有人员从事人脸表情识别的研究 目前面部表情识别的主要方法:基于模板匹配的面部表情识别方法基于神经网络的面部表情识别方法基于规则的人脸面部表情识别方法基于随机序列模型的面部表情识别方法其他方法,比如支持向量机,小波分析等论文主要工作论文主要工作1.介绍了信息融合在面部表情识别应用的三个层次模型2.探索了基于单特征单分类器的面部表情识别3.将支持向量机理论和信息融合理论结合在一起,提出基于基于SVM的多特征多分类器融合的面部表情识别4.将径向基函数
3、神经网络用于面部表情特征的融合上,提出基于RBF网络的多特征融合的面部表情识别面部表情识别:一般可描述为给定一个静止人脸图像或者动态的人脸图像序列,利用已有的人脸表情数据库确定图像中的一个人或者多个人的面部表情,研究内容包括以下三方面:人人脸脸检检测测:即从各种不同的场景中检测出人脸的存在并确定其位置.面面部部表表情情特特征征提提取取:即确定表示检测出的人脸表情和数据库中的已有的人脸面部表情的描述方式。通常的表示方式包括几何特征、代数特征、固定特征模板、云纹图、3D网格等。面面部部表表情情识识别别:就是将待识别的人脸面部表情和数据库中的已知人脸面部表情比较,得出相关信息。这一过程是选择适当的人
4、脸面部表情表示方式与匹配策略 论文主要工作论文主要工作1.介绍了信息融合在面部表情识别应用的三个层次模型2.探索了基于单特征单分类器的面部表情识别3.将支持向量机理论和信息融合理论结合在一起,提出基于基于SVM的多特征多分类器融合的面部表情识别4.将径向基函数神经网络用于面部表情特征的融合上,提出基于RBF网络的多特征融合的面部表情识别信息融合与面部表情分析信息融合就是把来自多个信息源的目标信息合信息融合就是把来自多个信息源的目标信息合并归纳为一个具有同意表示形式输出的推理过并归纳为一个具有同意表示形式输出的推理过程程,其基本的出发点是通过对这些信息源所提其基本的出发点是通过对这些信息源所提供
5、的信息的合理支配和使用供的信息的合理支配和使用,利用多个信源在利用多个信源在时间或空间上的冗余性和互补性对这些信息进时间或空间上的冗余性和互补性对这些信息进行综合处理行综合处理,以获得对被测对象具有一致性的以获得对被测对象具有一致性的解释和描述解释和描述,使得该信息系统获得比它得各个使得该信息系统获得比它得各个组成部分更优越的性能。组成部分更优越的性能。人人脸脸面部表情面部表情识别识别包含大量的包含大量的变变量量,反映待反映待识识别别目目标标各要素的非度量形式允各要素的非度量形式允许许许许多多类类型的表型的表示技示技术术,每一种技每一种技术术又可以采用不同的方法又可以采用不同的方法进进行行计计
6、算。算。基于信息融合面部表情识别的基于信息融合面部表情识别的三个模型三个模型v基于像素层融合的面部表情识别 v基于特征层融合的面部表情识别 v基于决策层融合的面部表情识别 基于像素层融合的面部表情识别基于像素层融合的面部表情识别这种方法对每幅图像预处理之前进行像素层融合后,得到一个融合的人脸图像数据,并在此基础上再进行特征提取和面部表情识别。基于特征层融合的面部表情识别这种方法对每个传感器的观测数据进行特征的抽取以得到一个特征向量,然后把这些特征向量融合起来并根据融合后得到的特征向量进行面部表情识别及判定。基于决策层融合的面部表情识别这种方法对每个传感器都执行面部表情特征提取和面部表情识别,然
7、后对多个识别结果进行信息融合从而得出一个面部表情判决结果,再融合来自每个传感器的面部表情判决。论文主要工作论文主要工作1.介绍了信息融合在面部表情识别应用的三个层次模型2.探索了基于单特征单分类器的面部表情识别3.将支持向量机理论和信息融合理论结合在一起,提出基于基于SVM的多特征多分类器融合的面部表情识别4.将径向基函数神经网络用于面部表情特征的融合上,提出基于RBF网络的多特征融合的面部表情识别基于单特征单分类器的面部表情识别基于神经网络级联的面部表情识别基于几何特征的面部表情识别基于均值主元分析的面部表情识别基于Fisher线性判别的面部表情识别基于神经网络级联的面部表情识别网络级联的面
8、部表情识别结构BP网络的算法流程网络级联的面部表情识别的实验结果网络级联的面部表情识别结构网络级联的面部表情识别流程网络级联的面部表情识别的实验结果 在两个数据库上进行实验,从耶鲁大学的Yale Face 数据库中选取60幅人脸图像,共15个人,4幅/人,其中训练样本56幅,14个人,4幅/人,测试样本为剩下的4幅图像,1个人,4/人,通过随机变换训练样本和测试样本,我们重复15次这样的实验。从日本女性表情数据库中(JAFFE)选取120幅图像,共10个人,12幅/人,其中84幅图像作为训练样本,7个人,12幅/人,测试样本为36幅图像,3个人,12幅/人。通过随机变换训练样本和测试样本,我们
9、重复10次这样的实验。日本女性表情数据库上的实验SOFM权值向量图 BP网络性能图表情类型识别结果Happy76.7%Normal73.3%Sad70%Surprise80%Yale Face 数据库上的实验SOFM权值向量图 BP网络性能图表情类型实验结果Happy66.7%Normal73.3%Sad60%Surprise80%基于单特征单分类器的面部表情识别基于神经网络级联的面部表情识别基于几何特征的面部表情识别基于均值主元分析的面部表情识别基于Fisher线性判别的面部表情识别基于几何特征的面包表情识别面部特征点几何特征向量的形成识别流程实验结果面部特征点几何特征的形成基于几何特征的面
10、部表情识别流程1.在人脸图像上标记24个面部特征点.2.按照上表得到12个测量距离,对测量距离按上面的公式进行归一化处理得到12维局部特征3.读入人脸库。读入每一个人脸图像几何特征数据并转化为一维的向量 ,对于一个表情的人脸图像,选择一定数量的图像构成训练集,其余的构成测试集。4.把所有测试图像和训练图像进行比较,确定待识别的样本 的所属类别。本文采用最近距离分类器进行识别 两个数据库上的实验结果Yale Face 数据库 日本女性表情数据库表情类型实验结果Happy73.3%Normal66.7%Sad60%Surprised73.3%表情类型识别结果Happy76.7%Normal70%S
11、ad73.3%Surprised80%基于单特征单分类器的面部表情识别v基于神经网络级联的面部表情识别v基于几何特征的面部表情识别v基于均值主元分析的面部表情识别v基于Fisher线性判别的面部表情识别基于均值主元分析的面部表情识别主元分析主元分析的改进:均值主元分析面部表情识别流程实验结果主元分析 考虑 维图像空间的 个人脸图像 ,每个样本属于 类 中的一类,考虑将 维特征空间投影到 维特征空间的线性变换。用表示列向量正交的矩阵。变换后的新的向量,由下式线性变换定义:总离散度矩阵:其中 是所有样本的平均值,经过线性变换得到的新的特征向量 的离散度是 。PCA 选择最优的投影变换 :是按照降序
12、排列的前 个特征值对应的特征向量,这种变换变化就称为主元分析。由所组成的空间就是面部表情特征空间。主元分析的改进:均值主元分析 传统的主元分析的产生矩阵是协方差矩阵,也叫总体离散布矩阵,总体离散布矩阵是有两部分组成:类间离散布矩阵和类内离散布矩阵,而改进算法只考虑类间离散度矩阵。设训练样本集共有N 个训练样本 ,分为c 类 ,为第i样本的数目,其中 是表示第个人脸图像的列向量。每一类的均值为:总均值为:类间离散度矩阵:相对于传统的主元分析,其基本区别是以每一类的平均值代替类内的具体图像,我们称为MPCA。由于每一类平均值是类内图像的一个线性叠加,因此每一类的平均值必然保留了相当的各具体图像的变
13、化特征,换句话说,对各图像的变化特征进行了一定程度的压缩处理,而且保留的特征更有利于表情模式的识别。关于这一点我们将在后面的实验中加以说明,用每一类的平均值代替类内的具体图像的另一个明显的好处就是训练时间明显降低。面部表情识别流程1.人脸图像预处理。主要包括几何归一化和灰度归一化。2.读入人脸库。读入每一个二维的人脸图像数据并转化为一维的向量,对于一个表情的人脸图像,选择一定数量的图像构成训练集,其余的构成测试集,假定图像的大小是w*h(w和h分别维图像的宽度和高度),用于训练的人脸个数是n1,测试的图像个数是n2,令m=w*h,则训练集m*n1是一个的矩阵,测试集是m*n2的矩阵。第幅人脸可
14、以表示为:3.计算每一类的均值 、总均值 和类间离散度矩阵 。4.取类间离散度矩阵 为KL变换生成矩阵 ,进行KL变换。5.计算生成矩阵 的特征值和特征向量,构造特征子空间。首先把特征值从大到小进行排序,同时,其对应的特征向量的顺序也作相应的调整。然后选取其中一 部分构造特征子空间。特征向量具体选取多少,本文采取实验的方法进行确定。6.把训练图像和测试图像投影到上一步骤构造的特征子空间中。每一幅人脸图像投影到特征子空间以后,就对应于子空间中的一个点。同样,子空间中的任一点也对应 于一幅图像。7.把投影到子空间中的所有测试图像和训练图像进行比较,确定待识别的样本 的所属类别。本文采用最近邻距离分
15、类器进行识别。实验结果Yale Face数据库 MPCA和PCA比较 日本女性表情数据库表情类型PCA识别结果MPCA识别结果Happy66.7%73.3%Normal73.3%73.3%Sad60%66.7%Surprised73.3%80%比较项目MPCAPCA主元数目3842训练时间0.090.25表情类型PCA识别结果MPCA识别结果Happy76.7%80%Normal73.3%76.7%Sad70%73.3%Surprised80%83.3%基于单特征单分类器的面部表情识别v基于神经网络级联的面部表情识别v基于几何特征的面部表情识别v基于均值主元分析的面部表情识别v基于Fisher
16、线性判别的面部表情识别基于Fisher线性判别的面部表情识别Fisher 线性判别Fisher线性判别的改进:TPCA+FLD基于Fisher线性判别的面部表情识别流程实验结果Fisher 线性判别 Fisher 线性判别(Fishers Linear Discriminant:FLD)是基于样本的类别进行整体特征提取的有效方法,FLD则在PCA基础上的改进,目标在于,试图建立一个更小的维数的、只包含最基本元素的空间,它试图最大化类间分布,而最小化类内分布,换句话说,对于人脸面部表情识别 FLD 移动同一类的人脸图像更近,而不同类的人脸图像移的越远。设训练样本集共有N 个训练样本 ,分为c类
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 信息 融合 面部 表情 分析 识别
限制150内