搜档网
当前位置:搜档网 › 基于神经网络的人脸识别实验报告

基于神经网络的人脸识别实验报告

基于神经网络的人脸识别实验报告
基于神经网络的人脸识别实验报告

基于神经网络的人脸识实验报告别

一、 实验要求

采用三层前馈BP 神经网络实现标准人脸YALE 数据库的识别。 二、BP 神经网络的结构和学习算法

实验中建议采用如下最简单的三层BP 神经网络,输入层为],,,[21n x x x X =,有n 个神经元节点,输出层具有m 个神经元,网络输出为],,,[21m y y y Y =,隐含层具有k 个神经元,采用BP 学习算法训练神经网络。

BP 神经网络的结构

BP 网络在本质上是一种输入到输出的映射,它能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确的数学表达式,只要用已知的模式对BP 网络加以训练,网络就具有输入输出对之间的映射能力。

BP 网络执行的是有教师训练,其样本集是由形如(输入向量,期望输出向量)的向量对构成的。在开始训练前,所有的权值和阈值都应该用一些不同的小随机数进行初始化。

BP 算法主要包括两个阶段: (1) 向前传播阶段

①从样本集中取一个样本(X p ,Y p ),将X p 输入网络,其中X p 为输入向量,Y p 为期望输出向量。

②计算相应的实际输出O p 。

在此阶段,信息从输入层经过逐级的变换,传送到输出层。这个过程也是网络在完成训练后正常运行时执行的过程。在此过程中,网络执行的是下列运算: (1)(2)()21(...((())...))n p n p O F F F X W W W =

(2) 向后传播阶段

①计算实际输出O p 与相应的理想输出Y p 的差; ②按极小化误差的方法调整权矩阵。

这两个阶段的工作一般应受到精度要求的控制,定义

21

1()2m

p pj pj j E y o ==-∑ (1)

作为网络关于第p 个样本的误差测度(误差函数)。而将网络关于整个样本集的误差测度定义为

p E E =∑ (2)

如前所述,将此阶段称为向后传播阶段,也称之为误差传播阶段。 为了更清楚地说明本文所使用的BP 网络的训练过程,首先假设输入层、中间层和输出层的单元数分别是N 、L 和M 。X=(x 0,x 1,…,x N-1)是加到网络的输入矢量,H=(h 0,h 1,…,h L-1)是中间层输出矢量,Y=(y 0,y 1,…,y M-1)是网络的实际输出矢量,并且用D=(d 0,d 1,…,d M-1)来表示训练组中各模式的目标输出矢量。输出单元i 到隐单元j 的权值是V ij ,而隐单元j 到输出单元k 的权值是W jk 。另外用θk 和Φj 来分别表示输出单元和隐单元的阈值。

于是,中间层各单元的输出为:

1

0()N j ij i j i h f V x φ-==+∑ (3)

而输出层各单元的输出是:

1

0()L k jk j k j y f W h θ-==+∑ (4)

其中f(*)是激励函数,采用S 型函数:

1

()1x

f x e

-=+ (5) 在上述条件下,网络的训练过程如下:

(1) 选定训练集。由相应的训练策略选择样本图像作为训练集。

(2) 初始化各权值V ij ,W jk 和阈值Φj ,θk ,将其设置为接近于0的随机值,并初始化精度控制参数ε和学习率α。

(3) 从训练集中取一个输入向量X 加到网络,并给定它的目标输出向量D 。 (4) 利用式(7)计算出一个中间层输出H ,再用式(8)计算出网络的实际输出Y 。 (5) 将输出矢量中的元素y k 与目标矢量中的元素d k 进行比较,计算出M 个输出误差项:()(1)k k k k k d y y y δ=--对中间层的隐单元也计算出L 个误差项:

1

*0(1)M J

j j k jk k h h W δδ-==-∑

(6) 依次计算出各权值和阈值的调整量:

()(/(1))*((1)1)**jk jk k j W n L W n h αδ?=+?-+ (6)

*()(/(1))*((1)1)**ij ij j i

V n N V n x αδ?=+?-+ (7) ()(/(1))*((1)1)*k k k n L n θαθδ?=+?-+ (8)

*()(/(1))*((1)1)*j j j

n L n φαφδ?=+?-+ (9) (7) 调整权值和阈值:(1)()()jk jk jk W n W n W n +=+?,(1)()()ij ij ij V n V n V n +=+?

(1)()()k k k n n n θθθ+=+?,(1)()()j j n n n φφφ+=+?

(8) 当k 每经历1至M 后,判断指标是否满足精度要求:E ≤ε,其中E 是总误

差函数,且1

20

1()2M k k k E d y -==-∑。如果不满足,就返回(3),继续迭代。如果满足,

就进入下一步。

(9) 训练结束,将权值和阈值保存在文件中。这时可以认为各个权值已经达到稳定,分类器形成。再一次进行训练时,直接从文件导出权值和阈值进行训练,不需要进行初始化。

BP 算法流程图

YALE 数据库是由耶鲁大学计算视觉与扼制中心创立,包括15位志愿者,每个人有11张不同姿势、光照和表情的图片,共计165张图片,图片均为80*100像素的BMP 格式图像。我们将整个数据库分为两个部分,每个人的前5幅图片作为网络的训练使用,后6副图片作为测试使用。 测试样例:

三、实验结果

四、源代码:

function main()

%%

clc

clear all;

%close all;

load('date1_5.mat','feature');

warning off all

SamNum=35; %输入样本数量

TestSamNum=35; %测试样本数量

ForcastSamNum=20; %预测样本数量

HiddenUnitNum=8; %中间层隐节点数量取8

InDim=40; %网络输入维度

OutDim=4; %网络输出维度

%%input

p=[];t=[];pnew=[];

for i=1:55

if(mod(i,11)<=7&&mod(i,11)>0)

p=[p;feature(i,:)];

else

pnew=[pnew;feature(i,:)];

end

end

p=p';pnew=pnew';

%%output

s1=[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ];

s2=[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 ];

s3=[0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ];

s4=[1 1 1 1 1 1 1 0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 0 0 1 1 1 1 1 1 1 ];

t=[s1;s2;s3;s4];

size(t) %%4*35 输出

size(p) %%40*35 输入

[SamIn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始样本对(输入和输出)初始化

rand('state',sum(100*clock)) %依据系统时钟种子产生随机数

SamOut=tn;

TestSamIn=SamIn; %这里取输入样本与测试样本相同因为样本容量偏少

TestSamOut=SamOut; %也取输出样本与测试样本相同

MaxEpochs=50000; %最多训练次数为50000

lr=0.035; %学习速率为0.035

E0=0.65*10^(-3); %目标误差为0.65*10^(-3)

W1=0.5*rand(HiddenUnitNum,InDim)-0.2; %初始化输入层与隐含层之间的权值

B1=0.5*rand(HiddenUnitNum,1)-0.2; %初始化输入层与隐含层之间的阈值

W2=0.5*rand(OutDim,HiddenUnitNum)-0.2; %初始化输出层与隐含层之间的权值

B2=0.5*rand(OutDim,1)-0.2; %初始化输出层与隐含层之间的阈值

ErrHistory=[]; %给中间变量预先占据内存

for i=1:MaxEpochs

% HiddenOut=logsig(W1*SamIn+repmat(B1,1,SamNum)); % 隐含层网络输出HiddenOut=1./(1+exp(-(W1*SamIn+repmat(B1,1,SamNum)))); % 隐含层网络输出

NetworkOut=W2*HiddenOut+repmat(B2,1,SamNum); % 输出层网络输出

Error=SamOut-NetworkOut; % 实际输出与网络输出之差SSE=sumsqr(Error) ; %能量函数(误差平方和)

ErrHistory=[ErrHistory SSE];

if SSE

% 调整权值(阈值)

Delta2=Error;

Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);

dW2=Delta2*HiddenOut';

dB2=Delta2*ones(SamNum,1);

dW1=Delta1*SamIn';

dB1=Delta1*ones(SamNum,1);

%对输出层与隐含层之间的权值和阈值进行修正

W2=W2+lr*dW2;

B2=B2+lr*dB2;

%对输入层与隐含层之间的权值和阈值进行修正

W1=W1+lr*dW1;

B1=B1+lr*dB1;

end

HiddenOut=1./(1+exp(-((W1*SamIn+repmat(B1,1,TestSamNum))))); % 隐含层输出最终结果

NetworkOut=W2*HiddenOut+repmat(B2,1,TestSamNum); % 输出层输出最终结果

a=postmnmx(NetworkOut,mint,maxt); % 还原网络输出层的结果

%%

% 利用训练好的网络进行预测

pnewn=tramnmx(pnew,minp,maxp); %归一化;

HiddenOut=1./(1+exp(-(W1*pnewn+repmat(B1,1,ForcastSamNum))));

anewn=W2*HiddenOut+repmat(B2,1,ForcastSamNum); % 输出层输出预测结果

%把网络预测得到的数据还原为原始的数量级;

anew=postmnmx(anewn,mint,maxt);

answer=zeros(1,size(anew,2));

d=1;

for j=1:20

for i=4:-1:1

answer(j)=answer(j)+anew(i,j)*d;

d=d*2;

end

d=1;

end

answer=answer+0.5;

answer=floor(answer)

function [feature] = read_can_use()

clc,clear;

%%

for i=1:5

for jj=1:11

%%

s1='YALE\subject0';

s2=int2str(i);s22='_';s222=int2str(jj);

s3='.bmp';

str=strcat(s1,s2);

str=strcat(str,s22);

str=strcat(str,s222);

str=strcat(str,s3);

a2=imread(str);

M=double(a2);

%%

num=1;

for j=1:10

for k=1:4

x=i;

%将图片的灰度矩阵划分成32块小矩阵

temp_num1=size(M,1)./10;%100*80

temp_num2=size(M,2)./4;

temp=M((j-1)*temp_num1+1:j*temp_num1,(k-1)*temp_num2+1:k*temp_num2);

%对每个小矩阵进行SVD变换

[u,temp1,v]=svd(temp);

%提取最大的SVD系数作为特征值

temp2=temp1(num,num);

%得到所有图片的特征矩阵

feature((x-1)*11+jj,(j-1)*4+k)=temp2;

end

end

end

end

save('date1_5','feature');

神经网络在人脸识别中的应用

神经网络在人脸识别中的应用 1. 引言 早在上世纪60年代末,人脸识别即引起了研究者的强烈兴趣.但早期的人脸识别一般都需要人的某些先验知识,无法摆脱人的干预。进入上世纪90年代,由于高速度、高性能计算机的出现,人脸识别的方法有了重大突破,进入了真正的机器自动识别阶段,人脸识别研究得到了前所未有的重视。人脸识别方法有很多种: (1) 特征脸方法。这种方法起源于图像描述技术,采用特征脸识别方法有良好的 稳定性、位移不变性、特征向量与图像的高度成比例变化以及转置不变性。不足之处是受表情变化、光照角度强度变化和视角变化等严重影响,鲁棒性较差。(2) 隐马尔可夫模型方法(HiddenMarkovModel) 是用于描述信号统计特征的一 组统计模型。HMM 的基本理论是由Baum和Welch等人在20世纪60年代末70年代初建立,在语音识别中应用较多。 (3) 弹性图匹配方法。弹性图匹配方法是一种基于动态连接结构的方法。它将人脸用格状的稀疏图表示。 (4) 神经网络方法。人工神经网络是由多个神经元按照一定的排列顺序构成的,是一个非线性动力学系统,其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单,功能有限,但由大量冲经元所构成的网络系统却能够 实现复杂丰富的功能。神经网络系统除了具有集体运算的能力和自适应的学习能力外,还有根强的容错性和鲁棒性?善于联想、综合和推广。神经网络模型各种各样。它们是从不同的角度对生物神经系统不同层次的描述和模拟。有代表性的网络模型有感知器、多层映射BP网络、RBF网络等。目前,在人工神经网络的实际应用中,绝大部分的神经网络模型都是采用BP网络及其变化形式,它也是前向网

人脸识别实验报告

人脸识别——特征脸方法 贾东亚12346046 一、实验目的 1、学会使用PCA主成分分析法。 2、初步了解人脸识别的特征法。 3、更熟练地掌握matlab的使用。 二、原理介绍 1、PCA(主成分分析法介绍) 引用一个网上的例子。假设有一份对遥控直升机操作员的调查,用x1(i)表示飞行员i的 飞行技能,x2(i)表示飞行员i喜欢飞行的程度。通常遥控直升飞机是很难操作的,只有那些 非常坚持而且真正喜欢驾驶的人才能熟练操作。所以这两个属性x1(i)和x2(i)相关性是非常强的。我们可以假设两者的关系是按正比关系变化的。如下图里的任意找的向量u1所示,数据散布在u1两侧,有少许噪声。 现在我们有两项数据,是二维的。那么如何将这两项变量转变为一个来描述飞行员呢?由图中的点的分布可知,如果我们找到一个方向的U,所有的数据点在U的方向上的投影之 和最大,那么该U就能表示数据的大致走向。而在垂直于U的方向,各个数据点在该方向的投影相对于在U上的投影如果足够小,那么我们可以忽略掉各数据在该方向的投影,这样我们就把二维的数据转化成了在U方向上的一维数据。 为了将u选出来,我们先对数据进行预处理。先求出所有数据的平均值,然后用数据与平均值的偏差代替数据本身。然后对数据归一化以后,再代替数据本身。 而我们求最大的投影和,其实就是求各个数据点在U上的投影距离的方差最大。而XT u 就是投影的距离。故我们要求下式的最大值: 1 m ∑(x(i)T u)2=u T( 1 m ∑x(i)x(i)T m i=1 ) m i=1 u 按照u是单位向量来最大化上式,就是求1 m ∑x(i)x(i)T m i=1的特征向量。而此式是数据集的 协方差矩阵。

数字图像处理实验报告实验三

中南大学 数字图像处理实验报告实验三数学形态学及其应用

实验三 数学形态学及其应用 一.实验目的 1.了解二值形态学的基本运算 2.掌握基本形态学运算的实现 3.了解形态操作的应用 二.实验基本原理 腐蚀和膨胀是数学形态学最基本的变换,数学形态学的应用几乎覆盖了图像处理的所有领域,给出利用数学形态学对二值图像处理的一些运算。 膨胀就是把连接成分的边界扩大一层的处理。而收缩则是把连接成分的边界点去掉从而缩小一层的处理。 二值形态学 I(x,y), T(i,j)为 0/1图像Θ 腐蚀:[]),(&),(),)((),(0,j i T j y i x I AND y x T I y x E m j i ++=Θ== 膨胀:[]),(&),(),)((),(0 ,j i T j y i x I OR y x T I y x D m j i ++=⊕== 灰度形态学T(i,j)可取10以外的值 腐蚀: []),(),(min ),)((),(1 ,0j i T j y i x I y x T I y x E m j i -++=Θ=-≤≤ 膨胀: []),(),(max ),)((),(1 ,0j i T j y i x I y x T I y x D m j i +++=⊕=-≤≤ 1.腐蚀Erosion: {}x B x B X x ?=Θ: 1B 删两边 2B 删右上 图5-1 剥去一层(皮) 2.膨胀Dilation: {}X B x B X x ↑⊕:= 1B 补两边 2B 补左下 图5-2 添上一层(漆) 3.开运算open :

B B X ⊕Θ=)(X B 4.闭close :∨ Θ⊕=B B X X B )( 5.HMT(Hit-Miss Transform:击中——击不中变换) 条件严格的模板匹配 ),(21T T T =模板由两部分组成。1T :物体,2T :背景。 {} C x x i X T X T X T X ??=?21, 图5-3 击不中变换示意图 性质: (1)φ=2T 时,1T X T X Θ=? (2))()()(21T X T X T X C Θ?Θ=? C T X T X )()(21Θ?Θ= )/()(21T X T X ΘΘ= 6.细化/粗化 (1)细化(Thin ) C T X X T X XoT )(/??=?= 去掉满足匹配条件的点。 图5-4 细化示意图 系统细化{}n B oB XoB T Xo ))(((21=, i B 是1-i B 旋转的结果(90?,180?,270?)共8种情况 适于细化的结构元素 1111000d d I = d d d L 10110 0= (2)粗化(Thick ) )(T X X T X ??=? 用(){}0,01=T (){}0,12=T 时,X X X T X =?=? X 21 1 1 2 3 T ? XoT X ? X X ?T X ΘT T ⊕

模式识别第二次上机实验报告

北京科技大学计算机与通信工程学院 模式分类第二次上机实验报告 姓名:XXXXXX 学号:00000000 班级:电信11 时间:2014-04-16

一、实验目的 1.掌握支持向量机(SVM)的原理、核函数类型选择以及核参数选择原则等; 二、实验内容 2.准备好数据,首先要把数据转换成Libsvm软件包要求的数据格式为: label index1:value1 index2:value2 ... 其中对于分类来说label为类标识,指定数据的种类;对于回归来说label为目标值。(我主要要用到回归) Index是从1开始的自然数,value是每一维的特征值。 该过程可以自己使用excel或者编写程序来完成,也可以使用网络上的FormatDataLibsvm.xls来完成。FormatDataLibsvm.xls使用说明: 先将数据按照下列格式存放(注意label放最后面): value1 value2 label value1 value2 label 然后将以上数据粘贴到FormatDataLibsvm.xls中的最左上角单元格,接着工具->宏执行行FormatDataToLibsvm宏。就可以得到libsvm要求的数据格式。将该数据存放到文本文件中进行下一步的处理。 3.对数据进行归一化。 该过程要用到libsvm软件包中的svm-scale.exe Svm-scale用法: 用法:svmscale [-l lower] [-u upper] [-y y_lower y_upper] [-s save_filename] [-r restore_filename] filename (缺省值:lower = -1,upper = 1,没有对y进行缩放)其中,-l:数据下限标记;lower:缩放后数据下限;-u:数据上限标记;upper:缩放后数据上限;-y:是否对目标值同时进行缩放;y_lower为下限值,y_upper为上限值;(回归需要对目标进行缩放,因此该参数可以设定为–y -1 1 )-s save_filename:表示将缩放的规则保存为文件save_filename;-r restore_filename:表示将缩放规则文件restore_filename载入后按此缩放;filename:待缩放的数据文件(要求满足前面所述的格式)。缩放规则文件可以用文本浏览器打开,看到其格式为: y lower upper min max x lower upper index1 min1 max1 index2 min2 max2 其中的lower 与upper 与使用时所设置的lower 与upper 含义相同;index 表示特征序号;min 转换前该特征的最小值;max 转换前该特征的最大值。数据集的缩放结果在此情况下通过DOS窗口输出,当然也可以通过DOS的文件重定向符号“>”将结果另存为指定的文件。该文件中的参数可用于最后面对目标值的反归一化。反归一化的公式为: (Value-lower)*(max-min)/(upper - lower)+lower 其中value为归一化后的值,其他参数与前面介绍的相同。 建议将训练数据集与测试数据集放在同一个文本文件中一起归一化,然后再将归一化结果分成训练集和测试集。 4.训练数据,生成模型。 用法:svmtrain [options] training_set_file [model_file] 其中,options(操作参数):可用的选项即表示的涵义如下所示-s svm类型:设置SVM 类型,默

人工智能YOLO V2 图像识别实验报告材料

第一章前言部分 1.1课程项目背景与意义 1.1.1课程项目背景 视觉是各个应用领域,如制造业、检验、文档分析、医疗诊断,和军事等领域中各种智能/自主系统中不可分割的一部分。由于它的重要性,一些先进国家,例如美国把对计算机视觉的研究列为对经济和科学有广泛影响的科学和工程中的重大基本问题,即所谓的重大挑战。计算机视觉的挑战是要为计算机和机器人开发具有与人类水平相当的视觉能力。机器视觉需要图象信号,纹理和颜色建模,几何处理和推理,以及物体建模。一个有能力的视觉系统应该把所有这些处理都紧密地集成在一起。作为一门学科,计算机视觉开始于60年代初,但在计算机视觉的基本研究中的许多重要进展是在80年代取得的。计算机视觉与人类视觉密切相关,对人类视觉有一个正确的认识将对计算机视觉的研究非常有益。 计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。这里所指的信息指Shannon定义的,可以用来帮助做一个“决定”的信息。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。 科学技术的发展是推动人类社会进步的主要原因之一,未来社会进一步地朝着科技化、信息化、智能化的方向前进。在信息大爆炸的今天,充分利用这些信息将有助于社会的现代化建设,这其中图像信息是目前人们生活中最常见的信息。利用这些图像信息的一种重要方法就是图像目标定位识别技术。不管是视频监控领域还是虚拟现实技术等都对图像的识别有着极大的需求。一般的图像目标定位识别系统包括图像分割、目标关键特征提取、目标类别分类三个步骤。 深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的概念由Hinton等人于2006年提出。基于深度置信网络提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。

模式识别实验报告

模式识别实验报告

————————————————————————————————作者:————————————————————————————————日期:

实验报告 实验课程名称:模式识别 姓名:王宇班级: 20110813 学号: 2011081325 实验名称规范程度原理叙述实验过程实验结果实验成绩 图像的贝叶斯分类 K均值聚类算法 神经网络模式识别 平均成绩 折合成绩 注:1、每个实验中各项成绩按照5分制评定,实验成绩为各项总和 2、平均成绩取各项实验平均成绩 3、折合成绩按照教学大纲要求的百分比进行折合 2014年 6月

实验一、 图像的贝叶斯分类 一、实验目的 将模式识别方法与图像处理技术相结合,掌握利用最小错分概率贝叶斯分类器进行图像分类的基本方法,通过实验加深对基本概念的理解。 二、实验仪器设备及软件 HP D538、MATLAB 三、实验原理 概念: 阈值化分割算法是计算机视觉中的常用算法,对灰度图象的阈值分割就是先确定一个处于图像灰度取值范围内的灰度阈值,然后将图像中每个像素的灰度值与这个阈值相比较。并根据比较的结果将对应的像素划分为两类,灰度值大于阈值的像素划分为一类,小于阈值的划分为另一类,等于阈值的可任意划分到两类中的任何一类。 最常用的模型可描述如下:假设图像由具有单峰灰度分布的目标和背景组成,处于目标和背景内部相邻像素间的灰度值是高度相关的,但处于目标和背景交界处两边的像素灰度值有较大差别,此时,图像的灰度直方图基本上可看作是由分别对应于目标和背景的两个单峰直方图混合构成。而且这两个分布应大小接近,且均值足够远,方差足够小,这种情况下直方图呈现较明显的双峰。类似地,如果图像中包含多个单峰灰度目标,则直方图可能呈现较明显的多峰。 上述图像模型只是理想情况,有时图像中目标和背景的灰度值有部分交错。这时如用全局阈值进行分割必然会产生一定的误差。分割误差包括将目标分为背景和将背景分为目标两大类。实际应用中应尽量减小错误分割的概率,常用的一种方法为选取最优阈值。这里所谓的最优阈值,就是指能使误分割概率最小的分割阈值。图像的直方图可以看成是对灰度值概率分布密度函数的一种近似。如一幅图像中只包含目标和背景两类灰度区域,那么直方图所代表的灰度值概率密度函数可以表示为目标和背景两类灰度值概率密度函数的加权和。如果概率密度函数形式已知,就有可能计算出使目标和背景两类误分割概率最小的最优阈值。 假设目标与背景两类像素值均服从正态分布且混有加性高斯噪声,上述分类问题可以使用模式识别中的最小错分概率贝叶斯分类器来解决。以1p 与2p 分别表示目标与背景的灰度分布概率密度函数,1P 与2P 分别表示两类的先验概率,则图像的混合概率密度函数可用下式表示为

神经网络在人脸识别中的应用

神经网络在人脸识别中的应用 1.引言 早在上世纪60年代末, 人脸识别即引起了研究者的强烈兴趣.但早期的人脸识别一般都需要人的某些先验知识, 无法摆脱人的干预。进入上世纪9O年代, 由于高速度、高性能计算机的出现,人脸识别的方法有了重大突破, 进入了真正的机器自动识别阶段, 人脸识别研究得到了前所未有的重视。人脸识别方法有很多种: (1)特征脸方法。这种方法起源于图像描述技术,采用特征脸识别方法有良好的稳定性、位移不变性、特征向量与图像的高度成比例变化以及转置不变性。不足之处是受表情变化、光照角度强度变化和视角变化等严重影响, 鲁棒性较差。(2)隐马尔可夫模型方法(HiddenMarkovMode1)是用于描述信号统计特征的一组统计模型。HMM的基本理论是由Baum和Welch等人在20世纪6O年代末70年代初建立, 在语音识别中应用较多。 (3)弹性图匹配方法。弹性图匹配方法是一种基于动态连接结构的方法。它将人脸用格状的稀疏图表示。 (4)神经网络方法。人工神经网络是由多个神经元按照一定的排列顺序构成的, 是一个非线性动力学系统, 其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单, 功能有限, 但由大量冲经元所构成的网络系统却能够实现复杂丰富的功能。神经网络系统除了具有集体运算的能力和自适应的学习能力外, 还有根强的容错性和鲁棒性.善于联想、综合和推广。神经网络模型各种各样。它们是从不同的角度对生物神经系统不同层次的描述和模拟。有代表性的网络模型有感知器、多层映射BP网络、RBF网络等。目前, 在人工神经网络的实际应用中,绝大部分的神经网络模型都是采用BP网络及其变化形式, 它也是前向网络的核心部分, 是人工神经网络最精华的部分。2BP神经网络的人脸识别BP神经网络用于人脸识别一般应先对输入图像实行图像预处理,然后进行特征提取,接下来就是BP网络训练,最后用训练好的网络进行识别,获得识别结果。 2.基于特征脸和BP 神经网络的人脸识别方法 2.1特征脸分析 这种方法是根据图像的统计特征进行正交变换( K-L 变换) [3] , 以去除样 本间的相关性, 然后根据特征值的大小选择特征向量( 主分量) , 由于这些特 征向量的图像类似人脸, 所以称为特征脸[4, 5] 。下面就这种方法作简要介绍。 X∈RN 为表示一幅图像的随机向量, 这里N是图像的大小, X 由图像的行或列连 接而成的向量。假设有p 个人, 每个人有r1 ( 1≤i≤P) 个人脸样本图像, 样 本集为{ Xji } , Xji表示第j个人的第i个样本。那么每个人样本均值向量为 mi ( 1≤ i≤p) ; 总体样本均值向量为m; 类间散布矩阵为

人脸识别实验报告解读

人脸识别——特征脸方法 贾东亚12346046 一、实验目的 1、学会使用PCA主成分分析法。 2、初步了解人脸识别的特征法。 3、更熟练地掌握matlab的使用。 二、原理介绍 1、PCA(主成分分析法介绍) 引用一个网上的例子。假设有一份对遥控直升机操作员的调查,用表示飞行员i的 飞行技能,表示飞行员i喜欢飞行的程度。通常遥控直升飞机是很难操作的,只有那些 非常坚持而且真正喜欢驾驶的人才能熟练操作。所以这两个属性和相关性是非常强的。我们可以假设两者的关系是按正比关系变化的。如下图里的任意找的向量u1所示,数据散布在u1两侧,有少许噪声。 现在我们有两项数据,是二维的。那么如何将这两项变量转变为一个来描述飞行员呢?由图中的点的分布可知,如果我们找到一个方向的U,所有的数据点在U的方向上的投影之和最大,那么该U就能表示数据的大致走向。而在垂直于U的方向,各个数据点在该方向 的投影相对于在U上的投影如果足够小,那么我们可以忽略掉各数据在该方向的投影,这 样我们就把二维的数据转化成了在U方向上的一维数据。 为了将u选出来,我们先对数据进行预处理。先求出所有数据的平均值,然后用数据与平均值的偏差代替数据本身。然后对数据归一化以后,再代替数据本身。 而我们求最大的投影和,其实就是求各个数据点在U上的投影距离的方差最大。而X T u 就是投影的距离。故我们要求下式的最大值: 按照u是单位向量来最大化上式,就是求的特征向量。而此式是数据集的协方差矩阵。

在实际应用中,我们不止面临二维的数据。因此不能使用几何的形式呈现,但原理也是一样。就是找到一组相互正交的单位向量,然后根据贡献率考虑选择其中的部分作为考量的维数,这也就实现了数据的降维。 三、实验步骤 1、将库里的400张照片分成两组。一组作为训练,一组作为库。每个人的前五张照片作为 训练,后五张作为库。训练的照片按照顺序的数字重命名。库的照片名字不变。 2、库照片处理。 ①将每一张库的照片转化成N维的向量。(库里的照片是112*92,故将转化成的矩阵按列或行展开,就是个10304维的向量)我们稍后要对如此多维的向量用PCA进行降维。然后把这些向量存入一个矩阵里。而我是将这200个向量以列的形式存在了矩阵里。 即 ,,, ②将这200个向量的每个元素相加起来求出平均值。再用Z里的每一个向量减去这个平均值得到每个的偏差。 平均值,每个向量的偏差 即最后 ,,, ③接下来我们就要针对这些预处理后的数据进行降维。我们要求的N个相互正交的向量就是协方差矩阵的特征向量,而对应的特征值就是各个向量所占的比重。但是Z是个10304*200的矩阵,那么就是个10304*10304的矩阵。使用matlab直接求其特征值与特征向量不太实际。 所以我们考虑一个简单的运算方法: 协方差矩阵的秩受到训练图像的限制:如果有N个训练样本,则最多有N? 1 个对应非零特征值的特征向量,其他的特征向量对应的特征值都是0。如果训练样本的数目比图像的维数低,则可以通过如下方法简化主成份的计算。 设 Z是预处理图像的矩阵,每一列对应一个减去均值图像之后的图像。则,协方差矩阵为,并且对S的特征值分解为

数字图像处理实验报告(图像边缘检测)

实验报告 实验名称实验三图像边缘检测 课程名称数字图像处理 姓名成绩 班级学号 备注: (1)了解并掌握使用微分算子进行图像边缘检测得基本原理; (2)编写程序使用Laplacian 算子(二阶导数算子)实现图像锐化,进一步理解图像 锐化得实质; (3)掌握使用不同梯度算子(一阶导数算子)进行图像边缘检测得原理、方法,根据 实验结果分析各种算子得工作效果; (4)总结实验过程(实验报告,左侧装订):方案、编程、调试、结果、分析、结论。 2、实验环境 (1)Windows XP/7 (2)Matlab 7、1/7、14 3、实验方法 本次实验要求对256×256大小,256级灰度得数字图像lena、img进行处理。(1)对该图像进行锐化处理,要求采用Laplacian算子进行锐化,分α=1与α=2两种情况,按如下不同情况进行处理: ①g1(m,n)=f(m,n)-α?f ②g2(m,n)=4αf(m,n)-α[f(m-1,n)+f(m+1,n)+f(m,n-1)+f(m,n+1)] I、要对图像进行处理,要先读取该图像,实验代码如下: closeall; clear all; fid=fopen(’lena、img',’r'); image=fread(fid,[256,256],’uint8'); fclose(fid); II、读取图像后,对该图像得每一像素(不考虑图像得边界部分)进行遍历,根据公

式①(公式①相当于做差分)对每一灰度进行计算,将所得得结果存入一矩阵g1中(矩阵g1初始化为该图像得矩阵),代码如下(仅以ɑ=1为例): g1=image; a=1; [x,y]=size(image); fori=2:(x-1) for j=2:(y—1)?????g1(i,j)=(1+4*a)*image(i,j)-a *(image(i+1,j)+image(i-1,j)+image(i,j+1)+image(i,j—1)); end end III、根据公式②对图像得每一个像素(不考虑图像得边界部分)进行计算,将所得之存入矩阵g2中(g2初始化值为该图像得矩阵值),具体方法与上一步类似,代码如下(仅以ɑ=1为例): g2=image; a=1; [x,y]=size(image); fori=2:(x-1) for j=2:(y-1) ?g2(i,j)=4*a*image(i,j)—a*(image(i+1,j)+image(i-1,j)+im age(i,j+1)+image(i,j-1)); end end (2)分别利用Roberts、Prewitt与Sobel边缘检测算子,对原图像进行边缘检测,显 示处理前、后图像。 I、同(1)中I,不再赘述。 II、对图像进行边缘检测,要对图像得每一像素(不考虑图像得边界部分)得灰度进行遍历,分别用公式对图像得水平与垂直方向得边缘进行检测,并分别存储,在进行合成。采用不同得算子时,变换得公式有所不同。在合成时可以采用三种算法(街区法、棋盘法、欧式几何法),本次实验中均又采用,所以得到三层图像。代码如下(仅以街区法得Roberts 算子为例): [x,y]=size(image); g1=image; gh1=image; gv1=image; for i=2:(x-1) for j=2:(y-1) gh1(i,j)=image(i,j)-image(i-1,j—1); gv1(i,j)=image(i,j-1)-image(i—1,j); g1(i,j)=abs(gh1(i,j))+abs(gv1(i,j)); end end 4、实验结果分析 (1)、图像锐化

KL变换应用于人脸识别

基于K-L 变换的人脸识别 一、基本要求 从网上下载人脸图像,构建人脸训练数据库和测试数据库,采用K-L 变换进行特征脸提取,并实现人脸识别。通过K-L 变换在人脸识别中的应用,加深对所学内容的理解和感性认识。 1、或者从网上下载其它数据库,编程实现K-L 变换。 2、课堂报告、并提交实验报告及相应程序。 二、实验原理 1、K-L 变换:就是以样本特征向量在特征空间分布为原始数据,通过变换,找 到维数较少的组合特征,达到降维的目的。 K-L 变换是一种正交变换,即将一个向量X ,在某一种坐标系统中的描述,转换成用另一种基向量组成的坐标系表示。这组基向量是正交的,其中每个坐标 基向量用j u 表示,∞=,2,1 , j ,因此,一个向量X 可表示成 ∑∞ == 1 j j j u c X 如果我们将由上式表示的无限多维基向量坐标系统改成有限维坐 标系近似,即 ∑=∧ =d j j j u c X 1 表示X 的近似值或估计量,我们希望在同样维数条件下,使向量X 的估计量误差最小。确切地说是使所引起的均方误差: )]?()?[(X X X X E T --=ξ 为最小。K-L 变换可以实现这个目的。 因为 ?? ?≠==i j i j u u i T j 0 1

将 ∑∞ +=∧ = -1 d j j j u c X X 带入到)]?()?[(X X X X E T --=ξ中可得到 ][ 1 2 ∑∞ ==j j c E ξ 容易看到 X u c T j j = 因此 ][ 1 ∑∞ +=d j T T j u XX u E ξ 由于j u 是确定性向量,因此上式可改写为 [] ∑∞ +== 1 d j j T T j u XX E u ξ 令 [] T XX E =ψ 则 ∑∞ +== 1 d j j T j u u ψξ 用拉格朗日乘子法,可以求出在满足正交条件下,ξ取极值的坐标系统,即用函数 ∑∑∞ +=∞ +=-- =1 1 ]1[d j j T j j d j j T j j u u u u u g λψ) ( 对j u ,∞+=,,1 d j 求导数,因此有 ∞+==,,1,0- d j u I j j )(λψ 我们令0=d ,从而可得到以下的结论: 以矩阵ψ的本征向量座位坐标轴来展开X 时,其截断均方误差具有极值性质,且当取d 个d j u j ,,2,1 =,来逼近X 时,其均方误差 ∑∞ +== 1 d j j λ ξ 式中j λ是矩阵ψ的相应本征值。 可以证明,当取d 个与矩阵ψ的d 个最大本征值对应的本征向量来展开X

数字图像处理图像变换实验报告.

实验报告 实验名称:图像处理 姓名:刘强 班级:电信1102 学号:1404110128

实验一图像变换实验——图像点运算、几何变换及正交变换一、实验条件 PC机数字图像处理实验教学软件大量样图 二、实验目的 1、学习使用“数字图像处理实验教学软件系统”,能够进行图像处理方面的 简单操作; 2、熟悉图像点运算、几何变换及正交变换的基本原理,了解编程实现的具体 步骤; 3、观察图像的灰度直方图,明确直方图的作用和意义; 4、观察图像点运算和几何变换的结果,比较不同参数条件下的变换效果; 5、观察图像正交变换的结果,明确图像的空间频率分布情况。 三、实验原理 1、图像灰度直方图、点运算和几何变换的基本原理及编程实现步骤 图像灰度直方图是数字图像处理中一个最简单、最有用的工具,它描述了一幅图像的灰度分布情况,为图像的相关处理操作提供了基本信息。 图像点运算是一种简单而重要的处理技术,它能让用户改变图像数据占据的灰度范围。点运算可以看作是“从象素到象素”的复制操作,而这种复制操作是通过灰度变换函数实现的。如果输入图像为A(x,y),输出图像为B(x,y),则点运算可以表示为: B(x,y)=f[A(x,y)] 其中f(x)被称为灰度变换(Gray Scale Transformation,GST)函数,它描述了输入灰度值和输出灰度值之间的转换关系。一旦灰度变换函数确定,该点运算就完全确定下来了。另外,点运算处理将改变图像的灰度直方图分布。点运算又被称为对比度增强、对比度拉伸或灰度变换。点运算一般包括灰度的线性变换、阈值变换、窗口变换、灰度拉伸和均衡等。 图像几何变换是图像的一种基本变换,通常包括图像镜像变换、图像转置、图像平移、图像缩放和图像旋转等,其理论基础主要是一些矩阵运算,详细原理可以参考有关书籍。 实验系统提供了图像灰度直方图、点运算和几何变换相关内容的文字说明,用户在操作过程中可以参考。下面以图像点运算中的阈值变换为例给出编程实现的程序流程图,如下:

人脸识别实验报告

人脸识别——特征脸方法 贾东亚 一、 实验目的 1、学会使用PCA 主成分分析法。 2、初步了解人脸识别的特征法。 3、更熟练地掌握matlab 的使用。 二、 原理介绍 1、 PCA (主成分分析法介绍) 引用一个网上的例子。假设有一份对遥控直升机操作员的调查,用x 1(i ) 表示飞行员i 的 飞行技能,x 2(i )表示飞行员i 喜欢飞行的程度。通常遥控直升飞机是很难操作的,只有那些非常坚持而且真正喜欢驾驶的人才能熟练操作。所以这两个属性x 1(i )和x 2(i )相关性是非常强的。我们可以假设两者的关系是按正比关系变化的。如下图里的任意找的向量u1所示,数据散布在u1两侧,有少许噪声。 现在我们有两项数据,是二维的。那么如何将这两项变量转变为一个来描述飞行员呢由图中的点的分布可知,如果我们找到一个方向的U ,所有的数据点在U 的方向上的投影之和最大,那么该U 就能表示数据的大致走向。而在垂直于U 的方向,各个数据点在该方向的投影相对于在U 上的投影如果足够小,那么我们可以忽略掉各数据在该方向的投影,这样我们就把二维的数据转化成了在U 方向上的一维数据。

为了将u选出来,我们先对数据进行预处理。先求出所有数据的平均值,然后用数据与平均值的偏差代替数据本身。然后对数据归一化以后,再代替数据本身。 而我们求最大的投影和,其实就是求各个数据点在U上的投影距离的方差最大。而X T u 就是投影的距离。故我们要求下式的最大值: 1 m ∑(x(i)T u)2=u T( 1 m ∑x(i)x(i)T m i=1 ) m i=1 u 按照u是单位向量来最大化上式,就是求1 m ∑x(i)x(i)T m i=1 的特征向量。而此式是数据集 的协方差矩阵。 在实际应用中,我们不止面临二维的数据。因此不能使用几何的形式呈现,但原理也是一样。就是找到一组相互正交的单位向量u k,然后根据贡献率考虑选择其中的部分作为考量的维数,这也就实现了数据的降维。 三、实验步骤 1、将库里的400张照片分成两组。一组作为训练,一组作为库。每个人的前五张照片作为 训练,后五张作为库。训练的照片按照顺序的数字重命名。库的照片名字不变。 2、库照片处理。 ①将每一张库的照片转化成N维的向量。(库里的照片是112*92,故将转化成的矩阵按列或行展开,就是个10304维的向量)我们稍后要对如此多维的向量用PCA进行降维。然后把这些向量存入一个矩阵里。而我是将这200个向量以列的形式存在了矩阵里。 即 Z={Γ1,Γ2,Γ3,Γ4 (200)

图像处理边缘提取与分割实验报告附源码

边缘提取与图像分割 理论、算法、源码与实例 1)理论 一、边缘检测的基本方法: 各种差分算子,主要有: 差分边缘检测方法 Roberts梯度模算子 前两种对垂直,水平,对角检测好。 Prewitt算子,Robinson算子(算八个方向的梯度最大值) Sobel算子(利用上下左右加权,可平滑噪声); Kirsch算子 Rosenfeld算子 Laplace算子(二阶导数算子,一般不用于检测,用于之后判别暗区与明区。) LOG算子,(高斯平滑后求导提取边界。) 主要思路用高斯函数对图像平滑滤波,然后再对图像进行拉普拉斯运算,算得的值等于零的点认为是边界点。 该算法高斯函数方差取值很重要,过大会导至精度不高。还容易产生虚假边界。但可以用一些准备去除虚假边界。对于灰度渐变图的效果也不太好。但大部份图片边缘提取效果还好。Canny边界检测算子 二、拟合曲面求导提取边界。 主要思路为在点的邻域各点拟合一个曲面,由曲面的求导代替离散点求差分,这种方法对于噪声比较不敏感。 三、统计判决法提取边界 以误判概率最小化设置门限,对边界检测算子作用后的每个像点判别/。统计判决法依赖于先验知识。 四、分裂—合并算法 按一定的均一化标准,将图片分成子图。合并满足均一性准则的子图。

五、跟踪技术 1)区域跟踪,基于区域的图像分割方法。 应用于直接提取区域。检测满足跟踪准则的点,找到这样的点,检测其所有邻点,把满足跟踪准则的任合邻点合并再重复。直到没有邻点满足检测准则。 2)曲线跟踪,基于边界的图像分割方法。 对整幅图扫描,对所有“现在点”的邻点检测,周围没有满足跟踪条件的点时,返回到上一个最近的分支处,取出另一个满足跟踪原则的现在点。重复根踪。 六、模型化与统计检验法检测边界 开始步骤为对图像划分成多块子图,每块子图进行曲面拟合。并应用误差的分析,构造F 统计量,判断此区域是否有边界的存在。 七、匹配检测技术 基于区域的一种分割方法。 1)归一化互相关测度匹配 类似于求相关系数。但是这种方法实用时不太理想,因为匹配模板的尺寸跟图上的尺寸差异,造成操作很难。 2)匹配滤波器 基于最大信噪比准则。 用一个滤波器对图像子图作卷积,当滤波器为子图旋转180度后的K倍时,功能与相关系数一样。此时称为匹配滤波器。 3)线检测 用匹配滤波器可以设计一些线检测器。对直线检测效果好。 八、利用模式识别某些技术进行图像分割 对每个像素提取特征,提取一个n维特征,如果特效果好,那么在特征空间里,像素点会表现出类聚。一般来说,特征是区域性的,一般是征对邻域或图像的各个子图提取特征。通常特征包含,灰度,空间关系(梯度,像素小块邻域平均灰度,纹理参数,颜色)等。 九、基于活动轮廓模型的边界提取算法 不同于经典的基于求导自下而上过程,而是一种基于总体和局部的自上而下和自下而上的处理过程。借助一些物理概念构造一个描述轮廓状态指标,将图像灰度分布,灰度梯度及轮廓形状约束等信息作为“外能”和“内能”构造活运轮廓的能量函数。将一个初始轮廓放在感兴趣的图像区域中,轮廓在外力和内力作用下变形,外力推动活动轮廓向着物体的边缘运动,而内力要使活动轮廓趋于光滑和保持其拓朴性。在达到平衡时,对应的能量最小,此时的活动轮廓即为要检测的边界。 十、基于视觉特性的边界提取方法 ——线性加权函数(LWF)在边界检测中的应用 视觉系统对亮度对比度的感知可以转化为数学中的微分算子的特征值问题,视觉的感觉响应类似于高斯函数与其拉普拉斯变换之和。基于生理学和数学导出的线性加权函数(LWF)是高斯函数与它的二阶导数的线性组合. 视觉处理过程是图像与一系列不同方差的高斯函数及其二阶导数的卷积过程。

模式识别实验报告(一二)

信息与通信工程学院 模式识别实验报告 班级: 姓名: 学号: 日期:2011年12月

实验一、Bayes 分类器设计 一、实验目的: 1.对模式识别有一个初步的理解 2.能够根据自己的设计对贝叶斯决策理论算法有一个深刻地认识 3.理解二类分类器的设计原理 二、实验条件: matlab 软件 三、实验原理: 最小风险贝叶斯决策可按下列步骤进行: 1)在已知 ) (i P ω, ) (i X P ω,i=1,…,c 及给出待识别的X 的情况下,根据贝叶斯公式计 算出后验概率: ∑== c j i i i i i P X P P X P X P 1 ) ()() ()()(ωωωωω j=1,…,x 2)利用计算出的后验概率及决策表,按下面的公式计算出采取i a ,i=1,…,a 的条件风险 ∑== c j j j i i X P a X a R 1 )(),()(ωω λ,i=1,2,…,a 3)对(2)中得到的a 个条件风险值) (X a R i ,i=1,…,a 进行比较,找出使其条件风险最小的 决策k a ,即()() 1,min k i i a R a x R a x == 则 k a 就是最小风险贝叶斯决策。 四、实验内容 假定某个局部区域细胞识别中正常(1ω)和非正常(2ω)两类先验概率分别为 正常状态:P (1ω)=; 异常状态:P (2ω)=。 现有一系列待观察的细胞,其观察值为x : 已知先验概率是的曲线如下图:

)|(1ωx p )|(2ωx p 类条件概率分布正态分布分别为(-2,)(2,4)试对观察的结果 进行分类。 五、实验步骤: 1.用matlab 完成分类器的设计,说明文字程序相应语句,子程序有调用过程。 2.根据例子画出后验概率的分布曲线以及分类的结果示意图。 3.最小风险贝叶斯决策,决策表如下: 结果,并比较两个结果。 六、实验代码 1.最小错误率贝叶斯决策 x=[ ] pw1=; pw2=; e1=-2; a1=; e2=2;a2=2; m=numel(x); %得到待测细胞个数 pw1_x=zeros(1,m); %存放对w1的后验概率矩阵 pw2_x=zeros(1,m); %存放对w2的后验概率矩阵

面部表情识别实验报告分析

面部表情识别实验 实验报告 小组成员: 面部表情识别实验 西南大学重庆 400715

摘要:情绪认知是一种复杂的过程,它包含观察、分析、判断、推理等,是借助于许多线索,特别是借助面部那些活动性更大的肌肉群的运动而实现的。所以,情绪认知的准确度受多种因素的影响。 当我们与他人相互交往的时候,不管是不是面对面。我们都正在不断的表达着情绪,同时又正在观察,解释着的对方做出的表情,在人际交往过程中,情绪的表达和认知是十分的迅速和及时,那么人是借助于哪些表情来认知他人的情绪的呢?情绪识别实际上并不是针对表情本身的,而是针对这它背后的意义。例如:皱眉可能是一种情绪的表现,我们见到这种面部表情就试图解释潜在于它背后的情绪。尖锐,短促,声音嘶哑可能是一种情绪表现,我们听到这种语言表情就试图解释潜在于它背后的情绪捶胸,顿足可能是一种情绪的表现,我们见到这种动作表情就是试图解释潜在于它背后的情绪。对于这个复杂的问题,心理学家曾经做过许多的研究。 面部表情认知的研究可分为两个步骤:第一步是面部表情刺激物的制作或选择,这可以用专门拍摄(录像)或图示来描画,也可以用完全装扮出的活生生的表情或自发的表情等。第二步时对表情进行识别评定。也可以用多种方法,如自由评定法,即让被试自由地对表情给出情绪词汇;或限制评定法,即向被试提供各种提供各种情绪词汇或情绪情境,要求被试只能根据所提供的情绪词汇或者情绪情境进行分类或者匹配等;或参照自由评定法,即向被试提供参考线索(如情境,人格特征等),让其说出所表达的情绪的词汇等。 关键词:情绪表情认知线索

1 前言 传统心理学把情绪列为心理现象的三大方面之一。情绪也是心理学理论体系中一个不可缺少的研究环节。情绪(emotion)是体验,又是反应;是冲动,又是行为;它是有机体的一种复合状态。情绪的表现有和缓的和激动的,细微的和强烈的,轻松的和紧张的等诸多形式,广泛地同其他心理过程相联系。自古以来,科学家们十分注意探讨情绪之奥妙,但与情绪的重要性不相适应的是,长期以来情绪研究一直是心理学尤其是实验心理学研究中的一个薄弱环节。造成这一现象的最主要原因是情绪所特有的复杂性以及由此衍生出来的情绪研究方法学上的困难。我国心理学家孟昭兰(1987)将理论认为面部表情是传递具体信息的外显行为面部表情是提供人们在感情上互相了解的鲜明标记。情绪过程既包括情绪体验,也包括情绪表现,而表情既是情绪的外部表现,也是情绪体验的发生机制;既是最敏锐的情绪发生器,也是最有效的情绪显示器。这就从机制上说明了以面部肌肉运动模式作为情绪标志的根据。 面部表情(facial expression_r)的发生是有其客观的物质基础的:表情按面部不同部位的肌肉运动而模式化,面部反应模式携带着心理学的意义,那就是或快乐、或悲伤等具体情绪。但是,对表情进行测量的原则在于:所要测量的是面孔各部位的肌肉运动本身,而不是面部所给予观察者的情绪信息。该实验将14名被试分为两组进行表情认知的实验,实验目的在于通过实验了解面部表情认知的基本

数字图像处理实验报告

数字图像处理实验报告标准化文件发布号:(9312-EUATWW-MWUB-WUNN-INNUL-DQQTY-

数字图像处理实验报告 一、实验名称 图像读取和图像直方图统计 二、实验目的 1.强化巩固《数字图像处理》课程中学习的知识,将理论用于实 践。 2.学会利用C++程序语言实现数字图像处理中的“图像读取”和 “图像直方图统计”功能,加深对这门课程的理解。 3.为以后更进一步学习数字图像处理的知识打下基础。 三、实验工具 安装有VC 软件的电脑一台 四、实验步骤(分实验一和实验二) (一)实验一:图像的读取 1.按照实验指导书中的构建DIB函数库的方法,将此函数库的代码 写进文本文档中,并另存为相应的“.cpp”文件和“.h”文件。 2.新建以“Miaoqi”为名字的工程,设置好相应选项。 3.接下来,在该工程中各个文件中添加相应代码。点击 “FileView”即可打开查看。 1)在“”中添加 2)点击“查看”—“建立类向导”,添加 “ON_WM_ERASEBKGND()”,“ON_COMMAND(ID_EDIT_COPY,OnEditCopy)”,

“ON_COMMAND(ID_EDIT_PASTE,OnEditPaste)”,“ON_UPDATE_COMMAND_UI(ID_EDIT_COPY,OnUpdateEditCopy”, “ON_UPDATE_COMMAND_UI(ID_EDIT_ PASTE,OnUpdateEditPaste”。并在中设置页数为1。 3)阅读实验指导书50页到页的内容,打开,完成以下函数相应代 码的添加,以实现相应函数功能。“void MiaoqiView::OnDraw(CDC*pDC)”,“BOOL MiaoqiView::OnEraseBkgnd(CDC*pDC) ”,“LRESULT MiaoqiView::OnDoRealize(WPARAM wParam, LPARAM)”,“void MiaoqiView::OnEditCopy()”,“void MiaoqiView::OnInitialUpdate() ”,“void MiaoqiView::CalcWindowRect(LPRECT lpClientRect, UINT nAdjustType)”,“void MiaoqiView::OnEditPaste() ”,“void CMiaoqiView::OnUpdateEditCopy(CCmdUI* pCmdUI) ”,“ void CMiaoqiView::OnUpdateEditPaste(CCmdUI* pCmdUI)”,“void CChildFrame::ActivateFrame(int nCmdShow)”等。 4)按照实验指导书,补全、等文件中一些细节代码。 5)点击“工程”—“添加到工程”—“文件”,选择和,添加进该 工程。 6)编译,修改部分语法错误,成功后,即可打开所实现的对话框。 (见附图) (二)图像直方图统计(基于实验一:图像的读取)

相关主题