人脸特征提取与识别参考

人脸特征提取与识别参考
人脸特征提取与识别参考

本科生毕业设计(论文)文献综述题目:人脸特征提取与识别

姓名:

学号:

学院:

专业:

年级:

指导教师:(签名)系主任(或教研室主任):(签章)

目录

1 前言 (1)

2 人脸特征提取与识别方法 (1)

2.1 基于几何特征的方法 (1)

2.2 基于特征脸的方法 (2)

2.3 局部特征分析LFA方法 (3)

2.4 基于弹性模型的方法 (4)

2.5 神经网络方法 (4)

2.6 其他方法 (5)

3 总结 (5)

致谢: (6)

参考文献: (6)

人脸特征提取与识别

1前言

近年来,Internet和多媒体技术飞速发展,多媒体(包括图像、视频等)数据规模急剧膨胀。为了快速、准确地找到感兴趣的图像或视频,人们提出了基于内容的图像检索(content-based image retrieval,简称CBIR)技术,研究让计算机对图像进行分类和检索的算法。CBIR涉及图像内容表示、相似性度量、高维索引技术等方面。[1]图像内容的表示是需要首先解决的问题。为了实现对图像内容的存取、访问和检索,MPEG-7提出了图像内容描述子的概念,例如颜色描述子、纹理描述子、形状描述子等。

图像颜色内容通常用颜色直方图来表示,纹理特征以纹理模式区分图像,形状特征用于包含特定形状对象的图像检索。颜色直方图(或称为颜色谱)因其简单、有效的性能而在大多数CBIR系统中得到应用,但是颜色直方图对纹理图像的检索效果不好。不同的纹理图像可能有非常相似的颜色直方图。

所谓图像纹理,它反映的是图像的一种局部结构化特征,具体表现为图像像素点某邻域内像素点灰度级或者颜色的某种变化,而且这种变化是空间统计相关的,它由纹理基元和基元的排列两个要素构成。纹理分析方法有统计方法、结构方法和基于模型的方法。

2人脸特征提取与识别方法

人脸识别本质上是三维塑性物体二维投影图像的匹配问题,它的困难体现在:(1)人脸塑性变形(如表情等)的不确定性;(2)人脸模式的多样性(如胡须、发型、眼镜、化妆等);(3)图像获取过程中的不确定性(如光照的强度、光源方向等)。识别人脸主要依靠人脸上的特征。也就是说依据那些在不同个体上存在的较大差异而对同一个人则比较稳定的度量。由于人脸变化复杂,因此特征表述和特征提取十分困难。

在对人脸图像进行特征提取和分类之前一般需要做几何归一化和灰度归一化。几何归一化是指根据人脸定位结果将图像中人脸变换到同一位置和同样大小,灰度归一化是指对图像进行光照补偿等处理,光照补偿能够一定程度地克服光照变化的影响而提高识别率。

2.1 基于几何特征的方法

人脸由眼睛、鼻子、嘴巴、下巴等部件构成,正因为这些部件的形状、大小和结构上的各种差异才使得世界上每个人脸干差万别,因此对这些部件的形状和结构关系的几何描述,可以作为人脸识别的重要特征。几何特征最早是用于人脸侧面轮廓的描述与识别,首

先根据侧面轮廓曲线确定若干显著点,并由这些显著点导出一组用于识别的特征度量如距离、角度等。Jia等由正面灰度图中线附近的积分投影模拟侧面轮廓图是一种很有新意的方法。[2]

采用几何特征进行正面人脸识别一般是通过提取人眼、口、鼻等重要特征点的位置和眼睛等重要器官的几何形状作为分类特征,但Roder对几何特征提取的精确性进行了实验性的研究,结果不容乐观。[3]可变形模板法可以视为几何特征方法的一种改进,其基本思想是:设计一个参数可调的器官模型(即可变形模板,如图2-1,图2-2所示),定义一个能量函数,通过调整模型参数使能量函数最小化,此时的模型参数即做为该器官的几何特征。这种方法思想很好,但是存在两个问题,一是能量函数中各种代价的加权系数只能由经验确定,难以推广;二是能量函数优化过程十分耗时,难以实际应用。[4]

图2-1 可变形模板法的眼模型

图2-2 可变形模板法的嘴模型

基于参数的人脸表示可以实现对人脸显著特征的一个高效描述,但它需要大量的前处理和精细的参数选择。同时,采用一般几何特征只描述了部件的基本形状与结构关系,忽略了局部细微特征,造成部分信息的丢失,更适合于做粗分类,而且目前已有的特征点检测技术在精确率上还远不能满足要求,计算量也较大。

2.2 基于特征脸的方法

Turk和Pentland提出特征脸的方法,它根据一组人脸训练图像构造主元子空间,由于主元具有脸的形状,也称为特征脸(如图2-3所示)。识别时将测试图像投影到主元子空

间上,得到一组投影系数,和各个己知的人脸图像比较进行识别。Pentland 等报告了相当好的结果,在200个人的3000幅图像中得到95%的正确识别率,在FERET数据库上对150幅正面人脸象只有一个误识别。但系统在进行特征脸方法之前需要作大量预处理工作,如归一化等。

图2-3 Pentland 得到的特征脸(主特征向量)

在传统特征脸的基础上,研究者注意到特征值大的特征人脸识向量(即特征脸)并不一定是分类性能好的方向,据此发展了多种特征(子空间)选择方法,如Peng的双子空间方法、Weng的线性歧义分析方法、Belhumeur的FisherFace方法等。事实上,特征脸方法是一种显式主元分析人脸建模,一些线性自联想、线性压缩型BP网则为隐式的主元分析方法。它们都是把人脸表示为一些向量的加权和,这些向量是训练集叉积阵的主特征向量,Valetin对此作了详细讨论。总之,特征脸方法是一种简单、快速、实用的基于变换系数特征的算法,但由于它在本质上依赖于训练集和测试集图像的灰度相关性,所以还有着很大的局限性。[5]

2.3 局部特征分析LFA方法

主元子空间的表示是紧凑的,特征维数大大降低,但它是非局部化的,其核函数的支集扩展在整个坐标空间中,同时它是非拓扑的,某个轴投影后邻近的点与原图像空间中点的邻近性没有任何关系,而局部性和拓扑性对模式分析和分割是理想的特性,似乎这更符合神经信息处理的机制,因此寻找具有这种特性的表达十分重要。基于这种考虑,Atick 提出基于局部特征的人脸特征提取与识别方法。这种方法在实际应用取得了很好的效果,它构成了Facelt软件的基础。

局部特征分析(Local Feature Analysis,LFA)是一种基于特征表示的面像识别技术,源于类似搭建积木的局部统计的原理。LFA 基于所有的面像(包括各种复杂的式样)都可以从由很多不能再简化的结构单元子集综合而成。这些单元使用复杂的统计技术而形成,它们代表了整个面像,通常跨越多个像素(在局部区域内)并代表了普遍的面部形状,但并不是通常意义上的面部特征。实际上,面部结构单元比面像的部位要多得多。

然而,要综合形成一张精确逼真的面像,只需要整个可用集合中很少的单元子集(12~40特征单元)。要确定身份不仅仅取决于特性单元,还决定于它们的几何结构(比如它们的相关位置)。通过这种方式,LFA 将个人的特性对应成一种复杂的数字表达方式,可以进

行对比和识别。“面纹”编码方式是根据脸部的本质特征和形状来工作的,它可以抵抗光线、皮肤色调、面部毛发、发型、眼镜、表情和姿态的变化,具有强大的可靠性,使它可以从百万人中精确地辨认出一个人。银晨面像识别系统用的就是这种方法。

2.4 基于弹性模型的方法

Lades等人针对畸变不变性的物体识别提出了动态链接模型(DLA)[6],将物体用稀疏图形来描述,其顶点用局部能量的多尺度描述来标记,边则表示拓扑连接关系并用几何距离来标记,然后应用塑性图形匹配技术来寻找最近的己知图形。Wiscott等人在此基础上作了改进,用FERET等图像库做实验,用300幅人脸图像和另外300幅图像作比较,准确率达到97.3%;此方法的缺点是计算量非常巨大。

Nastar将人脸图像I(x,y)建模为可变形的3D网格表面(x,y,I(x, y)),从而将人脸匹配问题转化为可变形曲面的弹性匹配问题[N1]。利用有限元分析的方法进行曲面变形,并根据变形的情况判断两张图片是否为同一个人。这种方法的特点在于将空间(x,y)和灰度I(x,y)放在了一个3D 空间中同时考虑,实验表明识别结果明显优于特征脸方法。

Lanitis等提出灵活表现模型方法,通过自动定位人脸的显著特征,将人脸编码为83 个模型参数,并利用辨别分析的方法进行基于形状的人脸识别。

2.5 神经网络方法

目前神经网络方法在人脸识别中的研究方兴未艾。Valentin 提出一种方法,首先提取人脸的50 个主元,然后用自相关神经网络将它映射到5 维空间中,再用一个普通的多层感知器进行判别,对一些简单的测试图像效果较好;Intrator等提出了一种混合型神经网络来进行人脸识别,其中非监督神经网络用于特征提取,而监督神经网络用于分类。Lee 等将人脸的特点用六条规则描述,然后根据这六条规则进行五官的定位,将五官之间的几何距离输入模糊神经网络进行识别,效果较一般的基于欧氏距离的方法有较大改善;Laurence等采用卷积神经网络方法进行人脸识别,由于卷积神经网络中集成了相邻像素之间的相关性知识,从而在一定程度上获得了对图像平移、旋转和局部变形的不变性,因此得到非常理想的识别结果;Lin等提出了基于概率决策的神经网络方法(PDBNN),其主要思想是采用虚拟(正反例)样本进行强化和反强化学习,从而得到较为理想的概率估计结果,并采用模块化的网络结构(OCON)加快网络的学习。这种方法在人脸检测、人脸定位和人脸识别的各个步骤上都得到了较好的应用。其它研究还有:Dai等提出用Hopfield 网络进行低分辨率人脸联想与识别;Gutta等提出将RBF 与树型分类器结合起来进行人脸识别的混合分类器模型;Phillips等人将Matching Pursuit滤波器用于人脸识别;还有人用统计学习理论中的支撑向量机(SVM)进行人脸分类。[7]

神经网络方法在人脸识别上的应用比起前述几类方法来有一定的优势,因为对人脸识

别的许多规律或规则进行显性的描述是相当困难的,而神经网络方法则可以通过学习的过程获得对这些规律和规则的隐性表达,它的适应性更强,一般也比较容易实现。

2.6 其他方法

Brunelli等对模板匹配方法作了大量实验,结果表明在尺度、光照、旋转角度等各种条件稳定的情况下,模板匹配的效果优于其他方法,但它对光照、旋转和表情变化比较敏感,影响了它的直接使用。Goudail等人采用局部自相关性作为人脸识别的判断依据,它具有平移不变性,在脸部表情变化时比较稳定。

在最近的一些工作中,Benarie等提出VFR的表示框架并将它用于人脸识别的工作中,Lam等人研究了不同视点下的人脸匹配和识别问题,Vetter 等人讨论了由单幅人脸图像生成其他视点的人脸图像的可能性,Mirhosseini等则探讨了多种信息融合的人脸识别方法。[8]

3总结

作为模式识别、图像分析与理解等领域的典型研究课题,人脸识别不仅在理论上具有重要价值,而且在安全、金融等领域具有重要的应用前景,因此在学术界和产业界都受到了广泛的关注,目前已经出现了一些实用的商业系统。然而,由于图像采集条件和人脸自身属性的变化,例如图像采集时的光照、视角、摄像设备的变化,人脸的表情、化妆、年龄变化等,都可能使得同一人的不同照片表观差别很大,造成识别上的困难。因此,提高人脸识别系统对这些变化的鲁棒性成为该领域研究人员的重要目标之一。为实现鲁棒的识别,可以从人脸建模、分类器设计等不同角度入手:前者试图从寻求对各种外界条件导致的图像变化具有不变性的人脸描述入手;而后者则试图使得分类器对特征的变异有足够的鲁棒性。另外,也可以同时从两个角度入手解决问题。

在人脸识别的早期,基于表观(appearance)的人脸识别方法往往直接采用图像灰度作为特征进行分类或者特征选择的基础,如Correlation,Eigenfaces,Fisherfaces等。而近年来,对图像灰度进行多尺度、多方向的Gabor 小波变换逐渐成为主流的思路之一,这主要是因为Gabor 小波可以很好地模拟大脑皮层中单细胞感受野的轮廓,捕捉突出的视觉属性,例如空间定位、方向选择等。特别是Gabor 小波可以提取图像特定区域内的多尺度、多方向空间频率特征,像显微镜一样放大灰度的变化,这样,人脸图像中的眼睛、鼻子和嘴以及其他一些局部特征被放大。因此,采用Gabor 变换来处理人脸图像,可以增强一些关键特征,以区分不同人脸图像。Gabor 小波也因此在人脸识别中得到了广泛的应用,如弹性图匹配、基于Gabor 特征的Fisher 判别、基于AdaBoost的Gabor 特征分类等。但是,由于多尺度、多方向的Gabor 分解使得数据的维数大量增加,尤其当图像尺寸偏大时更为严重,为避免维数灾难问题必须进行降维。弹性图匹配方法仅对人脸

图像中部分关键特征点进行Gabor 变换,并将人脸描述为以这些特征点位置为顶点、以其Gabor 变换系数为顶点属性、以其关键点位置关系为边属性的属性图,从而将人脸识别问题转化为图匹配问题,但该方法对特征点的选择和配准有较高的要求。直接降维的方法是在Gabor 变换系数下采样,然后采用Fisher 判别分析方法进一步提取特征,但简单下采样很可能造成一些重要信息的丢失。[9]

近年来,基于局部二值模式(local binary pattern,简称LBP)的人脸识别方法受到人们的关注,该方法来源于纹理分析领域。它首先计算图像中每个像素与其局部邻域点在亮度上的序关系,然后对二值序关系进行编码形成局部二值模式,最后采用多区域直方图作为图像的特征描述。该方法在FERET 人脸图像数据库上取得了很好的识别性能。LBP 方法本质上提取的是图像边缘、角点等局部变化特征,它们对于区分不同的人脸是很重要的。但是,边缘特征有方向性和尺度差异,角点特征也同样有不同的尺度,或者说边缘、角点等图像特征的方向性和尺度包含了更多的可以区分不同人脸的细节信息。

致谢:

感谢一直以来给予我指导的李剑敏老师,在这期间给老师添了不少麻烦。李老师总是在百忙之中尽量的抽出时间来给我们分析、解决研究和设计中所遇到的各种问题。谢谢所有帮助过我的人。

参考文献:

[1]施智平,胡宏,李清勇,史忠植,段禅伦。基于纹理谱描述子的图像检索。北京:软件学报,2005。

[2]H.Zabrodsky et al. IEEE Trans.PAMI,1995,17:1154∽1166

[3]张俊,何昕,李介谷.基于面部几何特征点提取的人脸识别方法. 红外与激光工程, 1999年8 月第28卷

第4期

[4]山世光.面部特征检测与识别的研究与实现.[工学硕士学位论文].哈尔滨工业大学硕士学位论文,1999

年7月

[5]Turk M, Pentland M. Eigenfaces for Recognition. J Cognitive Neurosci, 1991,3(1):71-7941

[6]Lades M., Vorbruggen J.C., Buhmann J., Lange J., C. von der Malsburg, R.P.Wurtz, and

W.Konen, Distortion Invariant Object Recognition in the Dynamic Link Architecture, IEEE Trans. Computers, vol. 42, no. 3, pp. 300-311, Mar. 1993.

[7]Y.Dai and Y.Nakano. Pattern Recognition, 1996,29:1007~1017

[8]Morimoto C, Yacoob, Davis L. Recognition of head gesture using hidden markov models.

In:Proc International Conference on Automatic

Face-and-Gesture-Recognition,Zurich,1995,1105—111027

[9]张文超,山世光,张洪明,陈杰,陈熙霖,高文。基于局部Gabor 变化直方图序列的人脸描述与

识别。北京:软件日报,2006。

图像中角点(特征点)提取与匹配算法

角点提取与匹配算法实验报告 1 说明 本文实验的目标是对于两幅相似的图像,通过角点检测算法,进而找出这两幅图像的共同点,从而可以把这两幅图像合并成一幅图像。 下面描述该实验的基本步骤: 1.本文所采用的角点检测算法是Harris 角点检测算法,该算法的基本原理是取以目标像素点为中心的一个小窗口,计算窗口沿任何方向移动后的灰度变化,并用解析形式表达。设以像素点(x,y)为中心的小窗口在X 方向上移动u ,y 方向上移动v ,Harris 给出了灰度变化度量的解析表达式: 2 ,,|,|,,()(x y x y x u y v x y x y I I E w I I w u v o X Y ??= -=++??∑∑ (1) 其中,,x y E 为窗口内的灰度变化度量;,x y w 为窗口函数,一般定义为2 2 2 ()/,x y x y w e σ +=; I 为图像灰度函数,略去无穷小项有: 222222 ,,[()()2]2x y x y x y x y E w u I v I uvI I Au Cuv Bv = ++=++∑ (2) 将,x y E 化为二次型有: ,[]x y u E u v M v ?? =???? (3) M 为实对称矩阵: 2 ,2 x y x x y x y y I I I M w I I I ???= ???????∑ (4) 通过对角化处理得到: 11 ,200x y E R R λλ-??= ??? (5) 其中,R 为旋转因子,对角化处理后并不改变以u,v 为坐标参数的空间曲面的形状,其特征值反应了两个主轴方向的图像表面曲率。当两个特征值均较小时,表明目标点附近区域为“平坦区域”;特征值一大一小时,表明特征点位于“边缘”上;只有当两个特征值均比较大时,沿任何方向的移动均将导致灰度的剧烈变化。Harris 的角点响应函数(CRF)表达式由此而得到: 2 (,)det()(())C RF x y M k trace M =- (6)

人脸识别流程

概述 本项目的主要目的是身份证照片与摄像头获取的人脸照片进行比对,确定身份证和目标对象是不是同一个人。 本文项目主要分三个方面,首先是人脸的检测定位;其次是对照片中定位好的人脸进行预处理,处理到适合提取特征值的水平;最后提取特征值比对识别是不是同一个人。系统的大框架如下: 第一步人脸检测定位 确定是否包含人脸,如果包含人脸,则需要确定脸部所在的位置和尺寸。因为获取的都是彩色图像,首先可以进行肤色检测。在检测出肤色像素后,需要根据它们在色度上的相似性和空间上的相关性分割出可能的人脸区域,同时利用区域的几何特征或灰度特征进行是否是人脸的验证,以排除其它色彩类似肤色的物体。这一步流程图如下:

页脚内容 第二步人脸图像预处理 图像处理的目的是为了方便提取人脸的特征值,进而才能比对识别,所以这一步也至关 重要。第一,对于分割出的人脸,由于噪声带来失真和降质,在特征提取之前采用滤波的方式来去除噪声是必须的步骤。第二尺度归一化,其思想是将尺寸各不相同的人脸图像变换为统一的标准尺寸图像以便于人脸特征的提取。第三灰度归一化,人脸识别的研究一般以灰度图像为研究对象,对于彩色的脸像,可对其首先进行灰度化处理。第四灰度均衡化,由于在图像采集中光照的改变容易导致图像呈现不同的明暗程度,因此需要对人脸图像进行灰度均衡化处理。灰度均衡化,其作用是增强人脸图像的整体对比度,并使灰度分布均匀,以消除光照变化的影响。流程图如下: 第三步特征提取对比识别 人脸特征提取与识别是人脸识别研究中最为关键的两个问题。人脸特征提取又称人脸描 述,是在基于人脸检测定位、归一化等图像预处理的基础上进行的人脸各特征提取的过程,为人脸识别分类打下基础。

SIFT 特征提取算法详解

SIFT 特征提取算法总结 主要步骤 1)、尺度空间的生成; 2)、检测尺度空间极值点; 3)、精确定位极值点; 4)、为每个关键点指定方向参数; 5)、关键点描述子的生成。 L(x,y,σ), σ= 1.6 a good tradeoff

D(x,y,σ), σ= 1.6 a good tradeoff

关于尺度空间的理解说明:图中的2是必须的,尺度空间是连续的。在 Lowe 的论文中, 将第0层的初始尺度定为1.6,图片的初始尺度定为0.5. 在检测极值点前对原始图像的高斯平滑以致图像丢失高频信息,所以Lowe 建议在建立尺度空间前首先对原始图像长宽扩展一倍,以保留原始图像信息,增加特征点数量。尺度越大图像越模糊。 next octave 是由first octave 降采样得到(如2) , 尺度空间的所有取值,s为每组层数,一般为3~5 在DOG尺度空间下的极值点 同一组中的相邻尺度(由于k的取值关系,肯定是上下层)之间进行寻找

在极值比较的过程中,每一组图像的首末两层是无法进行极值比较的,为了满足尺度 变化的连续性,我们在每一组图像的顶层继续用高斯模糊生成了 3 幅图像, 高斯金字塔有每组S+3层图像。DOG金字塔每组有S+2层图像.

If ratio > (r+1)2/(r), throw it out (SIFT uses r=10) 表示DOG金字塔中某一尺度的图像x方向求导两次 通过拟和三维二次函数以精确确定关键点的位置和尺度(达到亚像素精度)?

直方图中的峰值就是主方向,其他的达到最大值80%的方向可作为辅助方向 Identify peak and assign orientation and sum of magnitude to key point The user may choose a threshold to exclude key points based on their assigned sum of magnitudes. 利用关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备 旋转不变性。以关键点为中心的邻域窗口内采样,并用直方图统计邻域像素的梯度 方向。梯度直方图的范围是0~360度,其中每10度一个柱,总共36个柱。随着距中心点越远的领域其对直方图的贡献也响应减小.Lowe论文中还提到要使用高斯函 数对直方图进行平滑,减少突变的影响。

图像特征提取及识别过程

纹理特征是一种重要的视觉线索,是图像中普遍存在而又难以描述的特征。纹理分类与分割是图像处理领域一个经久不衰的热点研究领域,纹理特征提取作为纹理分类与分割的首要问题,一直是人们关注的焦点,各种纹理特征提取方法层出不穷。 本文在广泛文献调研的基础上,回顾了纹理特征提取方法的发展历程,分析了其研究现状,对纹理特征提取方法进行了较为全面的综述和分类,最后重点研究了基于灰度共生矩阵的图像纹理提取方法,研究如何有效地提取图像纹理特征来对图像进行描述,通过特征值来对图像进行识别。 灰度共生矩阵是一种简单有效的图像纹理特征描述方法,该方法的优势在于:它能利用了图像中像素相对位置的空间信息更加准确地描述图像的纹理,本 文就是利用图像灰度共生矩阵的这一特性,从该矩阵中提取相应的统计参量作为纹理特征来实现对图像的识别。 关键字:灰度共生矩阵,纹理特征提取,图像识别

ABSTRACT Texture is a kind of importa nt visual clues in images , it is widespread but cannot easy to be described . Texture classification and segmentation is a enduring popular research field in image process ing area. Texture feature extract ion has bee n the focus of attention,due to its priority to texture classification and image segmentation. all sorts of texture feature extracti on methods has bee n emerged in en dlessly. On the basis of exte nsive literature inv estigati on, we review the texture feature extract ion methods, an alyze the developme nt of the research status of the texture feature extracti on methods and make a comprehe nsive review of its classificati on . Fin ally ,based on gray symbiotic matrix image problem extracti on methods,we research how to effectively extract image texture feature described by the image characteristic value to image recog niti on. Graylevel co-occurre nee matrix is a simple and effective image texture descripti on method.This method's advantage is: it can use the image pixels relative positions of the spatial in formatio n more to accurately describe the texture image.This paper use the graylevel co-occurre nee matrix of the properties to extract statistics from the matrix corresp onding as texture feature parameters to realize image recog niti on. KEY WORDS : graylevel co-occurrenee matrix, texture feature extraction, image recog niti on

人脸识别主要算法原理

人脸识别主要算法原理 主流的人脸识别技术基本上可以归结为三类,即:基于几何特征的方法、基于模板的方法和基于模型的方法。 1. 基于几何特征的方法是最早、最传统的方法,通常需要和其他算法结合才能有比较好的效果; 2. 基于模板的方法可以分为基于相关匹配的方法、特征脸方法、线性判别分析方法、奇异值分解方法、神经网络方法、动态连接匹配方法等。 3. 基于模型的方法则有基于隐马尔柯夫模型,主动形状模型和主动外观模型的方法等。 1. 基于几何特征的方法 人脸由眼睛、鼻子、嘴巴、下巴等部件构成,正因为这些部件的形状、大小和结构上的各种差异才使得世界上每个人脸千差万别,因此对这些部件的形状和结构关系的几何描述,可以做为人脸识别的重要特征。几何特征最早是用于人脸侧面轮廓的描述与识别,首先根据侧面轮廓曲线确定若干显著点,并由这些显著点导出一组用于识别的特征度量如距离、角度等。Jia 等由正面灰度图中线附近的积分投影模拟侧 面轮廓图是一种很有新意的方法。 采用几何特征进行正面人脸识别一般是通过提取人眼、口、鼻等重要特征点的位置和眼睛等重要器官的几何形状作为分类特征,但Roder对几何特征提取的精确性进行了实验性的研究,结果不容乐观。

可变形模板法可以视为几何特征方法的一种改进,其基本思想是: 设计一个参数可调的器官模型(即可变形模板),定义一个能量函数,通过调整模型参数使能量函数最小化,此时的模型参数即做为该器官的几何特征。 这种方法思想很好,但是存在两个问题,一是能量函数中各种代价的加权系数只能由经验确定,难以推广,二是能量函数优化过程十分耗时,难以实际应用。基于参数的人脸表示可以实现对人脸显著特征的一个高效描述,但它需要大量的前处理和精细的参数选择。同时,采用一般几何特征只描述了部件的基本形状与结构关系,忽略了局部细微特征,造成部分信息的丢失,更适合于做粗分类,而且目前已有的特征点检测技术在精确率上还远不能满足要求,计算量也较大。 2. 局部特征分析方法(Local Face Analysis) 主元子空间的表示是紧凑的,特征维数大大降低,但它是非局部化的,其核函数的支集扩展在整个坐标空间中,同时它是非拓扑的,某个轴投影后临近的点与原图像空间中点的临近性没有任何关系,而局部性和拓扑性对模式分析和分割是理想的特性,似乎这更符合神经信息处理的机制,因此寻找具有这种特性的表达十分重要。基于这种考虑,Atick提出基于局部特征的人脸特征提取与识别方法。这种方法在实际应用取得了很好的效果,它构成了FaceIt人脸识别软件的 基础。 3. 特征脸方法(Eigenface或PCA)

SIFT特征点提取与匹配算法

SIFT 特征点匹配算法 基于SIFT 方法的图像特征匹配可分为特征提取和特征匹配两个部分,可细化分为五个部分: ① 尺度空间极值检测(Scale-space extrema detection ); ② 精确关键点定位(Keypoint localization ) ③ 关键点主方向分配(Orientation assignment ) ④ 关键点描述子生成(Keypoint descriptor generation ) ⑤ 比较描述子间欧氏距离进行匹配(Comparing the Euclidean distance of the descriptors for matching ) 1.1 尺度空间极值检测 特征关键点的性质之一就是对于尺度的变化保持不变性。因此我们所要寻找的特征点必须具备的性质之一,就是在不同尺度下都能被检测出来。要达到这个目的,我们可以在尺度空间内寻找某种稳定不变的特性。 Koenderink 和Lindeberg 已经证明,变换到尺度空间唯一的核函数是高斯函数。因此一个图像的尺度空间定义为:(,,)L x y σ,是由可变尺度的高斯函数(,,)G x y σ与输入图像(,)I x y 卷积得到,即: ),(),,(),,(y x I y x G y x L *=σσ (1.1) 其中:2222/)(221 ),,(σπσσy x e y x G +-= 在实际应用中,为了能相对高效地计算出关键点的位置,建议使用的是差分高斯函数(difference of Gaussian )(,,)D x y σ。其定义如下: ) ,,(),,() ,()),,(),,((),,(σσσσσy x L k y x L y x I y x G k y x G y x D -=*-= (1.2) 如上式,D 即是两个相邻的尺度的差(两个相邻的尺度在尺度上相差一个相乘系数k )。

人脸识别介绍

人脸识别技术是生物识别技术的一种,它结合了图像处理、计算机图形学、模式识别、可视化技术、人体生理学、认知科学和心理学等多个研究领域。从二十世纪六十年代末至今,人脸识别算法技术的发展共经历了如下四个阶段: 1. 基于简单背景的人脸识别 这是人脸识别研究的初级阶段。通常利用人脸器官的局部特征来描述人脸。但由于人脸器官没有显著的边缘且易受到表情的影响,因此它仅限于正面人脸(变形较小)的识别。 2. 基于多姿态/表情的人脸识别 这是人脸识别研究的发展阶段。探索能够在一定程度上适应人脸的姿态和表情变化的识别方法,以满足人脸识别技术在实际应用中的客观需求。 3. 动态跟踪人脸识别 这是人脸识别研究的实用化阶段。通过采集视频序列来获得比静态图像更丰富的信息,达到较好的识别效果,同时适应更广阔的应用需求。 4. 三维人脸识别 为了获得更多的特征信息,直接利用二维人脸图像合成三维人脸模型进行识别,即将成为该领域的一个主要研究方向。 人脸识别技术的研究范围主要包括以下几个方面: 1. 人脸检测:在输入的图像中寻找人脸区域。 2. 人脸的规范化:校正人脸在尺度、光照和旋转等方面的变化。 3. 特征提取:从人脸图像中映射提取一组能反映人脸特征的数值表示样本。 4. 特征匹配:将待识别人脸与数据库中的已知人脸比较,得出相关信息。 人脸识别流程 1图像预处理 1.1 图像去噪 一般来说,自然界中的噪声可以看成是一种随机信号。根据图像获取的途径人脸图像获取 人脸检测 定位人脸区域 预处理 特征抽取 人脸特征 对比识别 结果 人脸特征库

不同,噪声的融入也有多种方式: 1. 图像是直接以数字形式获取的,那么图像数据的获取机制会不可避免地 引入噪声信号; 2. 在图像采集过程中,物体和采集装置的相对运动。或采集装置的抖动, 也会引入噪声,使图像变的模糊不清; 3. 在图像数据的电子传输过程中,也不同程度的引入噪声信号。 这些噪声信号的存在,严重的情况会直接导致整幅图像的不清晰,图象中的景物和背景的混乱。对于用于人脸识别的图像。由于噪声的引入,将不可避免地造成识别率的下降。对图像噪声的消除可以通过两个途径:空间域滤波或频率域滤波。消除噪声的方法很多,对于不同的噪声应该采用不同的除噪方法。主要的方法是:线性滤波、中值滤波、维纳滤波以及小波去噪等。 1.2 增强对比度 为了使人脸在图像中更为突出以便于下一步的特征提取,增强图像对比度是很有必要的。增强对比度有很多种方法,常见的有直方图均衡化和“S ”形变换等方法。 “S ”形变换方法将灰度值处于某一范围(人脸特征范围)内的像素灰度分布差距拉开,从而保证了对比度的提高,但此方法降低了其他灰度值的对比度。而直方图均衡化则是将像素的灰度分布尽量展开在所有可能的灰度取值上,这样的方法同样能使得图像的对比度提高。 将彩色图像转化成灰度图像是人脸识别方法中常见的处理过程,虽然转化过程丢失了一部分色彩信息,但是灰度图像拥有更小的存储空间和更快的计算速度。文献[1]给出了一种能够将RGB 色彩转换成灰度级且适于突出人脸区域对比度的转换模型:()5.0144.0587.0299.0,+?+?+?=b g r y x f ;其中f 代表灰度值,r ,g ,b 分别表示Red,Green,Blue 分量的值。 文献[2]通过将人脸彩色图像从RGB 色彩空间转换到RIQ 色彩空间,得到了更适于频谱分析的特征分量。

模式识别特征选择与提取

模式识别特征选择与提取 中国矿业大学计算机科学与技术学院电子信息科学系 班级:信科11-1班,学号:08113545,姓名:褚钰博 联系方法(QQ或手机):390345438,e-mail:390345438@https://www.360docs.net/doc/6a16181711.html, 日期:2014 年06月10日 摘要 实际问题中常常需要维数约简,如人脸识别、图像检索等。而特征选择和特征提取是两种最常用的维数约简方法。特征选择是从某些事物中提取出本质性的功能、应用、优势等,而特征提取是对特征空间进行变换,将原始特征空间映射到低维空间中。 本文是对主成分分析和线性判别分析。 关键词:特征选择,特征提取,主成分分析,线性判别分析 1.引言 模式识别的主要任务是利用从样本中提取的特征,并将样本划分为相应的模式类别,获得好的分类性能。而分类方法与分类器设计,都是在d(变量统一用斜体)维特征空间已经确定的前提下进行的。因此讨论的分类器设计问题是一个选择什么准则、使用什么方法,将已确定的d维特征空间划分成决策域的问题。对分类器设计方法的研究固然重要,但如何确定合适的特征空间是设计模式识别系统另一个十分重要,甚至更为关键的问题。如果所选用的特征空间能使同类物体分布具有紧致性,即各类样本能分布在该特征空间中彼此分割开的区域内,这就为分类器设计成功提供良好的基础。反之,如果不同类别的样本在该特征空间中混杂在一起,再好的设计方法也无法提高分类器的准确性。本文要讨论的问题就是特征空间如何设计的问题。 基于主成分分析的特征选择算法的思想是建立在这样的基础上的:主成分分析方法将原始特征通过线性变换映射到新的低维空间时,获得的主成分是去了新的物理意义,难以理解,并且主成分是所有原始特征的线性组合。所以将主成分分析与特征选择相结合,设计多种相似性度量准则,通过找到与主成分相关的关键特征或者删除冗余、不相关以及没有意义的特征,将主成分又重新映射到原始空间,来理解成主成分的实际意义。 基于线性判别分析的高维特征选择将单个特征的Fisher准则与其他特征选择算法相结合,分层消除不相关特征与冗余特征。不相关特征滤波器按照每个特征的Fisher评价值进行特征排序,来去除噪音和不相关特征。通过对高维数据特征关联性的分析,冗余特征滤波器选用冗余度量方法和基于相关性的快速过滤器算法。分别在不同情境下进行数据分类实验,验证其性能。

人脸识别算法都有哪些

主流的人脸识别技术基本上可以归结为三类,即:基于几何特征的方法、基于模板的方法和基于模型的方法。 1. 基于几何特征的方法 人脸由眼睛、鼻子、嘴巴、下巴等部件构成,正因为这些部件的形状、大小和结构上的各种差异才使得世界上每个人脸千差万别,因此对这些部件的形状和结构关系的几何描述,可以做为人脸识别的重要特征。几何特征最早是用于人脸侧面轮廓的描述与识别,首先根据侧面轮廓曲线确定若干显著点,并由这些显著点导出一组用于识别的特征度量如距离、角度等。Jia 等由正面灰度图中线附近的积分投影模拟侧面轮廓图是一种很有新意的方法。 采用几何特征进行正面人脸识别一般是通过提取人眼、口、鼻等重要特征点的位置和眼睛等重要器官的几何形状作为分类特征,但Roder对几何特征提取的精确性进行了实验性的研究,结果不容乐观。 可变形模板法可以视为几何特征方法的一种改进,其基本思想是:设计一个参数可调的器官模型(即可变形模板),定义一个能量函数,通过调整模型参数使能量函数最小化,此时的模型参数即做为该器官的几何特征。 2. 局部特征分析方法(Local Face Analysis) 主元子空间的表示是紧凑的,特征维数大大降低,但它是非局部化的,其核函数的支集扩展在整个坐标空间中,同时它是非拓扑的,某个轴投影后临近的点与原图像空间中点的临

近性没有任何关系,而局部性和拓扑性对模式分析和分割是理想的特性,似乎这更符合神经信息处理的机制,因此寻找具有这种特性的表达十分重要。基于这种考虑,Atick提出基于局部特征的人脸特征提取与识别方法。这种方法在实际应用取得了很好的效果,它构成了FaceIt人脸识别软件的基础。 3. 特征脸方法(Eigenface或PCA) 特征脸方法是90年代初期由Turk和Pentland提出的目前最流行的算法之一,具有简单有效的特点, 也称为基于主成分分析(principal component analysis,简称PCA)的人脸识别方法。 特征子脸技术的基本思想是:从统计的观点,寻找人脸图像分布的基本元素,即人脸图像样本集协方差矩阵的特征向量,以此近似地表征人脸图像。这些特征向量称为特征脸(Eigenface)。 实际上,特征脸反映了隐含在人脸样本集合内部的信息和人脸的结构关系。将眼睛、面颊、下颌的样本集协方差矩阵的特征向量称为特征眼、特征颌和特征唇,统称特征子脸。特征子脸在相应的图像空间中生成子空间,称为子脸空间。计算出测试图像窗口在子脸空间的投影距离,若窗口图像满足阈值比较条件,则判断其为人脸。 基于特征分析的方法,也就是将人脸基准点的相对比率和其它描述人脸脸部特征的形状参数或类别参数等一起构成识别特征向量,这种基于整体脸的识别不仅保留了人脸部件之间的拓扑关系,而且也保留了各部件本身的信息,而基于部件的识别则是通过提取出局部轮廓信息及灰度信息来设计具体识别算法。

SIFT特征点提取与匹配算法

二 特征点提取算法 1、基于SIFT (Scale Invariant Feature Transform )方法的图像特征匹配 参看David G. Lowe 的“Distinctive Image Features from Scale-Invariant Keypoints ” 基于SIFT 方法的图像特征匹配可分为特征提取和特征匹配两个部分,可细化分为五个部分: ① 尺度空间极值检测(Scale-space extrema detection ); ② 精确关键点定位(Keypoint localization ) ③ 关键点主方向分配(Orientation assignment ) ④ 关键点描述子生成(Keypoint descriptor generation ) ⑤ 比较描述子间欧氏距离进行匹配(Comparing the Euclidean distance of the descriptors for matching ) 1.1 尺度空间极值检测 特征关键点的性质之一就是对于尺度的变化保持不变性。因此我们所要寻找的特征点必须具备的性质之一,就是在不同尺度下都能被检测出来。要达到这个目的,我们可以在尺度空间内寻找某种稳定不变的特性。 Koenderink 和Lindeberg 已经证明,变换到尺度空间唯一的核函数是高斯函数。因此一个图像的尺度空间定义为:(,,)L x y σ,是由可变尺度的高斯函数(,,)G x y σ与输入图像(,)I x y 卷积得到,即: ),(),,(),,(y x I y x G y x L *=σσ (1.1) 其中:2222/)(221 ),,(σπσσy x e y x G +-= 在实际应用中,为了能计算的相对高效,所真正使用的是差分高斯尺度空间(difference of Gaussian )(,,)D x y σ。其定义如下: ) ,,(),,() ,()),,(),,((),,(σσσσσy x L k y x L y x I y x G k y x G y x D -=*-= (1.2) 如上式,D 即是由两个相邻的尺度的差(两个相邻的尺度在尺度上相差一个相乘系数k )。

特征提取在人脸识别中的应用.pdf

特征提取在人脸识别中的应用 刘磊,2014080008 一、 人脸识别研究现状 人脸识别的研究早已展开,Calton等早在1888年和1910年就分别在Nature杂志上发表过两篇关于利用人脸特征进行身份识别的文章,提出检测人脸特征或是关键点的方法。自动人脸识别的研究论文最早出现在1965年Chan和Bledsoe在Panoramic Research Inc上发表的技术报告中至今已有四十多年的历史。学者们一般将AFR的研究历史按照研究内容、技术方法等划分为以下三个阶段。 第一阶段(1964—1990年)。这一阶段人脸识别刚刚起步,还只是被作为一个一般性的模式识别问题进行研究,所釆用的方法主要是比较人脸的几何结构。总体而言,这一阶段可以看做是人脸识别研究的初级阶段,代表性的成果没有很多,也没有得到实际应用。 第二阶段(1991一1997年)。尽管第二阶段的时间比较短暂,但却是人脸识别研究的发展高峰期,不仅涌现出大量重量级研究成果,而且出现了若干商业化运作的人脸识别系统。这一阶段的人脸识别技术发展非常之快,所提出的算法在较理想图像采集条件下的中小规模正面人脸数据库上可以达到令人满意的性能。 第三阶段(1998—现在)。20世纪90年代以来,对人脸识别方法的研究变得非常热门,吸引了大量的研究人员和基金支持。由于主流的人脸识别技术对于光照、姿态等非理想采集条件,以及用户不配合造成的人脸变化等条件下的鲁棒性比较差。目前非理想成像条件下(尤其是光照和姿态)、对象不配合、大规模人脸数据库上的人脸识别问题逐渐成为研究的热点问题。而非线性建模方法、统计学习理论、基于Boosting的学习技术、基于3D模型的人脸建模与识别方法等逐渐成为备受重视的技术发展趋势。 二、人脸识别系统 人脸识别系统是提取人脸的相关特征信息,并根据这些特征信息进行身份识别的生物识别技术,它利用计算机对人脸静态图像或动态视频流进行分析,提取出对识别有用的信息,从而进行身份认证,它是人类用来进行身份确认最直接、最自然、最友好的生物特征识别方法,而且与其他身份识别方法相比,人脸识别具有采集过程的非侵犯性、釆集的便捷性等优点,特别是使用者不会产生任何心理障碍,通过对人脸表情与姿态进行分析,还能获得其他识别系统难以获得的一些信息。 三、人脸识别的描述分类 1、人脸检测

模式识别特征提取

特征提取 SIFT算法提取步骤 SIFT算法提取特征点的主要步骤: (1)检测尺度空间极值点 检测尺度空间极值的目的是确定特征点位置和所在尺度组。即先使用高斯过滤器对原始图像进行若干次连续滤波建立第一个尺度组,再把图形减小到原来的一半,进行同样的高斯滤波形成第二个尺度组。之后,重复操作直到图像小于某一个给定阀值为止。接下来对每个尺度组中的高斯图像进行差分,形成高斯差分尺度组(DoG尺度图像)。

图3-1 尺度空间的构造 在上面建立的DoG尺度空间金字塔中,为了检测到DoG空间的最大值和最小值,DoG尺度空间中中间层(最底层和最顶层除外)的每个像素点需要跟同一层的相邻8个像素点以及它上一层和下一层的9个相邻像素点总共26个相邻像素点进行比较,以确保在尺度空间和二维图像空间都检测到局部极值,如图3-2所示 图3-2 DoG空间局部极值检测 在图3-2中,标记为叉号的像素若比相邻26个像素的DoG值都大或都小,则该点将作为一个局部极值点。被检测工件的高斯滤波图像如图3-3所示。

图3-3 原始图像和部分高斯滤波图像 (2)精确定位极值点 由于DoG值对噪声和边缘较敏感,因此,在上面DoG尺度空间中检测到局部极值点还要经过进一步的检验才能精确定位为特征点。一般通过二阶Taylor 展开式计算极值点的偏移量,获得亚像素定位精度,同时通过阈值设置剔除差异小的点。最终保留下来的点称为特征点,特征点的检测是在尺度空间中进行的,特征点保持为尺度不变量。各层图像特征点如图3-4所示。

图3-4 各层图像的特征点 (3)为每个关键点指定方向参数 σ—尺度空间坐标 O —组(octave)数 S —组内层数 在上述尺度空间中,O 和S ,σ的关系如下: ()[][]2,...,0,1,...,02 ,0+∈-∈=+S s O o s o S s o σσ (3-10)

图像特征提取算法

Histograms of for Human Detection Navneet Dalal and Bill Triggs INRIA Rh?o ne-Alps,655avenue de l’Europe,Montbonnot38334,France {Navneet.Dalal,Bill.Triggs}@inrialpes.fr,http://lear.inrialpes.fr Abstract We study the question of feature sets for ob-ject recognition,adopting linear SVM based human detec-tion as a test case.After reviewing existing edge and gra-dient based descriptors,we show experimentally that grids of Histograms of Oriented Gradient(HOG)descriptors sig-ni?cantly outperform existing feature sets for human detec-tion.We study the in?uence of each stage of the computation on performance,concluding that?ne-scale gradients,?ne orientation binning,relatively coarse spatial binning,and high-quality local contrast normalization in overlapping de-scriptor blocks are all important for good results.The new approach gives near-perfect separation on the original MIT pedestrian database,so we introduce a more challenging dataset containing over1800annotated human images with a large range of pose variations and backgrounds. 1Introduction Detecting humans in images is a challenging task owing to their variable appearance and the wide range of poses that they can adopt.The?rst need is a robust feature set that allows the human form to be discriminated cleanly,even in cluttered backgrounds under dif?cult illumination.We study the issue of feature sets for human detection,showing that lo-cally normalized Histogram of Oriented Gradient(HOG)de-scriptors provide excellent performance relative to other ex-isting feature sets including wavelets[17,22].The proposed descriptors are reminiscent of edge orientation histograms [4,5],SIFT descriptors[12]and shape contexts[1],but they are computed on a dense grid of uniformly spaced cells and they use overlapping local contrast normalizations for im-proved performance.We make a detailed study of the effects of various implementation choices on detector performance, taking“pedestrian detection”(the detection of mostly visible people in more or less upright poses)as a test case.For sim-plicity and speed,we use linear SVM as a baseline classi?er throughout the study.The new detectors give essentially per-fect results on the MIT pedestrian test set[18,17],so we have created a more challenging set containing over1800pedes-trian images with a large range of poses and backgrounds. Ongoing work suggests that our feature set performs equally well for other shape-based object classes. We brie?y discuss previous work on human detection in §2,give an overview of our method§3,describe our data sets in§4and give a detailed description and experimental evaluation of each stage of the process in§5–6.The main conclusions are summarized in§7. 2Previous Work There is an extensive literature on object detection,but here we mention just a few relevant papers on human detec-tion[18,17,22,16,20].See[6]for a survey.Papageorgiou et al[18]describe a pedestrian detector based on a polynomial SVM using recti?ed Haar wavelets as input descriptors,with a parts(subwindow)based variant in[17].Depoortere et al give an optimized version of this[2].Gavrila&Philomen [8]take a more direct approach,extracting edge images and matching them to a set of learned exemplars using chamfer distance.This has been used in a practical real-time pedes-trian detection system[7].Viola et al[22]build an ef?cient moving person detector,using AdaBoost to train a chain of progressively more complex region rejection rules based on Haar-like wavelets and space-time differences.Ronfard et al[19]build an articulated body detector by incorporating SVM based limb classi?ers over1st and2nd order Gaussian ?lters in a dynamic programming framework similar to those of Felzenszwalb&Huttenlocher[3]and Ioffe&Forsyth [9].Mikolajczyk et al[16]use combinations of orientation-position histograms with binary-thresholded gradient magni-tudes to build a parts based method containing detectors for faces,heads,and front and side pro?les of upper and lower body parts.In contrast,our detector uses a simpler archi-tecture with a single detection window,but appears to give signi?cantly higher performance on pedestrian images. 3Overview of the Method This section gives an overview of our feature extraction chain,which is summarized in?g.1.Implementation details are postponed until§6.The method is based on evaluating well-normalized local histograms of image gradient orienta-tions in a dense grid.Similar features have seen increasing use over the past decade[4,5,12,15].The basic idea is that local object appearance and shape can often be characterized rather well by the distribution of local intensity gradients or 1

图像局部特征点检测算法综述

图像局部特征点检测算法综述 研究图像特征检测已经有一段时间了,图像特征检测的方法很多,又加上各种算法的变形,所以难以在短时间内全面的了解,只是对主流的特征检测算法的原理进行了学习。总体来说,图像特征可以包括颜色特征、纹理特等、形状特征以及局部特征点等。其中局部特点具有很好的稳定性,不容易受外界环境的干扰,本篇文章也是对这方面知识的一个总结。 本篇文章现在(2015/1/30)只是以初稿的形式,列出了主体的框架,后面还有许多地方需要增加与修改,例如2013年新出现的基于非线性尺度空间的KAZE特征提取方法以及它的改进AKATE等。在应用方面,后面会增一些具有实际代码的例子,尤其是基于特征点的搜索与运动目标跟踪方面。 1. 局部特征点 图像特征提取是图像分析与图像识别的前提,它是将高维的图像数据进行简化表达最有效的方式,从一幅图像的M×N×3的数据矩阵中,我们看不出任何信息,所以我们必须根据这些数据提取出图像中的关键信息,一些基本元件以及它们的关系。 局部特征点是图像特征的局部表达,它只能反正图像上具有的局部特殊性,所以它只适合于对图像进行匹配,检索等应用。对于图像理解则不太适合。而后者更关心一些全局特征,如颜色分布,纹理特征,主要物体的形状等。全局特征容易受到环境的干扰,光照,旋转,噪声等不利因素都会影响全局特征。相比而言,局部特征点,往往对应着图像中的一些线条交叉,明暗变化的结构中,受到的干扰也少。 而斑点与角点是两类局部特征点。斑点通常是指与周围有着颜色和灰度差别的区域,如草原上的一棵树或一栋房子。它是一个区域,所以它比角点的噪能力要强,稳定性要好。而角点则是图像中一边物体的拐角或者线条之间的交叉部分。 2. 斑点检测原理与举例 2.1 LoG与DoH 斑点检测的方法主要包括利用高斯拉普拉斯算子检测的方法(LOG),以及利用像素点Hessian矩阵(二阶微分)及其行列式值的方法(DOH)。 LoG的方法已经在斑点检测这入篇文章里作了详细的描述。因为二维高斯函数的拉普拉斯核很像一个斑点,所以可以利用卷积来求出图像中的斑点状的结构。 DoH方法就是利用图像点二阶微分Hessian矩阵:

相关文档
最新文档