人臉識(shí)別系統(tǒng) (2)

上傳人:沈*** 文檔編號(hào):160732720 上傳時(shí)間:2022-10-11 格式:DOC 頁數(shù):10 大?。?00.50KB
收藏 版權(quán)申訴 舉報(bào) 下載
人臉識(shí)別系統(tǒng) (2)_第1頁
第1頁 / 共10頁
人臉識(shí)別系統(tǒng) (2)_第2頁
第2頁 / 共10頁
人臉識(shí)別系統(tǒng) (2)_第3頁
第3頁 / 共10頁

下載文檔到電腦,查找使用更方便

10 積分

下載資源

還剩頁未讀,繼續(xù)閱讀

資源描述:

《人臉識(shí)別系統(tǒng) (2)》由會(huì)員分享,可在線閱讀,更多相關(guān)《人臉識(shí)別系統(tǒng) (2)(10頁珍藏版)》請(qǐng)?jiān)谘b配圖網(wǎng)上搜索。

1、基于圖形矢量的精準(zhǔn) 人臉識(shí)別系統(tǒng) Zhengya Xu, Hong Ren Wu, Xinghuo Yu, Fellow, IEEE, Kathryn Horadam, and Bin Qiu, Senior Member, IEEE 摘要:本文提出了一個(gè)基于人臉特征的快速的人臉識(shí)別方法。這是一種基于目標(biāo)形狀的自動(dòng)參考控制技術(shù)和特征提取技術(shù),提出了通過測(cè)量出臉部兩邊的平面差,根據(jù)提取的特征集合中將每組2D圖像組合成具有3D特征的面部模板。不同于臉部整體的識(shí)別算法的是,基于人臉特征的算法是相對(duì)穩(wěn)定的,面部表情、照明狀態(tài)以及姿勢(shì)的變化都會(huì)導(dǎo)致面部特征向量的變化。提出的技術(shù)的性能分析理論均

2、由概率統(tǒng)計(jì)做基礎(chǔ)。所提出的方法使用了人臉識(shí)別數(shù)據(jù)庫的幾個(gè)樣品,以實(shí)現(xiàn)可觀的人臉識(shí)別功能。 關(guān)鍵詞:人臉特征向量;人臉識(shí)別;人臉表征;外形特征向量。 一、 引言 人臉是最具社會(huì)可接受性和非侵入性的影像測(cè)量的生物特征之一。其需求少也沒有在監(jiān)視的課題中出現(xiàn)。但是,人臉自動(dòng)識(shí)別是一個(gè)非常具有挑戰(zhàn)性的任務(wù),因?yàn)榕c其他生物特征相比面部特征的差異是相當(dāng)細(xì)微的(例,指紋識(shí)別)【1】。此外,由于面部表情、照明狀態(tài)、人的姿勢(shì)和面部化妝的變化都為人臉識(shí)別的準(zhǔn)確性增加難度。在文獻(xiàn)中,靜止圖像的人臉識(shí)別算法分為三類,即全面的、基于特征向量的和混合匹配算法【2】。整體識(shí)別算法例如Eigenfaces算法【3】和Fi

3、sherfaces算法【4】,從整個(gè)臉部提取特征。整體匹配算法的一個(gè)限制便是它需要更全面,需要根據(jù)正常的姿態(tài),照明以及比例【5】。而這些因素的變化都可能會(huì)影響從面提取的全局特征,導(dǎo)致最終識(shí)別的不準(zhǔn)確。通常的解決辦法是通過手動(dòng)識(shí)別面孔來進(jìn)行,這使得整個(gè)過程變得半自動(dòng)化【6】。人工糾正是不完善的識(shí)別系統(tǒng),因?yàn)樗ǔW儸F(xiàn)在幾個(gè)特殊的控制點(diǎn)上,人工識(shí)別也為每個(gè)控制點(diǎn)提供足夠的精度。用具有里程碑意義的自動(dòng)識(shí)別算法來更換這個(gè)最終會(huì)劣化識(shí)別結(jié)果的手動(dòng)過程【6】。此外,全球性特點(diǎn)也敏感于面部表情和遮擋的變化?;谔卣鞯钠ヅ渌惴ㄌ崛【植刻卣骰騾^(qū)域特征,如眼睛和鼻子,然后使用這些特征執(zhí)行匹配或運(yùn)作自己的本地統(tǒng)計(jì)數(shù)

4、據(jù)進(jìn)行識(shí)別。此類別的一個(gè)例子是基于區(qū)域的3D匹配算法【7】,其中分別相匹配的眼睛、額頭和鼻子的3D點(diǎn)云區(qū)域和融合結(jié)果在目標(biāo)水平。另一個(gè)例子是使用本地樣本提升人臉識(shí)別準(zhǔn)確度【8】,哪 從面部圖像在不同匹配的矩形區(qū)域、比例和方向【9】?;旌掀ヅ浞椒ㄊ褂妹娌咳趾途植抗δ芙M合識(shí)別【10】。 3D和多模式人臉識(shí)別調(diào)查由等人給出【11】,Bowyer認(rèn)為3D人臉識(shí)別必須克服其2D潛在吻合的局限性。多模式的2D和3D人臉識(shí)別技術(shù)提供了比那些由單獨(dú)個(gè)體方式獲得更準(zhǔn)確的結(jié)果【11】?;旌线\(yùn)算方法或分類可以提高人臉識(shí)別的準(zhǔn)確度被認(rèn)可。例如Gokberk等人【12】。報(bào)道曾表彰通過結(jié)合多個(gè)三位面部特征的識(shí)別算

5、法。許多三維面部識(shí)別方法基于迭代最近點(diǎn)(ICP)算法[13]或它的變體[7]。 ICP為基礎(chǔ)的方法的一個(gè)主要優(yōu)點(diǎn)是,它避免了面部表情[7]和把手構(gòu)成的變化由匹配2.5-D掃描完成人臉模型[14]。然而,比較方案的主要缺點(diǎn)是它是一個(gè)迭代算法,因此,在計(jì)算上很昂貴。此外,為了加快匹配過程ICP算法不提取任何規(guī)則的特征級(jí)融合和索引的臉部特征的可能性。除非另一個(gè)分類器或方式進(jìn)行索引或之前的排斥不可能面臨來自畫廊【6】,基于ICP算法必須進(jìn)行強(qiáng)力匹配,從而使識(shí)別費(fèi)時(shí),不適合生產(chǎn)生活使用。另一個(gè)缺點(diǎn)是,它需要ICP好的初始近似值。 在本文中,一個(gè)快形狀特征矢量為基礎(chǔ)的人臉識(shí)別方法(SFV-FR的簡(jiǎn)稱)

6、,提出了以支持實(shí)時(shí)應(yīng)用,如實(shí)時(shí)的現(xiàn)場(chǎng)臉識(shí)別系統(tǒng)。新辦法旨在避免任何強(qiáng)力匹配算法等。不同于整體人臉識(shí)別算法,變化的表達(dá)式下如照明、姿勢(shì)、遮擋和化妝的條件下,基于特征的算法是相對(duì)穩(wěn)健的【7】。2D和3D的組合算法提供了更為準(zhǔn)確的結(jié)果,形成了一個(gè)共同的2-D和3-D?sfv-fr方法。 本文的組織如下:第二節(jié)/介紹了該方法的sfv-fr原理,其中包括一個(gè)新的人臉特征提取的切角技術(shù)和獨(dú)特的面部特征向量的人臉表示;證明比例,平移,旋轉(zhuǎn)不變性所提取的面部特征;與理論由概率的sfv-fr系統(tǒng)性能分析與統(tǒng)計(jì)方法。第三節(jié)得出結(jié)果,第四節(jié)結(jié)論。 二 、sfv-fr方法的原理 人臉表達(dá) 人臉表達(dá)是人臉識(shí)

7、別系統(tǒng)中的一個(gè)重要組成部分有效的人臉模型是有效的不變的,取向和位置對(duì)于人臉識(shí)別的成功與否是至關(guān)重要的。大多數(shù)上述的審查國家的最先進(jìn)的算法是一般的算法。就一個(gè)特定的實(shí)時(shí)系統(tǒng)而言他們有著數(shù)據(jù)的缺陷,包括昂貴的計(jì)算成本。為了緩解這一問題,一種新穎的方法適合于實(shí)時(shí)面部識(shí)別應(yīng)用,提出了論文。首先,一坐標(biāo)系(或基線和基準(zhǔn)點(diǎn))是(或者)設(shè)置,以限定的面部特征來表示一臉進(jìn)一步人臉識(shí)別。通常,為了構(gòu)建2-D或3-D的面部數(shù)據(jù)集和比較面,所有的面捕集/掃描和匹配需要精確對(duì)準(zhǔn)在一個(gè)共同的坐標(biāo)系。而不是使用暴力破解的搜索或類似的面比對(duì),如先前討論的,基于形狀的自動(dòng)跟蹤參考(坐標(biāo))系統(tǒng)被引入用于SFV-FR,通過自動(dòng)化

8、過程它可以正常進(jìn)行。 由于基于形狀的五官都比較穩(wěn)健的規(guī)?;?,噪聲,光,和姿勢(shì)的變化,形狀特征用于在建議的人臉表示主要特征。SFV-FR的方法多數(shù)特征的基礎(chǔ)上,坐標(biāo)由基準(zhǔn)點(diǎn)制成,絕不能在可變形份的面部;因此,他們將能夠容忍(或避免從顯著)患的變化,由于面部表情。的SFV-FR方法使用多個(gè)2-D基于視圖三維臉代表性,因?yàn)樗皇且粋€(gè)簡(jiǎn)單的任務(wù),基于當(dāng)前的和廣泛使用的技術(shù),以獲得3-D的臉用于實(shí)時(shí)視頻監(jiān)控系統(tǒng)的站點(diǎn)信息。因此,有必要建立坐標(biāo)(或引用)的正面和側(cè)面上?;鶞?zhǔn)點(diǎn)(或控制點(diǎn)),用于建立坐標(biāo)都必須是普遍的,從圖像中不易察覺,抗噪能力和光變,和寬容,在一定程度上,要變化面部表情和姿態(tài),以便產(chǎn)生可

9、靠的特點(diǎn)(即特征向量)進(jìn)行比較的注冊(cè)觀察/檢測(cè)到的面部。 圖1(a)協(xié)調(diào)和參考點(diǎn)(基線),用于前表面。 (b)協(xié)調(diào)和參考點(diǎn)(基線),用于一個(gè)側(cè)面。 1)為前臉參考:為了建立參考為一個(gè)正面,需要下列步驟。首先,在檢測(cè)到臉部的中心輪廓。第二,中央正面的線是基于該配置文件的位置。第三,它假設(shè)的平均值的控制點(diǎn)的位置面部模型被訓(xùn)練集已知的;因此,初始預(yù)測(cè)關(guān)于測(cè)試控制點(diǎn)的位置可以是經(jīng)過簡(jiǎn)單的中線對(duì)齊進(jìn)行。第四,從搜索基于平均面部的控制點(diǎn)來找到特定的給定的臉要點(diǎn)他們的外形特征。一坐標(biāo)建立基于檢測(cè)到的特定的控制對(duì)于進(jìn)一步的特征向量提取和比較點(diǎn)之間的模板,測(cè)試圖像。前兩個(gè)控制點(diǎn)是對(duì)應(yīng)于眼睛的內(nèi)角的各點(diǎn)。坐

10、標(biāo)基線是直線,連接兩個(gè)控制點(diǎn)。這條線的長度被定義為基準(zhǔn)一個(gè)前表面的長度〔見圖圖1(a)〕。 2)參考側(cè)面人臉:建立的方法,對(duì)于一個(gè)側(cè)面的引用介紹如下:首先,將側(cè)在檢測(cè)到臉部的輪廓。的鼻子的直線定面部被選擇為一個(gè)基線。 (如果它不存在,則第一曲線轉(zhuǎn)彎點(diǎn),并在該點(diǎn)的切線將選定作為基線)。二,直線被發(fā)現(xiàn)是垂直于第一基線和切線與概要文件鼻子的[見圖圖1(b)]作為第二基準(zhǔn)線。距離點(diǎn)是交叉處的第一基底的點(diǎn)之間和第二基線和點(diǎn)是交叉點(diǎn)在第二基線和上面的嘴的輪廓被選擇作為基準(zhǔn)長度為代表的側(cè)面功能[見圖圖1(b)]。另外,該第二交叉點(diǎn)被用于查找的側(cè)面的主要基線。該基地線是一條直線,從該點(diǎn)和切線與起始的側(cè)面

11、[鼻輪廓看到圖1中的黃線。圖1(b)]。根據(jù)這一線,鼻尖,其余控制點(diǎn),和參考點(diǎn)可以發(fā)現(xiàn)(如在第III節(jié)詳細(xì)說明)。 這些控制點(diǎn)是普遍建立(selfextract)參考點(diǎn)建立一個(gè)坐標(biāo)(參照?qǐng)D1),用于注冊(cè)和檢測(cè)到的圖像之間的特征(矢量)比較。參考點(diǎn)(控制點(diǎn)),很容易被發(fā)現(xiàn)通過從邊緣的突出的幾何特征和面部的輪廓,無需人工操作??刂泣c(diǎn)也是穩(wěn)健噪聲和光線的變化,和亮度變化,面部表情變化和姿態(tài)改變。 圖2.指標(biāo)轉(zhuǎn)換,由于姿態(tài)改變帶來的人臉特征向量變化 基于人臉模型的特征矢量 根據(jù)基準(zhǔn)點(diǎn)(坐標(biāo)),特征矢量是定義,其中包括顯著點(diǎn),如最大或最低點(diǎn),或周圍的眼睛,鼻孔的邊緣角落,和面部。當(dāng)然,大多數(shù)

12、的特征點(diǎn)的有在一個(gè)面的不可變形部分,以便容忍定義變化臉部表情的。首先,一組距離是特征和之間限定要點(diǎn),其中標(biāo)有黑點(diǎn)與綠色方形圍繞它,如圖1和2所示,在邊緣成比例的基準(zhǔn)長度為側(cè)面或前面。下巴尖的點(diǎn)不包括生成比率,因?yàn)樗窃谝粋€(gè)面的可變形部分。因?yàn)橐粋€(gè)面的形狀可以通過角度,來表示其可通過相應(yīng)的距離的比率來表示,和的比例是獨(dú)立的標(biāo)度,該比率的值是特征矢量的部分組件。其他主要用于人臉識(shí)別的特征矢量的分量是在每一個(gè)特征點(diǎn)的切線角之間的差異并在它的基準(zhǔn)點(diǎn)的切線的角度。這意味著臉形的功能可以通過這些角度與代相對(duì)于參考基線。其他主要形態(tài)特征在SFV-FR方式臉都是相對(duì)的切線角度其特征點(diǎn)位于其邊緣和輪廓。 在每

13、個(gè)參考點(diǎn),一組特征點(diǎn)的設(shè)置上邊緣/簡(jiǎn)檔的距離D / N從基準(zhǔn)點(diǎn)其中,d是面的基準(zhǔn)長度,n是限定為確保D / N>3個(gè)像素。該SFV-FR方法需要高清晰度圖像以確保人臉表示的精度來區(qū)分不同的面。若圖像分辨率(或清晰度)是足夠高的,每個(gè)人臉上都有著自己獨(dú)特的形狀。 面容的幾何不變性的證明 在臉姿勢(shì)和位置,相對(duì)于所述的可變性傳感器,是重要的,因?yàn)槊娉霈F(xiàn)在不同的非常不同的方向。即使是同樣的面孔完全可以出現(xiàn)不同,在兩個(gè)不同的方位。為了解決這個(gè)問題后不變形人臉模板被確定為先前推出的,從觀察到的臉部轉(zhuǎn)換特征與模板面部特征通常需要或用臉特征應(yīng)該是不變的方向和位置。 所使用的SFV-FR的特征都必須是不變

14、規(guī)模,平移和旋轉(zhuǎn),并且耐受一定程度噪音腐敗和光線的變化。幾何變換的定義臉特征不變性性質(zhì)被示出為如下: 對(duì)任何規(guī)模和平移不變性首先,證明切線角度呈現(xiàn)相對(duì)于所述先前定義的坐標(biāo)。在一般情況下,一個(gè)面的邊緣和輪廓是一般曲線,這可以表示為[16] 其中,(X,Y)是任意點(diǎn)的面邊緣。它的導(dǎo)數(shù)表示為。 假定切線處的特征的取向點(diǎn)是θ1和切線在基準(zhǔn)方向點(diǎn)是θ0。 θ1和θ0之間的角度差可以是表示為[16] 其中Y?1和Y?0頃的Y在X1和X0點(diǎn)導(dǎo)數(shù)邊緣/ profile文件分別為 后一般曲線縮放和翻譯轉(zhuǎn)型公式Y(jié) = K(Y + a)和X = K(X+ B),根據(jù)新協(xié)調(diào)系統(tǒng)的x和y,曲線可以被表

15、示為 其中,k,a和b是比例因子,Y的位移,x的位移分別并在新的坐標(biāo)。 使用新的坐標(biāo),在相應(yīng)的角(2)是表示為 其中y1和y0頃Y的X1和X0點(diǎn)衍生物邊緣/ profile文件,分別為。 關(guān)于x微分(3)后,左側(cè)的(3)可以被表示為奇,和右側(cè)的(3)可以是表示為KFσ(X)。簡(jiǎn)化后,我們得到 代(5)代入(4),(4)等于(2)。它意味著,它們具有相同的角度,即平移和縮放不變性持有。旋轉(zhuǎn)不變性的證明被討論如下: 轉(zhuǎn)換為y =x sinα+ y cosα和X = x cosα?y sinα,(1)可以表示為 x sinα+ y cosα= f(x cosα? y sin

16、α) (6) 其中,α是一個(gè)給定的旋轉(zhuǎn)角度。微分后(6)與關(guān)于x,(6)可以表示為 簡(jiǎn)化后,Y導(dǎo)可被表示為如下: 在新的坐標(biāo)對(duì)應(yīng)的角被表示為 代?在(9)通過(8),(9)可以表示如下: 因此,已經(jīng)證明,(9)實(shí)際上是相同的(2),并且它們具有相同的角度,即旋轉(zhuǎn)不變性成立。 其結(jié)果是,所提出的相對(duì)切線角度為基礎(chǔ)的面部功能,這代表了一個(gè)面的固有形狀,是不變尺度,位置,并且如果一個(gè)面部被轉(zhuǎn)動(dòng)姿勢(shì)(在平面)。在3-D空間的轉(zhuǎn)化,這是代表由它的笛卡爾坐標(biāo)(軸),一個(gè)功能之間面對(duì)在任意方向和位置,而那些的臉標(biāo)準(zhǔn)(模板)的位置和姿勢(shì),包括三平移沿其三個(gè)軸和三個(gè)旋轉(zhuǎn)它的三個(gè)軸

17、。從證明前面提到的,由于相對(duì)切線角型臉特征是不變的規(guī)模,平移和旋轉(zhuǎn)(在平面中),所需要的變換被減少到兩個(gè)旋轉(zhuǎn)。 為了解決這個(gè)問題,在考慮的特征觀察滿臉都是與它的模板不同,因?yàn)樗鼈冎g的區(qū)別,在其它兩個(gè)方向,以下變換應(yīng)用:耳底(功能點(diǎn)耳垂)位置到測(cè)試面的底邊(坐標(biāo))能被用于指示該臉姿勢(shì)角。為了補(bǔ)償由于差的面上/下轉(zhuǎn)時(shí),偏離(轉(zhuǎn))角度大致由θud=反正切(A/ B),其中A估計(jì)是鼻孔和耳朵底部的特征點(diǎn)之間的距離沿中央線坐標(biāo)〔見圖圖1(a)]和B是耳底特征點(diǎn)和鼻尖之間的距離〔見圖圖2(b)]。對(duì)于從臉部向左/向右轉(zhuǎn)差,基于高斯透鏡法,該偏離(轉(zhuǎn))角度可以B - 一個(gè)| |/((B+可以近似地θrl

18、=反正切(估計(jì)A)/2)),其中A是一個(gè)眼睛的長度,B是另一個(gè)眼睛長度[見黃線所示。圖2(a)]。 因此,對(duì)于該系統(tǒng),遠(yuǎn)距離焦攝像機(jī)強(qiáng)烈建議收購面部圖像,在為了減少來自不同角度的影響考慮到臉部參考姿勢(shì)的變化。基于功能可以容忍通過引入系統(tǒng)錯(cuò)誤圖像采集和處理,最好是設(shè)置在同一在報(bào)名和測(cè)試相機(jī)內(nèi)部參數(shù)階段。 4、注冊(cè)和匹配標(biāo)準(zhǔn) 面在SFV-FR方法登記涉及預(yù)處理步驟,從而使面部區(qū)域被裁剪,噪音抑制被施加,然后在臉部的邊緣和輪廓被檢測(cè)到。鼻尖坐標(biāo)用于確定中部地區(qū)種植。 一個(gè)新的匹配準(zhǔn)則引入人的分類(識(shí)別)?;诿娌刻卣魇噶康妮斎? 的R人分類/識(shí)別系統(tǒng)將生成第r符號(hào)P1,P2中的一個(gè)公關(guān)作

19、為一種輸出,其中用戶解釋作為識(shí)別的決定流程。判別函數(shù)D(X)=公關(guān)介紹第(分類)系統(tǒng)的輸入和輸出之間的關(guān)系。它是一個(gè)確定性的函數(shù),這意味著該函數(shù)分割特征為R不相交的子集,以及一個(gè)模式X將總是被識(shí)別為同一人。因此,在的SFV-FR的方法,該相似性度量不是基于相應(yīng)的功能,但需要之間的平均誤差之間的正確匹配考慮總數(shù)面對(duì)。如果測(cè)試組被定義為一個(gè)集合P= {1,2,… ,R},其中由?人,以及相應(yīng)的n個(gè)分量的特征矢量被定義為 該特征向量的每個(gè)人的元件值(R)測(cè)試的人實(shí)際上是表示為隨機(jī)變量一組,由于姿態(tài),面部表情,噪聲的變化,和測(cè)量精度。決策規(guī)則表示為 由(12)中定義的決策規(guī)則意味著必須有特征矢

20、量中的至少一個(gè)部件(第k個(gè)分量)即任何兩個(gè)人之間的不同。因此,該特征矢量的每個(gè)測(cè)試對(duì)象(如,人)是唯一的,并且它可以被用作識(shí)別區(qū)分他人的人。決策規(guī)則支持在臉上早期排斥策略匹配在識(shí)別階段。 此判定規(guī)則用于確保高識(shí)別精度。注冊(cè)是至關(guān)重要的,特征值的距離對(duì)于不同的人在注冊(cè)過程中被選中。為了實(shí)現(xiàn)對(duì)噪聲引起的變化表現(xiàn)強(qiáng)勁腐敗,帶來的變化,和面部表情,數(shù)對(duì)于一個(gè)人的特征矢量的分量需要是從在注冊(cè)的任何其他人明確分開系統(tǒng)。如果不是這樣,一個(gè)新的功能部件具有被引入到的特征向量的人在重新注冊(cè)該系統(tǒng)??商娲?,一個(gè)統(tǒng)計(jì)模式分類方法[17]可以設(shè)計(jì)如下,為了解決中可能存在的鑒定兩種的任何潛在混淆不同的人。有條件的手

21、段和兩個(gè)人協(xié)方差完成注冊(cè)已知的,并且這些被定義為 在那里率μi被定義為E [X],因?yàn)閄來自圓周率的人。 可以得到 在和λ1是最大的特征值對(duì)P-1Q。因此,最好的方向,也就是說,向量a(即Fisher線性判別式的變化[17]),可用于分離兩個(gè)人通過 臉模型具有動(dòng)態(tài)特征的結(jié)構(gòu)取決于對(duì)人要登記的鑒定。多少特征將在識(shí)別/識(shí)別系統(tǒng)中使用取決于設(shè)計(jì)要求,以支持快速匹配識(shí)別和可接受的性能。在為了實(shí)現(xiàn)在假方面的最佳性能接受率,該特征向量的分量的數(shù)目應(yīng),理想情況下,盡可能地大,只要面部定義和測(cè)試的人臉識(shí)別系統(tǒng)可以支持它。然而,特征向量可能無法代表唯一一個(gè)人,他與別人不同,由于混淆/

22、她在測(cè)試的人的有限的圖像分辨率而數(shù)量龐大的人誰是外注冊(cè)(培訓(xùn))集。在這樣的情況下,進(jìn)行統(tǒng)計(jì)分析的SFV-FR系統(tǒng)的性能的被提供為如下: 5、SFV-FR技術(shù)統(tǒng)計(jì)性能分析 甚至用0%錯(cuò)誤拒絕率,可能存在的可能性的兩個(gè)或更多的人共享相同特征矢量訓(xùn)練集以外的人進(jìn)行表彰時(shí)。這個(gè)錯(cuò)誤接受率可以由以下來估計(jì)統(tǒng)計(jì)分析: 了簡(jiǎn)化分析,我們假定隨機(jī)面代表特征向量X =[X1… ,XN] T有獨(dú)立組件曦,I =1…時(shí),個(gè)人的n和產(chǎn)品X1的概率分布函數(shù)… ,XN,包括所有由臉的組合功能為代表可能的面孔特征矢量,可表示為[16] 在中此外,錯(cuò)誤接受離散概率如下表示: 其中,[雙,EI]對(duì)

23、i =1,2,…中,n為各成分的范圍面部特征向量(隨機(jī)變量)兮。式(18)表示的是,如果任何兩個(gè)人是隨機(jī)的概率從人們所選擇的報(bào)名(培訓(xùn))集以外,該兩個(gè)人有每個(gè)功能的同一區(qū)域。從理論上講,假驗(yàn)收N個(gè)測(cè)試人的離散概率外訓(xùn)練集給出如下: 其中S是由(17)中獲得的面部特征矢量空間。因?yàn)榈母叱潭刃g(shù)語(18)(以上的概率兩個(gè)人具有相同的特征向量)收斂速度非??斓搅?,錯(cuò)誤接受用于SFV-FR的概率是主要依賴于(18),這是本文的重點(diǎn),人們?內(nèi)的一些限制。 基于738樣本107人,的特征之一,即,X(它是由兩個(gè)眼角和所形成的角1交點(diǎn)中心線,用線連接兩個(gè)鼻孔特征點(diǎn)[見圖圖1(a)],其中,反過來,被

24、表示為眼角的距離的比率,并到中央線的兩個(gè)交點(diǎn)的距離〔見圖圖1(a)]),進(jìn)行了調(diào)查。測(cè)試結(jié)果示于圖。 3.功能的測(cè)試集(即人)在PDF圖。圖3(a)示出了一個(gè)相似的高斯密度分布與如圖所示的相同的均值μ和標(biāo)準(zhǔn)偏差σ圖。圖3(b);因此,它可以由一個(gè)高斯近似分布其平均值μ和標(biāo)準(zhǔn)偏差σ的值使用測(cè)試數(shù)據(jù)集獲得的。 實(shí)驗(yàn)還表明,其它組分面對(duì)代表特征矢量具有相似的特性并且也大致與高斯分布該裝置率μi和標(biāo)準(zhǔn)偏差ΣI,I =1,2,… ,N,分別。 圖。3. PDF(a)將測(cè)試集的特征X 1和(b)是用相同的標(biāo)準(zhǔn)偏差σ和平均值μ高斯PDF格式。 因此,每個(gè)FXI(xi)與它的平均率μi和標(biāo)準(zhǔn)的PDF偏差

25、ΣI可近似表示如下: 離散概率分布函數(shù)的一個(gè)子范圍Xi可近似表示為 在中,和是人的臉的平均或最大變化范圍功能兮。在量ΔXi等因素影響測(cè)量精度(分辨率測(cè)試圖像),面部表情和構(gòu)成,照明條件,和噪聲。平均率μi和標(biāo)準(zhǔn)偏差ΣI依賴于自然屬性的特征的組分(例如,參見圖8)。 因此,SFV-FR系統(tǒng)的錯(cuò)誤接受能進(jìn)一步約為取決于: 其中bi和EI被定義為相同于(18)。 BI和EI從注冊(cè)(培訓(xùn))建立起來的臉上得到模型的基礎(chǔ)上的特征向量數(shù)據(jù)組(實(shí)施例)。 用(21)和(22)的實(shí)驗(yàn)表明,接受假率是獨(dú)立的裝置率μi;標(biāo)準(zhǔn)偏差ΣI和Ri(西安到量ΔXi的范圍比)作貢獻(xiàn)到錯(cuò)誤接受率(例如,參見

26、圖7)。假接受率隨Ri的降低。量ΔXi也測(cè)試依賴于測(cè)量精度(定義面部圖像)和特征的屬性。習(xí)近平還依賴上的圖像的清晰度。三維人臉數(shù)據(jù)集通常來自rangescanning如激光掃描儀,其中設(shè)備捕獲三維一個(gè)面部表面[18]的幾何形狀和紋理信息。該三維臉部識(shí)別方法使用曲率計(jì)算基于來自旋轉(zhuǎn)得到的范圍內(nèi)的圖像數(shù)據(jù)激光掃描儀。用于從一個(gè)實(shí)時(shí)監(jiān)視測(cè)試圖像系統(tǒng),它通常是很難得到它的3-D信息站點(diǎn)。(通常情況下,它需要幾秒鐘的強(qiáng)大掃描器獲得從一個(gè)靜止面部此信息)。因此,它是提出來衡量其多視圖2-D的信息來解決問題[19]。此外,該特征矢量為基礎(chǔ)的臉代表結(jié)構(gòu)也支持早期排斥策略期間,在識(shí)別階段的臉匹配。這是一個(gè)擴(kuò)展自

27、由形式的彎曲表面中的3-D的概念形狀識(shí)別多個(gè)2-D視圖人臉識(shí)別[20]。用三維掃描方法,多視點(diǎn)的2-D相比人臉圖像都比較容易獲得通過監(jiān)控視頻系統(tǒng)與合作較少的需求確定人。而相比之下,使用[20]所述的曲率值,但是,形狀特征是由功能的角度作出代表在因?yàn)樵赟FV-FR方法點(diǎn)和切線角比例和切線角度不變性,作為證明以前。 三、實(shí)驗(yàn) 面對(duì)幾個(gè)數(shù)據(jù)集在本次調(diào)查中。該數(shù)據(jù)集,包括麻省理工學(xué)院的一個(gè)子集技術(shù)CBCL人臉識(shí)別數(shù)據(jù)庫,其中包括10個(gè)人,和FRAV3D [21],它是一個(gè)人臉數(shù)據(jù)庫有106人。在FRAV3D,被收購所有的人臉圖像在受控的照明條件和不戴眼鏡,帽子,或圍巾。為了測(cè)試面部表情的影響,

28、大的變化姿勢(shì),年齡,和照明的性能在SFV-FR系統(tǒng),面部表情數(shù)據(jù)庫(JAFFE)[22]的魯棒性和老齡化人臉數(shù)據(jù)庫FG-NET [23]分別為使用。此外,高清晰度的面部圖像的一個(gè)子集是也用在實(shí)驗(yàn)中。該子集包括89個(gè)不同的科目,而每個(gè)人都有多重的人臉圖像。那里在面部數(shù)據(jù)集的子集輕微姿勢(shì)變化左/右和上/下方向。雖然面孔一般中性的,有些科目熊微笑表情。所有的面的幾乎均勻的背景光。但是,面有相當(dāng)不同的尺度。面對(duì)裁剪,最大的臉后圖像包含約1 000 000像素,而最小人臉圖像只包含約10 000像素。 圖。4.坐標(biāo)(基準(zhǔn)線),參考點(diǎn)(鼻尖),一些特征

29、點(diǎn),和特征點(diǎn)切線的側(cè)面。 為了測(cè)試該SFV-FR系統(tǒng)的原理為實(shí)時(shí)應(yīng)用中,四個(gè)前臉特征〔見圖圖1(a)]和三個(gè)側(cè)面臉特征〔見圖圖1(b)]被選定。該更多的特征部件,性能越好那除具有更多的計(jì)算成本來實(shí)現(xiàn)。該為測(cè)試面部特征矢量,因此限定為X=[X1,X2… ,X 7] T,以便支持快速實(shí)時(shí)人認(rèn)可。每個(gè)面部特征在此定義。 1)X 1是由眼睛'外角和一個(gè)形成的角度中心線的交點(diǎn)〔見圖圖1(a)]。 2)X 2是由眼睛'內(nèi)角和一個(gè)形成的角度中心線的交點(diǎn)〔見圖圖1(a)]。 3)X 3是距離的眼內(nèi)之間的比率角向眼外角之間的距離[見圖圖1(a)]。 4)X 4是距離的眼外之間的比邊角的兩個(gè)鼻孔功能之間

30、的距離點(diǎn)[見圖圖1(a)]。 5)X5是鼻尖所成的角,耳朵底部特征 點(diǎn)和眼角〔見圖圖1(b)]。 6)X 6是由一個(gè)切線所成的角度(參照藍(lán)線圖。 4)和其側(cè)基線。 7)X 7是由另一個(gè)切線形成的角度(見藍(lán)色線圖。 4)和其側(cè)基線。 X6和X7,由一個(gè)所產(chǎn)生的切點(diǎn)臉部輪廓和圓,其中心的交叉點(diǎn)在鼻尖和由側(cè)面臉的一小部分產(chǎn)生的其半徑參考長度(參照?qǐng)D1(b)和4)。特征X3和X4都是比其他的功能,因?yàn)樗麄兊哪樃煽康淖藙?shì)不變。特征角實(shí)際上可以由比率來表示其對(duì)應(yīng)的長度(垂直于相鄰的或相反的角度)邊,例如,X 1可以被表示為眼中的“外眼角的距離的距離比中心線和X2的兩個(gè)交點(diǎn)之間的可被表示為眼睛'

31、內(nèi)的距離的比率角落的兩個(gè)交點(diǎn)之間的距離中心線〔見圖圖1(a)〕。 SFV-FR系統(tǒng)的人臉識(shí)別過程包括幾個(gè)步驟同時(shí)為注冊(cè)(登記),并識(shí)別(匹配)的進(jìn)程。面的登記在SFV-FR方法涉及一個(gè)預(yù)處理步驟。在預(yù)處理步驟,面部區(qū)域被裁剪和噪聲抑制被施加,之后邊和的輪廓臉部被檢測(cè)到。對(duì)于不同的功能,不同的邊緣檢測(cè)方法或閾值可以在為了檢測(cè)使用的特征盡可能準(zhǔn)確的位置。 在實(shí)驗(yàn)中使用的詳細(xì)的操作被描述為如下:首先,在輸入人臉圖像的噪聲被抑制邊緣保留去噪過程[24]和/或高斯平滑操作。其次,進(jìn)行邊緣/輪廓檢測(cè)出由第二導(dǎo)數(shù)為基礎(chǔ)的操作具有不同的參數(shù)/閾值不同的功能[25]。第三,在檢測(cè)的邊緣/簡(jiǎn)檔,多個(gè)所需的SF

32、V-FR的控制點(diǎn)和興趣點(diǎn)進(jìn)行自動(dòng)提取通過他們的顯著特征,考慮到興趣點(diǎn)是局部極大值或輪廓/邊緣的最低點(diǎn)。例如,中間一行圖像[從圖。圖5(e) - (H)]及圖。圖6(b)示出所檢測(cè)到的配置文件和提取基準(zhǔn)線(控制點(diǎn))從sideface黃線表示圖像。人有不同的鼻子曲線[見底部連續(xù)的圖像從圖。圖5(ⅰ) - (l)和圖6(c)]和每個(gè)單獨(dú)的具有鮮明鼻形系生物特征[2]。對(duì)于提出SFV-FR,鼻輪廓的幾何形狀可以來表示,并且由所述切線萃取/角度表示由藍(lán)線的交叉點(diǎn)[見圖。圖6(b)和(c)〕。在從圖圖像。圖5(?。?- (l)和圖6(c)中,坐標(biāo)(參考)表示為黃線線對(duì)齊作比較,與每個(gè)參考點(diǎn)(噪聲尖)由紫色

33、指示點(diǎn)有綠色邊框。圖。圖6(c)中,每個(gè)興趣點(diǎn)是由紫點(diǎn)有綠色邊框表示。對(duì)于SFV-FR興趣點(diǎn)/切線提取和所述的準(zhǔn)確度面對(duì)測(cè)量精度取決于的分辨率面部圖像[參見圖圖6(c)〕,因?yàn)楦嗟南袼氐拿婧械哪樞翁卣髟蕉啵?xì)節(jié)可以被提取。 從176人(即982例面部數(shù)據(jù)集)107個(gè)人隨機(jī)選擇為訓(xùn)練集和剩下的69人進(jìn)行培訓(xùn)外認(rèn)證測(cè)試。測(cè)試組由來自不同年齡的人,并族群。對(duì)于身份驗(yàn)證,假錄取率對(duì)于69人的培訓(xùn)外,因?yàn)橄鄬?duì)設(shè)定0%有限的測(cè)試集的大小。因?yàn)槿藘?nèi)的數(shù)注冊(cè)/訓(xùn)練集總是有限的,留下了潛在的巨大的境外培訓(xùn)設(shè)置的人,會(huì)是怎樣的潛力錯(cuò)誤接受率測(cè)試系統(tǒng)來識(shí)別人登記外設(shè)置,使用的問題進(jìn)行了調(diào)查基于所述第二E所討論

34、的統(tǒng)計(jì)分析。 圖。5. SFV-FR提取興趣點(diǎn)的人臉圖像。 (i)-不同分辨率(D)輸入人臉圖像。(vi)-(H)曲線的成果/邊緣檢測(cè)。(?。?(L)信息的檢測(cè)后的對(duì)應(yīng)面部圖像經(jīng)過變焦部分(鼻輪廓)從(e)至(H)],并從輪廓提取的興趣點(diǎn)。 圖。6. SFV-FR提取興趣點(diǎn)和切線/從人臉圖像的角度。 (a輸入面部圖像。輪廓檢測(cè)(b)的結(jié)果,所述興趣點(diǎn),并提取其切線的輪廓。相應(yīng)的人臉圖像(三)縮放部分(鼻輪廓)信息檢測(cè)之后(b)和興趣點(diǎn)及其切線提取的輪廓。 人臉表示特征向量之前獲得的。該結(jié)果表示如下: 每個(gè)功能曦是為每個(gè)測(cè)試個(gè)體

35、的隨機(jī)變量由于構(gòu)成改造,規(guī)模,測(cè)量精度(與圖像的分辨率相關(guān)聯(lián)),照明條件,和面部表情;西安每個(gè)范圍個(gè)體也是不同的彼此因?yàn)槿藗儾煌淖匀坏拿娌刻卣??;跍y(cè)試從107培訓(xùn)/注冊(cè)人738例中,得到相應(yīng)的隨機(jī)特性可變參數(shù)作為ΣI=12.9,12.2,11.1,10.3,11,13.1,10.5,量ΔXi=13,12,11,9,12,14,15,且X= 67,64,55,52,54的范圍內(nèi),58,53,其中i =1,2,… ,7,分別與這些變量主體高斯分布。由(19)和(22),該電勢(shì)該系統(tǒng)的錯(cuò)誤接受率為0.1198%。 如果面部表情數(shù)據(jù)集,如(JAFFE),和面大姿勢(shì)的變化進(jìn)行了測(cè)試,錯(cuò)誤接受率由于

36、升高到低清晰度和增加變異面廣范的每個(gè)人。假設(shè)其他因素都是平等的,量ΔXi和錯(cuò)誤接受之間的關(guān)系率進(jìn)行了測(cè)試,并顯示出如下: 圖7,假設(shè)每個(gè)特征的隨機(jī)值喜是受其個(gè)人范圍內(nèi)均勻分布量ΔXi。它可以觀察到相應(yīng)的錯(cuò)誤接受率增加的增加量ΔXi的每個(gè)人,這取決于臉姿勢(shì),表情,以及照明條件。 部件數(shù)量的用于面部的關(guān)系特征矢量與錯(cuò)誤接受率還測(cè)試在本次調(diào)查。如果只有第一四個(gè)分量的測(cè)試人臉表示特征向量被使用,假接受率將根據(jù)(19)和(22)為0.54%。該性能變差,雖然計(jì)算成本降低。這意味著,該系統(tǒng)的錯(cuò)誤接受率可以用增加的可靠功能組件可以改善載體。 圖。量ΔXi的尺寸和的錯(cuò)誤接受率之間的關(guān)系7.所提出的臉

37、部識(shí)別系統(tǒng)。 另一個(gè)因素,即,標(biāo)準(zhǔn)偏差進(jìn)一步調(diào)查ΣI為X1的情況下,表示為如下: 圖8,雖然被測(cè)試裝置產(chǎn)生的PDF文件(人)具有不同的個(gè)體ΔX的,這是2為圖圖8(a)和7所示。 8(b)中,他們沒有表現(xiàn)出顯著差異在它們之間。其結(jié)果是,一個(gè)特征的標(biāo)準(zhǔn)偏差ΣI作為特征的一個(gè)大的自然屬性是獨(dú)立的量ΔXi的變體。 所提出的SFV-FR的性能進(jìn)行了比較與國家的最先進(jìn)的技術(shù),稱為人臉識(shí)別基上擬合三維形變模型(FRBF-3- DMM),[26]。五十八個(gè)科目621圖像從入選上述人臉數(shù)據(jù)庫進(jìn)行了對(duì)比測(cè)試。共488圖像選擇用于訓(xùn)練,其余圖像被用于測(cè)試。性能示于表I中SFV-FR表現(xiàn)出比更好臉部識(shí)別性能FR

38、BF-3-DMM。 為了進(jìn)一步評(píng)價(jià)所提出的SFV-FR,則其他先進(jìn)國家的技術(shù)也與比較SFV-FR采用大眾臉數(shù)據(jù)庫FG-NET[23]。 Seventyone受試者的6-60年齡范圍從入選在FG-NET,并為每個(gè)主題所選擇的圖像進(jìn)行分為兩組。一組進(jìn)行訓(xùn)練,并且另一組是用于測(cè)試。測(cè)試結(jié)果示于表Ⅱ。由于年齡的非常大的變化,姿勢(shì),和照明;低分辨率;和閉塞,只有有限該特征矢量的分量是可用于圖像;SFV-FR的識(shí)別率也下降了。然而,該SFV-FR仍表現(xiàn)出比其他指標(biāo)更好的性能技術(shù)。在本文中所描述的實(shí)驗(yàn)是僅用于說明 建議SFV-FR系統(tǒng)的原理。如果有更多的多視點(diǎn)2-D面部基準(zhǔn)模板設(shè)立登記時(shí),從顯著姿勢(shì)變化

39、減少測(cè)量誤差,在SFV-FR系統(tǒng)的錯(cuò)誤接受率有望完善。此外,更多的特征的組件,可以選擇通過在面部和切線角的要點(diǎn)從突出/特征點(diǎn),這是不可變形面對(duì)式(行)(參見圖4-6),以提高其性能時(shí),最有可能的,額外的計(jì)算成本。 SFV-FR的優(yōu)點(diǎn)是,它需要很少或沒有從受試者的容貌進(jìn)行了自動(dòng)化合作識(shí)別過程。它適用于應(yīng)用,如定制和邊境保護(hù)服務(wù),安全和限制區(qū)檢查點(diǎn)等,其中,當(dāng)人們都在等待中一定區(qū)域內(nèi)或者通過登機(jī)或到達(dá)通道走機(jī)場(chǎng)碼頭,自己的臉拍攝照片幾個(gè)相機(jī)從不同的角度。然而,性能的SFV-FR高度依賴于相機(jī)的分辨率,其性能降低因遮擋,如眼鏡或毛發(fā)覆蓋面的一部分。在SFV-FR的另一個(gè)限制是,有可能對(duì)所提出的某些

40、內(nèi)容的變化注冊(cè)的生命期內(nèi),人臉特征向量人。 該SFV-FR的方法提供了一種替代的框架整合其他可靠的人臉特征表示從國家的最先進(jìn)的臉部識(shí)別技術(shù),技術(shù)如果不需要一個(gè)人臉識(shí)別嚴(yán)格的響應(yīng)時(shí)間系統(tǒng)。 四、結(jié)論 在本文中,基于國家的最先進(jìn)的技術(shù),人臉 識(shí)別,可靠的人臉自動(dòng)識(shí)別方法有被引入。首先,基于形狀的自我抽出用參照坐標(biāo)已被提議作為框架?;诨鶞?zhǔn)(坐標(biāo)),一種新型的面部特征向量具有被定義為臉上的代表性和鑒定。該面部特征向量的新穎的部分是它的功能角度和特征點(diǎn)切線角為基礎(chǔ)的人臉表示。該理想的規(guī)模,翻譯和面部的旋轉(zhuǎn)不變性功能,功能的角度,和特征點(diǎn)切線的角度,有利用本文這張臉代表得到證實(shí)。該不變五官能

41、耐受,在一定程度上的變化人臉姿態(tài)和表情。在SFV-FR方法的明顯優(yōu)勢(shì)是,它避免了耗時(shí)的蠻力-搜索算法之類招生的圖像對(duì)齊圖像和測(cè)試圖像中的后續(xù)面部對(duì)照操作,這是通常使用的現(xiàn)有狀態(tài)ofthe-藝術(shù)人臉識(shí)別算法。的另一個(gè)優(yōu)點(diǎn)面對(duì)提出的代表性和提取的是,它支持早期的排斥反應(yīng)。其結(jié)果是,它有一個(gè)潛在的應(yīng)用實(shí)時(shí)視頻監(jiān)視系統(tǒng)。 SFV-FR系統(tǒng)表現(xiàn)出有前途的性能通過對(duì)幾個(gè)標(biāo)準(zhǔn)人臉數(shù)據(jù)集實(shí)驗(yàn)。一這種面部識(shí)別模型的貢獻(xiàn)在于,它提供了統(tǒng)計(jì)分析,以提供一個(gè)理論解釋如何識(shí)別系統(tǒng)的性能依賴于特征屬性(例如其PDF的標(biāo)準(zhǔn)偏差),測(cè)量精度(先決條件獲得的一個(gè)高精度高的圖像分辨率),臉姿勢(shì)和表達(dá),照明條件,和噪聲。因此,基

42、于分析(它們之間的關(guān)系),它提供了一個(gè)可靠的方法來設(shè)計(jì)一個(gè)實(shí)用的人臉識(shí)別系統(tǒng),以滿足他們的特殊要求。這種方法還提供了一種替代框架,國家的最先進(jìn)的其他可靠的人臉表示技術(shù)整合到一個(gè)可靠的(穩(wěn)?。瑢?shí)用多生物統(tǒng)計(jì)識(shí)別系統(tǒng)。 圖8.從PDF文件相同的測(cè)試的人用不同的ΔX的顯示出類似的標(biāo)準(zhǔn)偏差。 (一)與PDF作為σ10.75。 (二)與PDF作為σ11.16。 表一,比較SFV-FR與FRBF-3-DMM適合面部識(shí)別 表二,比較方法進(jìn)行人臉識(shí)別 致謝 筆者想感謝麻省理工學(xué)院技術(shù)中心生物和計(jì)算的學(xué)習(xí)用于提供面部圖像數(shù)據(jù)庫,并的人臉識(shí)別和人工視覺組(FRAV)胡安·卡洛斯國王

43、大學(xué)提供的FRAV3D的臉數(shù)據(jù)庫。 參考 [1] A. K. Jain, A. Ross, and S. Prabhakar, “An introduction to biometric recognition,” IEEE Trans. Circuits Syst. Video Technol., vol. 14, no. 1, pp. 4–20, Jan. 2004. [2] W. Zhao, R. Chellappa, P. J. Phillips, and A. Rosenfeld, “Face recognition: A literature survey,” AC

44、M Comput. Surv., vol. 35, no. 4, pp. 399–458,Dec. 2003. [3] M. Turk and A. Pentland, “Eigenfaces for recognition,” J. Cogn.Neurosci., vol. 3, no. 1, pp. 71–86, 1991. [4] P. Belhumeur, J. Hespanha, and D. Kriegman, “Eigenfaces vs. Fisherfaces:Recognition using class specific linear projection,” IEE

45、E Trans. PatternAnal. Mach. Intell., vol. 19, no. 7, pp. 711–720, Jul. 1997. [5] H. Sellahewa and S. A. Jassim,“Image-quality-based adaptive face recognition,” IEEE Trans. Instrum. Meas., vol. 59, no. 4, pp. 805–813,Apr. 2010. [6] A. S. Mian and M. Bennamoun, “Keypoint detection and local featurem

46、atching for textured 3D face recognition,” Int. J. Comput. Vis., vol. 65, no. 1, pp. 63–85, 2007. [7] A. S. Mian, M. Bennamoun, and R. A. Owens, “An efficient multimodal2D–3D hybrid approach to automatic face recognition,” IEEE Trans.Pattern Anal. Mach. Intell., vol. 29, no. 11, pp. 1927–1943, Nov

47、. 2007. [8] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” in Proc. IEEE Conf. Comput. Vis. Pattern Recog., 2001,pp. 511–518. [9] S. J. D. Prince, J. H. Elder, J. Warrell, and F. M. Felisberti, “Tied factor analysis for face recognition across large pos

48、e differences,” IEEE Trans.Pattern Anal. Mach. Intell., vol. 30, no. 6, pp. 970–984, Jun. 2008. [10] J. Huang, B. Heisele, and V. Blanz,“Component-based face recognition with 3D morphable models,” in Proc. Int. Conf. Audio Video-Based Biometric Person Authentication, 2003, pp. 27–34. [11] K. W. Bo

49、wyer, K. Chang, and P. Flynn, “A survey of approaches andchallenges in 3D and multi-modal 3D +2D face recognition,” Comput. Vis. Image Understand., vol. 101, no. 1, pp. 1–15, Jan. 2006. [12] G. Gokberk, A. Salah, and L. Akarun, “Rank-based decision fusion for 3D shape-based face recognition,” in P

50、roc. Int. Conf. AudioVideo-Based Biometric Person Authentication, 2005, pp. 1019–1028. [13] P. J. Besl and N. D. McKay, “A method for registration of 3-D shapes,”IEEE Trans. Pattern Anal. Mach. Intell., vol. 14, no. 2, pp. 239–256, Feb. 1992. [14] X. Lu, A. K. Jain, and D. Colbry, “Matching 2.5D

51、scans to 3D models,”IEEE Trans. Pattern Anal. Mach. Intell., vol. 28, no. 1, pp. 31–43, Jan. 2006. [15] C. D. Castillo and D. W. Jacobs, “Using stereo matching with general epipolar geometry for 2D face recognition across pose,” IEEE Trans.Pattern Anal. Mach. Intell., vol. 31, no. 12, pp. 2298–230

52、4, Dec. 2009. [16] I. N. Bronshtein, K. A. Semendyayev, G. Musiol, and H. Muehing,Handbook of Mathematics, 5th ed. New York: Springer-Verlag,2007. [17] H. Stark and J. W. Woods, Probability and Random Processes WithApplications to Signal Processing, 3rd ed. Englewood Cliffs, NJ:Prentice-Hall, 2002

53、. [18] C. Beumier and M. Acheroy, “Automatic 3D face authentication,” ImageVis. Comput., vol. 18, no. 4, pp. 315–321, Mar. 2000. [19] B.Weyrauch, J. Huang, B. Heisele, and V. Blanz, “Component-based face recognition with 3D morphable models,” in Proc. 1st IEEE Workshop Face Process. Video, Washin

54、gton, DC, 2004, p. 85. [20] C. Beumier and M. Acheroy, “Face verification from 3D and grey level cues,” Pattern Recognit. Lett., vol. 22, no. 12, pp. 1321–1329, Oct. 2001. [21] C. Conde, A. Serrano, and E. Cabello, “Multimodal 2D, 2.5D, and 3D face verification,” in Proc. IEEE ICIP, Atlanta, GA, 2

55、006,pp. 2061–2064. [22] M. J. Lyons, S. Akamatsu, M. Kamachi, and J. Gyoba, “Coding facial expressions with Gabor wavelets,” in Proc. 3rd IEEE Int. Conf. Autom. Face Gesture Recog., Nara, Japan, 1998, pp. 200–205. [23] FG-NET Aging Database, 2010. [Online]. Available: http://www.fgnet. [24] Z.

56、Xu, H. R. Wu, B. Qiu, and X. Yu, “Geometric features based filtering for suppression of impulse noise in color images,” IEEE Trans. Image Process., vol. 18, no. 8, pp. 1742–1759, Aug. 2009. [25] Z. Xu, D. Toncich, and H. R.Wu, “Vision-based high accuracy work piece inspection from profile,” Mach

57、. Graph. Vis., vol. 10, no. 2, pp. 155–174, 2001. [26] V. Blanz and T. Vetter, “Face recognition based on fitting a 3D morphable model,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 25, no. 9, pp. 1063– 1074, Sep. 2003. [27] X. Geng, Z.-H. Zhou, and K. Smith-Miles, “Automatic age estimation based on facial aging patterns,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 29, no. 7, pp. 2234–2240, Dec. 2007. [28] U. Park, Y. Tong, and A. K. Jain, “Age-invariant face recognition,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 32, no. 5, pp. 747–954, May 2010.

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

相關(guān)資源

更多
正為您匹配相似的精品文檔
關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號(hào):ICP2024067431號(hào)-1 川公網(wǎng)安備51140202000466號(hào)


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺(tái),本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請(qǐng)立即通知裝配圖網(wǎng),我們立即給予刪除!