人臉識別系統(tǒng) (2)
《人臉識別系統(tǒng) (2)》由會員分享,可在線閱讀,更多相關(guān)《人臉識別系統(tǒng) (2)(10頁珍藏版)》請在裝配圖網(wǎng)上搜索。
1、基于圖形矢量的精準(zhǔn) 人臉識別系統(tǒng) Zhengya Xu, Hong Ren Wu, Xinghuo Yu, Fellow, IEEE, Kathryn Horadam, and Bin Qiu, Senior Member, IEEE 摘要:本文提出了一個基于人臉特征的快速的人臉識別方法。這是一種基于目標(biāo)形狀的自動參考控制技術(shù)和特征提取技術(shù),提出了通過測量出臉部兩邊的平面差,根據(jù)提取的特征集合中將每組2D圖像組合成具有3D特征的面部模板。不同于臉部整體的識別算法的是,基于人臉特征的算法是相對穩(wěn)定的,面部表情、照明狀態(tài)以及姿勢的變化都會導(dǎo)致面部特征向量的變化。提出的技術(shù)的性能分析理論均
2、由概率統(tǒng)計做基礎(chǔ)。所提出的方法使用了人臉識別數(shù)據(jù)庫的幾個樣品,以實現(xiàn)可觀的人臉識別功能。 關(guān)鍵詞:人臉特征向量;人臉識別;人臉表征;外形特征向量。 一、 引言 人臉是最具社會可接受性和非侵入性的影像測量的生物特征之一。其需求少也沒有在監(jiān)視的課題中出現(xiàn)。但是,人臉自動識別是一個非常具有挑戰(zhàn)性的任務(wù),因為與其他生物特征相比面部特征的差異是相當(dāng)細微的(例,指紋識別)【1】。此外,由于面部表情、照明狀態(tài)、人的姿勢和面部化妝的變化都為人臉識別的準(zhǔn)確性增加難度。在文獻中,靜止圖像的人臉識別算法分為三類,即全面的、基于特征向量的和混合匹配算法【2】。整體識別算法例如Eigenfaces算法【3】和Fi
3、sherfaces算法【4】,從整個臉部提取特征。整體匹配算法的一個限制便是它需要更全面,需要根據(jù)正常的姿態(tài),照明以及比例【5】。而這些因素的變化都可能會影響從面提取的全局特征,導(dǎo)致最終識別的不準(zhǔn)確。通常的解決辦法是通過手動識別面孔來進行,這使得整個過程變得半自動化【6】。人工糾正是不完善的識別系統(tǒng),因為它通常變現(xiàn)在幾個特殊的控制點上,人工識別也為每個控制點提供足夠的精度。用具有里程碑意義的自動識別算法來更換這個最終會劣化識別結(jié)果的手動過程【6】。此外,全球性特點也敏感于面部表情和遮擋的變化。基于特征的匹配算法提取局部特征或區(qū)域特征,如眼睛和鼻子,然后使用這些特征執(zhí)行匹配或運作自己的本地統(tǒng)計數(shù)
4、據(jù)進行識別。此類別的一個例子是基于區(qū)域的3D匹配算法【7】,其中分別相匹配的眼睛、額頭和鼻子的3D點云區(qū)域和融合結(jié)果在目標(biāo)水平。另一個例子是使用本地樣本提升人臉識別準(zhǔn)確度【8】,哪 從面部圖像在不同匹配的矩形區(qū)域、比例和方向【9】?;旌掀ヅ浞椒ㄊ褂妹娌咳趾途植抗δ芙M合識別【10】。 3D和多模式人臉識別調(diào)查由等人給出【11】,Bowyer認為3D人臉識別必須克服其2D潛在吻合的局限性。多模式的2D和3D人臉識別技術(shù)提供了比那些由單獨個體方式獲得更準(zhǔn)確的結(jié)果【11】?;旌线\算方法或分類可以提高人臉識別的準(zhǔn)確度被認可。例如Gokberk等人【12】。報道曾表彰通過結(jié)合多個三位面部特征的識別算
5、法。許多三維面部識別方法基于迭代最近點(ICP)算法[13]或它的變體[7]。 ICP為基礎(chǔ)的方法的一個主要優(yōu)點是,它避免了面部表情[7]和把手構(gòu)成的變化由匹配2.5-D掃描完成人臉模型[14]。然而,比較方案的主要缺點是它是一個迭代算法,因此,在計算上很昂貴。此外,為了加快匹配過程ICP算法不提取任何規(guī)則的特征級融合和索引的臉部特征的可能性。除非另一個分類器或方式進行索引或之前的排斥不可能面臨來自畫廊【6】,基于ICP算法必須進行強力匹配,從而使識別費時,不適合生產(chǎn)生活使用。另一個缺點是,它需要ICP好的初始近似值。 在本文中,一個快形狀特征矢量為基礎(chǔ)的人臉識別方法(SFV-FR的簡稱)
6、,提出了以支持實時應(yīng)用,如實時的現(xiàn)場臉識別系統(tǒng)。新辦法旨在避免任何強力匹配算法等。不同于整體人臉識別算法,變化的表達式下如照明、姿勢、遮擋和化妝的條件下,基于特征的算法是相對穩(wěn)健的【7】。2D和3D的組合算法提供了更為準(zhǔn)確的結(jié)果,形成了一個共同的2-D和3-D?sfv-fr方法。 本文的組織如下:第二節(jié)/介紹了該方法的sfv-fr原理,其中包括一個新的人臉特征提取的切角技術(shù)和獨特的面部特征向量的人臉表示;證明比例,平移,旋轉(zhuǎn)不變性所提取的面部特征;與理論由概率的sfv-fr系統(tǒng)性能分析與統(tǒng)計方法。第三節(jié)得出結(jié)果,第四節(jié)結(jié)論。 二 、sfv-fr方法的原理 人臉表達 人臉表達是人臉識
7、別系統(tǒng)中的一個重要組成部分有效的人臉模型是有效的不變的,取向和位置對于人臉識別的成功與否是至關(guān)重要的。大多數(shù)上述的審查國家的最先進的算法是一般的算法。就一個特定的實時系統(tǒng)而言他們有著數(shù)據(jù)的缺陷,包括昂貴的計算成本。為了緩解這一問題,一種新穎的方法適合于實時面部識別應(yīng)用,提出了論文。首先,一坐標(biāo)系(或基線和基準(zhǔn)點)是(或者)設(shè)置,以限定的面部特征來表示一臉進一步人臉識別。通常,為了構(gòu)建2-D或3-D的面部數(shù)據(jù)集和比較面,所有的面捕集/掃描和匹配需要精確對準(zhǔn)在一個共同的坐標(biāo)系。而不是使用暴力破解的搜索或類似的面比對,如先前討論的,基于形狀的自動跟蹤參考(坐標(biāo))系統(tǒng)被引入用于SFV-FR,通過自動化
8、過程它可以正常進行。 由于基于形狀的五官都比較穩(wěn)健的規(guī)?;肼?,光,和姿勢的變化,形狀特征用于在建議的人臉表示主要特征。SFV-FR的方法多數(shù)特征的基礎(chǔ)上,坐標(biāo)由基準(zhǔn)點制成,絕不能在可變形份的面部;因此,他們將能夠容忍(或避免從顯著)患的變化,由于面部表情。的SFV-FR方法使用多個2-D基于視圖三維臉代表性,因為它不是一個簡單的任務(wù),基于當(dāng)前的和廣泛使用的技術(shù),以獲得3-D的臉用于實時視頻監(jiān)控系統(tǒng)的站點信息。因此,有必要建立坐標(biāo)(或引用)的正面和側(cè)面上?;鶞?zhǔn)點(或控制點),用于建立坐標(biāo)都必須是普遍的,從圖像中不易察覺,抗噪能力和光變,和寬容,在一定程度上,要變化面部表情和姿態(tài),以便產(chǎn)生可
9、靠的特點(即特征向量)進行比較的注冊觀察/檢測到的面部。 圖1(a)協(xié)調(diào)和參考點(基線),用于前表面。 (b)協(xié)調(diào)和參考點(基線),用于一個側(cè)面。 1)為前臉參考:為了建立參考為一個正面,需要下列步驟。首先,在檢測到臉部的中心輪廓。第二,中央正面的線是基于該配置文件的位置。第三,它假設(shè)的平均值的控制點的位置面部模型被訓(xùn)練集已知的;因此,初始預(yù)測關(guān)于測試控制點的位置可以是經(jīng)過簡單的中線對齊進行。第四,從搜索基于平均面部的控制點來找到特定的給定的臉要點他們的外形特征。一坐標(biāo)建立基于檢測到的特定的控制對于進一步的特征向量提取和比較點之間的模板,測試圖像。前兩個控制點是對應(yīng)于眼睛的內(nèi)角的各點。坐
10、標(biāo)基線是直線,連接兩個控制點。這條線的長度被定義為基準(zhǔn)一個前表面的長度〔見圖圖1(a)〕。 2)參考側(cè)面人臉:建立的方法,對于一個側(cè)面的引用介紹如下:首先,將側(cè)在檢測到臉部的輪廓。的鼻子的直線定面部被選擇為一個基線。 (如果它不存在,則第一曲線轉(zhuǎn)彎點,并在該點的切線將選定作為基線)。二,直線被發(fā)現(xiàn)是垂直于第一基線和切線與概要文件鼻子的[見圖圖1(b)]作為第二基準(zhǔn)線。距離點是交叉處的第一基底的點之間和第二基線和點是交叉點在第二基線和上面的嘴的輪廓被選擇作為基準(zhǔn)長度為代表的側(cè)面功能[見圖圖1(b)]。另外,該第二交叉點被用于查找的側(cè)面的主要基線。該基地線是一條直線,從該點和切線與起始的側(cè)面
11、[鼻輪廓看到圖1中的黃線。圖1(b)]。根據(jù)這一線,鼻尖,其余控制點,和參考點可以發(fā)現(xiàn)(如在第III節(jié)詳細說明)。 這些控制點是普遍建立(selfextract)參考點建立一個坐標(biāo)(參照圖1),用于注冊和檢測到的圖像之間的特征(矢量)比較。參考點(控制點),很容易被發(fā)現(xiàn)通過從邊緣的突出的幾何特征和面部的輪廓,無需人工操作??刂泣c也是穩(wěn)健噪聲和光線的變化,和亮度變化,面部表情變化和姿態(tài)改變。 圖2.指標(biāo)轉(zhuǎn)換,由于姿態(tài)改變帶來的人臉特征向量變化 基于人臉模型的特征矢量 根據(jù)基準(zhǔn)點(坐標(biāo)),特征矢量是定義,其中包括顯著點,如最大或最低點,或周圍的眼睛,鼻孔的邊緣角落,和面部。當(dāng)然,大多數(shù)
12、的特征點的有在一個面的不可變形部分,以便容忍定義變化臉部表情的。首先,一組距離是特征和之間限定要點,其中標(biāo)有黑點與綠色方形圍繞它,如圖1和2所示,在邊緣成比例的基準(zhǔn)長度為側(cè)面或前面。下巴尖的點不包括生成比率,因為它是在一個面的可變形部分。因為一個面的形狀可以通過角度,來表示其可通過相應(yīng)的距離的比率來表示,和的比例是獨立的標(biāo)度,該比率的值是特征矢量的部分組件。其他主要用于人臉識別的特征矢量的分量是在每一個特征點的切線角之間的差異并在它的基準(zhǔn)點的切線的角度。這意味著臉形的功能可以通過這些角度與代相對于參考基線。其他主要形態(tài)特征在SFV-FR方式臉都是相對的切線角度其特征點位于其邊緣和輪廓。 在每
13、個參考點,一組特征點的設(shè)置上邊緣/簡檔的距離D / N從基準(zhǔn)點其中,d是面的基準(zhǔn)長度,n是限定為確保D / N>3個像素。該SFV-FR方法需要高清晰度圖像以確保人臉表示的精度來區(qū)分不同的面。若圖像分辨率(或清晰度)是足夠高的,每個人臉上都有著自己獨特的形狀。 面容的幾何不變性的證明 在臉姿勢和位置,相對于所述的可變性傳感器,是重要的,因為面出現(xiàn)在不同的非常不同的方向。即使是同樣的面孔完全可以出現(xiàn)不同,在兩個不同的方位。為了解決這個問題后不變形人臉模板被確定為先前推出的,從觀察到的臉部轉(zhuǎn)換特征與模板面部特征通常需要或用臉特征應(yīng)該是不變的方向和位置。 所使用的SFV-FR的特征都必須是不變
14、規(guī)模,平移和旋轉(zhuǎn),并且耐受一定程度噪音腐敗和光線的變化。幾何變換的定義臉特征不變性性質(zhì)被示出為如下: 對任何規(guī)模和平移不變性首先,證明切線角度呈現(xiàn)相對于所述先前定義的坐標(biāo)。在一般情況下,一個面的邊緣和輪廓是一般曲線,這可以表示為[16] 其中,(X,Y)是任意點的面邊緣。它的導(dǎo)數(shù)表示為。 假定切線處的特征的取向點是θ1和切線在基準(zhǔn)方向點是θ0。 θ1和θ0之間的角度差可以是表示為[16] 其中Y?1和Y?0頃的Y在X1和X0點導(dǎo)數(shù)邊緣/ profile文件分別為 后一般曲線縮放和翻譯轉(zhuǎn)型公式Y(jié) = K(Y + a)和X = K(X+ B),根據(jù)新協(xié)調(diào)系統(tǒng)的x和y,曲線可以被表
15、示為 其中,k,a和b是比例因子,Y的位移,x的位移分別并在新的坐標(biāo)。 使用新的坐標(biāo),在相應(yīng)的角(2)是表示為 其中y1和y0頃Y的X1和X0點衍生物邊緣/ profile文件,分別為。 關(guān)于x微分(3)后,左側(cè)的(3)可以被表示為奇,和右側(cè)的(3)可以是表示為KFσ(X)。簡化后,我們得到 代(5)代入(4),(4)等于(2)。它意味著,它們具有相同的角度,即平移和縮放不變性持有。旋轉(zhuǎn)不變性的證明被討論如下: 轉(zhuǎn)換為y =x sinα+ y cosα和X = x cosα?y sinα,(1)可以表示為 x sinα+ y cosα= f(x cosα? y sin
16、α) (6) 其中,α是一個給定的旋轉(zhuǎn)角度。微分后(6)與關(guān)于x,(6)可以表示為 簡化后,Y導(dǎo)可被表示為如下: 在新的坐標(biāo)對應(yīng)的角被表示為 代?在(9)通過(8),(9)可以表示如下: 因此,已經(jīng)證明,(9)實際上是相同的(2),并且它們具有相同的角度,即旋轉(zhuǎn)不變性成立。 其結(jié)果是,所提出的相對切線角度為基礎(chǔ)的面部功能,這代表了一個面的固有形狀,是不變尺度,位置,并且如果一個面部被轉(zhuǎn)動姿勢(在平面)。在3-D空間的轉(zhuǎn)化,這是代表由它的笛卡爾坐標(biāo)(軸),一個功能之間面對在任意方向和位置,而那些的臉標(biāo)準(zhǔn)(模板)的位置和姿勢,包括三平移沿其三個軸和三個旋轉(zhuǎn)它的三個軸
17、。從證明前面提到的,由于相對切線角型臉特征是不變的規(guī)模,平移和旋轉(zhuǎn)(在平面中),所需要的變換被減少到兩個旋轉(zhuǎn)。 為了解決這個問題,在考慮的特征觀察滿臉都是與它的模板不同,因為它們之間的區(qū)別,在其它兩個方向,以下變換應(yīng)用:耳底(功能點耳垂)位置到測試面的底邊(坐標(biāo))能被用于指示該臉姿勢角。為了補償由于差的面上/下轉(zhuǎn)時,偏離(轉(zhuǎn))角度大致由θud=反正切(A/ B),其中A估計是鼻孔和耳朵底部的特征點之間的距離沿中央線坐標(biāo)〔見圖圖1(a)]和B是耳底特征點和鼻尖之間的距離〔見圖圖2(b)]。對于從臉部向左/向右轉(zhuǎn)差,基于高斯透鏡法,該偏離(轉(zhuǎn))角度可以B - 一個| |/((B+可以近似地θrl
18、=反正切(估計A)/2)),其中A是一個眼睛的長度,B是另一個眼睛長度[見黃線所示。圖2(a)]。 因此,對于該系統(tǒng),遠距離焦攝像機強烈建議收購面部圖像,在為了減少來自不同角度的影響考慮到臉部參考姿勢的變化?;诠δ芸梢匀萑掏ㄟ^引入系統(tǒng)錯誤圖像采集和處理,最好是設(shè)置在同一在報名和測試相機內(nèi)部參數(shù)階段。 4、注冊和匹配標(biāo)準(zhǔn) 面在SFV-FR方法登記涉及預(yù)處理步驟,從而使面部區(qū)域被裁剪,噪音抑制被施加,然后在臉部的邊緣和輪廓被檢測到。鼻尖坐標(biāo)用于確定中部地區(qū)種植。 一個新的匹配準(zhǔn)則引入人的分類(識別)?;诿娌刻卣魇噶康妮斎? 的R人分類/識別系統(tǒng)將生成第r符號P1,P2中的一個公關(guān)作
19、為一種輸出,其中用戶解釋作為識別的決定流程。判別函數(shù)D(X)=公關(guān)介紹第(分類)系統(tǒng)的輸入和輸出之間的關(guān)系。它是一個確定性的函數(shù),這意味著該函數(shù)分割特征為R不相交的子集,以及一個模式X將總是被識別為同一人。因此,在的SFV-FR的方法,該相似性度量不是基于相應(yīng)的功能,但需要之間的平均誤差之間的正確匹配考慮總數(shù)面對。如果測試組被定義為一個集合P= {1,2,… ,R},其中由?人,以及相應(yīng)的n個分量的特征矢量被定義為 該特征向量的每個人的元件值(R)測試的人實際上是表示為隨機變量一組,由于姿態(tài),面部表情,噪聲的變化,和測量精度。決策規(guī)則表示為 由(12)中定義的決策規(guī)則意味著必須有特征矢
20、量中的至少一個部件(第k個分量)即任何兩個人之間的不同。因此,該特征矢量的每個測試對象(如,人)是唯一的,并且它可以被用作識別區(qū)分他人的人。決策規(guī)則支持在臉上早期排斥策略匹配在識別階段。 此判定規(guī)則用于確保高識別精度。注冊是至關(guān)重要的,特征值的距離對于不同的人在注冊過程中被選中。為了實現(xiàn)對噪聲引起的變化表現(xiàn)強勁腐敗,帶來的變化,和面部表情,數(shù)對于一個人的特征矢量的分量需要是從在注冊的任何其他人明確分開系統(tǒng)。如果不是這樣,一個新的功能部件具有被引入到的特征向量的人在重新注冊該系統(tǒng)??商娲兀粋€統(tǒng)計模式分類方法[17]可以設(shè)計如下,為了解決中可能存在的鑒定兩種的任何潛在混淆不同的人。有條件的手
21、段和兩個人協(xié)方差完成注冊已知的,并且這些被定義為 在那里率μi被定義為E [X],因為X來自圓周率的人。 可以得到 在和λ1是最大的特征值對P-1Q。因此,最好的方向,也就是說,向量a(即Fisher線性判別式的變化[17]),可用于分離兩個人通過 臉模型具有動態(tài)特征的結(jié)構(gòu)取決于對人要登記的鑒定。多少特征將在識別/識別系統(tǒng)中使用取決于設(shè)計要求,以支持快速匹配識別和可接受的性能。在為了實現(xiàn)在假方面的最佳性能接受率,該特征向量的分量的數(shù)目應(yīng),理想情況下,盡可能地大,只要面部定義和測試的人臉識別系統(tǒng)可以支持它。然而,特征向量可能無法代表唯一一個人,他與別人不同,由于混淆/
22、她在測試的人的有限的圖像分辨率而數(shù)量龐大的人誰是外注冊(培訓(xùn))集。在這樣的情況下,進行統(tǒng)計分析的SFV-FR系統(tǒng)的性能的被提供為如下: 5、SFV-FR技術(shù)統(tǒng)計性能分析 甚至用0%錯誤拒絕率,可能存在的可能性的兩個或更多的人共享相同特征矢量訓(xùn)練集以外的人進行表彰時。這個錯誤接受率可以由以下來估計統(tǒng)計分析: 了簡化分析,我們假定隨機面代表特征向量X =[X1… ,XN] T有獨立組件曦,I =1…時,個人的n和產(chǎn)品X1的概率分布函數(shù)… ,XN,包括所有由臉的組合功能為代表可能的面孔特征矢量,可表示為[16] 在中此外,錯誤接受離散概率如下表示: 其中,[雙,EI]對
23、i =1,2,…中,n為各成分的范圍面部特征向量(隨機變量)兮。式(18)表示的是,如果任何兩個人是隨機的概率從人們所選擇的報名(培訓(xùn))集以外,該兩個人有每個功能的同一區(qū)域。從理論上講,假驗收N個測試人的離散概率外訓(xùn)練集給出如下: 其中S是由(17)中獲得的面部特征矢量空間。因為的更高程度術(shù)語(18)(以上的概率兩個人具有相同的特征向量)收斂速度非常快到零,錯誤接受用于SFV-FR的概率是主要依賴于(18),這是本文的重點,人們?內(nèi)的一些限制。 基于738樣本107人,的特征之一,即,X(它是由兩個眼角和所形成的角1交點中心線,用線連接兩個鼻孔特征點[見圖圖1(a)],其中,反過來,被
24、表示為眼角的距離的比率,并到中央線的兩個交點的距離〔見圖圖1(a)]),進行了調(diào)查。測試結(jié)果示于圖。 3.功能的測試集(即人)在PDF圖。圖3(a)示出了一個相似的高斯密度分布與如圖所示的相同的均值μ和標(biāo)準(zhǔn)偏差σ圖。圖3(b);因此,它可以由一個高斯近似分布其平均值μ和標(biāo)準(zhǔn)偏差σ的值使用測試數(shù)據(jù)集獲得的。 實驗還表明,其它組分面對代表特征矢量具有相似的特性并且也大致與高斯分布該裝置率μi和標(biāo)準(zhǔn)偏差ΣI,I =1,2,… ,N,分別。 圖。3. PDF(a)將測試集的特征X 1和(b)是用相同的標(biāo)準(zhǔn)偏差σ和平均值μ高斯PDF格式。 因此,每個FXI(xi)與它的平均率μi和標(biāo)準(zhǔn)的PDF偏差
25、ΣI可近似表示如下: 離散概率分布函數(shù)的一個子范圍Xi可近似表示為 在中,和是人的臉的平均或最大變化范圍功能兮。在量ΔXi等因素影響測量精度(分辨率測試圖像),面部表情和構(gòu)成,照明條件,和噪聲。平均率μi和標(biāo)準(zhǔn)偏差ΣI依賴于自然屬性的特征的組分(例如,參見圖8)。 因此,SFV-FR系統(tǒng)的錯誤接受能進一步約為取決于: 其中bi和EI被定義為相同于(18)。 BI和EI從注冊(培訓(xùn))建立起來的臉上得到模型的基礎(chǔ)上的特征向量數(shù)據(jù)組(實施例)。 用(21)和(22)的實驗表明,接受假率是獨立的裝置率μi;標(biāo)準(zhǔn)偏差ΣI和Ri(西安到量ΔXi的范圍比)作貢獻到錯誤接受率(例如,參見
26、圖7)。假接受率隨Ri的降低。量ΔXi也測試依賴于測量精度(定義面部圖像)和特征的屬性。習(xí)近平還依賴上的圖像的清晰度。三維人臉數(shù)據(jù)集通常來自rangescanning如激光掃描儀,其中設(shè)備捕獲三維一個面部表面[18]的幾何形狀和紋理信息。該三維臉部識別方法使用曲率計算基于來自旋轉(zhuǎn)得到的范圍內(nèi)的圖像數(shù)據(jù)激光掃描儀。用于從一個實時監(jiān)視測試圖像系統(tǒng),它通常是很難得到它的3-D信息站點。(通常情況下,它需要幾秒鐘的強大掃描器獲得從一個靜止面部此信息)。因此,它是提出來衡量其多視圖2-D的信息來解決問題[19]。此外,該特征矢量為基礎(chǔ)的臉代表結(jié)構(gòu)也支持早期排斥策略期間,在識別階段的臉匹配。這是一個擴展自
27、由形式的彎曲表面中的3-D的概念形狀識別多個2-D視圖人臉識別[20]。用三維掃描方法,多視點的2-D相比人臉圖像都比較容易獲得通過監(jiān)控視頻系統(tǒng)與合作較少的需求確定人。而相比之下,使用[20]所述的曲率值,但是,形狀特征是由功能的角度作出代表在因為在SFV-FR方法點和切線角比例和切線角度不變性,作為證明以前。 三、實驗 面對幾個數(shù)據(jù)集在本次調(diào)查中。該數(shù)據(jù)集,包括麻省理工學(xué)院的一個子集技術(shù)CBCL人臉識別數(shù)據(jù)庫,其中包括10個人,和FRAV3D [21],它是一個人臉數(shù)據(jù)庫有106人。在FRAV3D,被收購所有的人臉圖像在受控的照明條件和不戴眼鏡,帽子,或圍巾。為了測試面部表情的影響,
28、大的變化姿勢,年齡,和照明的性能在SFV-FR系統(tǒng),面部表情數(shù)據(jù)庫(JAFFE)[22]的魯棒性和老齡化人臉數(shù)據(jù)庫FG-NET [23]分別為使用。此外,高清晰度的面部圖像的一個子集是也用在實驗中。該子集包括89個不同的科目,而每個人都有多重的人臉圖像。那里在面部數(shù)據(jù)集的子集輕微姿勢變化左/右和上/下方向。雖然面孔一般中性的,有些科目熊微笑表情。所有的面的幾乎均勻的背景光。但是,面有相當(dāng)不同的尺度。面對裁剪,最大的臉后圖像包含約1 000 000像素,而最小人臉圖像只包含約10 000像素。 圖。4.坐標(biāo)(基準(zhǔn)線),參考點(鼻尖),一些特征
29、點,和特征點切線的側(cè)面。 為了測試該SFV-FR系統(tǒng)的原理為實時應(yīng)用中,四個前臉特征〔見圖圖1(a)]和三個側(cè)面臉特征〔見圖圖1(b)]被選定。該更多的特征部件,性能越好那除具有更多的計算成本來實現(xiàn)。該為測試面部特征矢量,因此限定為X=[X1,X2… ,X 7] T,以便支持快速實時人認可。每個面部特征在此定義。 1)X 1是由眼睛'外角和一個形成的角度中心線的交點〔見圖圖1(a)]。 2)X 2是由眼睛'內(nèi)角和一個形成的角度中心線的交點〔見圖圖1(a)]。 3)X 3是距離的眼內(nèi)之間的比率角向眼外角之間的距離[見圖圖1(a)]。 4)X 4是距離的眼外之間的比邊角的兩個鼻孔功能之間
30、的距離點[見圖圖1(a)]。 5)X5是鼻尖所成的角,耳朵底部特征 點和眼角〔見圖圖1(b)]。 6)X 6是由一個切線所成的角度(參照藍線圖。 4)和其側(cè)基線。 7)X 7是由另一個切線形成的角度(見藍色線圖。 4)和其側(cè)基線。 X6和X7,由一個所產(chǎn)生的切點臉部輪廓和圓,其中心的交叉點在鼻尖和由側(cè)面臉的一小部分產(chǎn)生的其半徑參考長度(參照圖1(b)和4)。特征X3和X4都是比其他的功能,因為他們的臉更可靠的姿勢不變。特征角實際上可以由比率來表示其對應(yīng)的長度(垂直于相鄰的或相反的角度)邊,例如,X 1可以被表示為眼中的“外眼角的距離的距離比中心線和X2的兩個交點之間的可被表示為眼睛'
31、內(nèi)的距離的比率角落的兩個交點之間的距離中心線〔見圖圖1(a)〕。 SFV-FR系統(tǒng)的人臉識別過程包括幾個步驟同時為注冊(登記),并識別(匹配)的進程。面的登記在SFV-FR方法涉及一個預(yù)處理步驟。在預(yù)處理步驟,面部區(qū)域被裁剪和噪聲抑制被施加,之后邊和的輪廓臉部被檢測到。對于不同的功能,不同的邊緣檢測方法或閾值可以在為了檢測使用的特征盡可能準(zhǔn)確的位置。 在實驗中使用的詳細的操作被描述為如下:首先,在輸入人臉圖像的噪聲被抑制邊緣保留去噪過程[24]和/或高斯平滑操作。其次,進行邊緣/輪廓檢測出由第二導(dǎo)數(shù)為基礎(chǔ)的操作具有不同的參數(shù)/閾值不同的功能[25]。第三,在檢測的邊緣/簡檔,多個所需的SF
32、V-FR的控制點和興趣點進行自動提取通過他們的顯著特征,考慮到興趣點是局部極大值或輪廓/邊緣的最低點。例如,中間一行圖像[從圖。圖5(e) - (H)]及圖。圖6(b)示出所檢測到的配置文件和提取基準(zhǔn)線(控制點)從sideface黃線表示圖像。人有不同的鼻子曲線[見底部連續(xù)的圖像從圖。圖5(?。?- (l)和圖6(c)]和每個單獨的具有鮮明鼻形系生物特征[2]。對于提出SFV-FR,鼻輪廓的幾何形狀可以來表示,并且由所述切線萃取/角度表示由藍線的交叉點[見圖。圖6(b)和(c)〕。在從圖圖像。圖5(?。?- (l)和圖6(c)中,坐標(biāo)(參考)表示為黃線線對齊作比較,與每個參考點(噪聲尖)由紫色
33、指示點有綠色邊框。圖。圖6(c)中,每個興趣點是由紫點有綠色邊框表示。對于SFV-FR興趣點/切線提取和所述的準(zhǔn)確度面對測量精度取決于的分辨率面部圖像[參見圖圖6(c)〕,因為更多的像素的面含有的臉形特征越多,細節(jié)可以被提取。 從176人(即982例面部數(shù)據(jù)集)107個人隨機選擇為訓(xùn)練集和剩下的69人進行培訓(xùn)外認證測試。測試組由來自不同年齡的人,并族群。對于身份驗證,假錄取率對于69人的培訓(xùn)外,因為相對設(shè)定0%有限的測試集的大小。因為人內(nèi)的數(shù)注冊/訓(xùn)練集總是有限的,留下了潛在的巨大的境外培訓(xùn)設(shè)置的人,會是怎樣的潛力錯誤接受率測試系統(tǒng)來識別人登記外設(shè)置,使用的問題進行了調(diào)查基于所述第二E所討論
34、的統(tǒng)計分析。 圖。5. SFV-FR提取興趣點的人臉圖像。 (i)-不同分辨率(D)輸入人臉圖像。(vi)-(H)曲線的成果/邊緣檢測。(?。?(L)信息的檢測后的對應(yīng)面部圖像經(jīng)過變焦部分(鼻輪廓)從(e)至(H)],并從輪廓提取的興趣點。 圖。6. SFV-FR提取興趣點和切線/從人臉圖像的角度。 (a輸入面部圖像。輪廓檢測(b)的結(jié)果,所述興趣點,并提取其切線的輪廓。相應(yīng)的人臉圖像(三)縮放部分(鼻輪廓)信息檢測之后(b)和興趣點及其切線提取的輪廓。 人臉表示特征向量之前獲得的。該結(jié)果表示如下: 每個功能曦是為每個測試個體
35、的隨機變量由于構(gòu)成改造,規(guī)模,測量精度(與圖像的分辨率相關(guān)聯(lián)),照明條件,和面部表情;西安每個范圍個體也是不同的彼此因為人們不同的自然的面部特征。基于測試從107培訓(xùn)/注冊人738例中,得到相應(yīng)的隨機特性可變參數(shù)作為ΣI=12.9,12.2,11.1,10.3,11,13.1,10.5,量ΔXi=13,12,11,9,12,14,15,且X= 67,64,55,52,54的范圍內(nèi),58,53,其中i =1,2,… ,7,分別與這些變量主體高斯分布。由(19)和(22),該電勢該系統(tǒng)的錯誤接受率為0.1198%。 如果面部表情數(shù)據(jù)集,如(JAFFE),和面大姿勢的變化進行了測試,錯誤接受率由于
36、升高到低清晰度和增加變異面廣范的每個人。假設(shè)其他因素都是平等的,量ΔXi和錯誤接受之間的關(guān)系率進行了測試,并顯示出如下: 圖7,假設(shè)每個特征的隨機值喜是受其個人范圍內(nèi)均勻分布量ΔXi。它可以觀察到相應(yīng)的錯誤接受率增加的增加量ΔXi的每個人,這取決于臉姿勢,表情,以及照明條件。 部件數(shù)量的用于面部的關(guān)系特征矢量與錯誤接受率還測試在本次調(diào)查。如果只有第一四個分量的測試人臉表示特征向量被使用,假接受率將根據(jù)(19)和(22)為0.54%。該性能變差,雖然計算成本降低。這意味著,該系統(tǒng)的錯誤接受率可以用增加的可靠功能組件可以改善載體。 圖。量ΔXi的尺寸和的錯誤接受率之間的關(guān)系7.所提出的臉
37、部識別系統(tǒng)。 另一個因素,即,標(biāo)準(zhǔn)偏差進一步調(diào)查ΣI為X1的情況下,表示為如下: 圖8,雖然被測試裝置產(chǎn)生的PDF文件(人)具有不同的個體ΔX的,這是2為圖圖8(a)和7所示。 8(b)中,他們沒有表現(xiàn)出顯著差異在它們之間。其結(jié)果是,一個特征的標(biāo)準(zhǔn)偏差ΣI作為特征的一個大的自然屬性是獨立的量ΔXi的變體。 所提出的SFV-FR的性能進行了比較與國家的最先進的技術(shù),稱為人臉識別基上擬合三維形變模型(FRBF-3- DMM),[26]。五十八個科目621圖像從入選上述人臉數(shù)據(jù)庫進行了對比測試。共488圖像選擇用于訓(xùn)練,其余圖像被用于測試。性能示于表I中SFV-FR表現(xiàn)出比更好臉部識別性能FR
38、BF-3-DMM。 為了進一步評價所提出的SFV-FR,則其他先進國家的技術(shù)也與比較SFV-FR采用大眾臉數(shù)據(jù)庫FG-NET[23]。 Seventyone受試者的6-60年齡范圍從入選在FG-NET,并為每個主題所選擇的圖像進行分為兩組。一組進行訓(xùn)練,并且另一組是用于測試。測試結(jié)果示于表Ⅱ。由于年齡的非常大的變化,姿勢,和照明;低分辨率;和閉塞,只有有限該特征矢量的分量是可用于圖像;SFV-FR的識別率也下降了。然而,該SFV-FR仍表現(xiàn)出比其他指標(biāo)更好的性能技術(shù)。在本文中所描述的實驗是僅用于說明 建議SFV-FR系統(tǒng)的原理。如果有更多的多視點2-D面部基準(zhǔn)模板設(shè)立登記時,從顯著姿勢變化
39、減少測量誤差,在SFV-FR系統(tǒng)的錯誤接受率有望完善。此外,更多的特征的組件,可以選擇通過在面部和切線角的要點從突出/特征點,這是不可變形面對式(行)(參見圖4-6),以提高其性能時,最有可能的,額外的計算成本。 SFV-FR的優(yōu)點是,它需要很少或沒有從受試者的容貌進行了自動化合作識別過程。它適用于應(yīng)用,如定制和邊境保護服務(wù),安全和限制區(qū)檢查點等,其中,當(dāng)人們都在等待中一定區(qū)域內(nèi)或者通過登機或到達通道走機場碼頭,自己的臉拍攝照片幾個相機從不同的角度。然而,性能的SFV-FR高度依賴于相機的分辨率,其性能降低因遮擋,如眼鏡或毛發(fā)覆蓋面的一部分。在SFV-FR的另一個限制是,有可能對所提出的某些
40、內(nèi)容的變化注冊的生命期內(nèi),人臉特征向量人。 該SFV-FR的方法提供了一種替代的框架整合其他可靠的人臉特征表示從國家的最先進的臉部識別技術(shù),技術(shù)如果不需要一個人臉識別嚴格的響應(yīng)時間系統(tǒng)。 四、結(jié)論 在本文中,基于國家的最先進的技術(shù),人臉 識別,可靠的人臉自動識別方法有被引入。首先,基于形狀的自我抽出用參照坐標(biāo)已被提議作為框架?;诨鶞?zhǔn)(坐標(biāo)),一種新型的面部特征向量具有被定義為臉上的代表性和鑒定。該面部特征向量的新穎的部分是它的功能角度和特征點切線角為基礎(chǔ)的人臉表示。該理想的規(guī)模,翻譯和面部的旋轉(zhuǎn)不變性功能,功能的角度,和特征點切線的角度,有利用本文這張臉代表得到證實。該不變五官能
41、耐受,在一定程度上的變化人臉姿態(tài)和表情。在SFV-FR方法的明顯優(yōu)勢是,它避免了耗時的蠻力-搜索算法之類招生的圖像對齊圖像和測試圖像中的后續(xù)面部對照操作,這是通常使用的現(xiàn)有狀態(tài)ofthe-藝術(shù)人臉識別算法。的另一個優(yōu)點面對提出的代表性和提取的是,它支持早期的排斥反應(yīng)。其結(jié)果是,它有一個潛在的應(yīng)用實時視頻監(jiān)視系統(tǒng)。 SFV-FR系統(tǒng)表現(xiàn)出有前途的性能通過對幾個標(biāo)準(zhǔn)人臉數(shù)據(jù)集實驗。一這種面部識別模型的貢獻在于,它提供了統(tǒng)計分析,以提供一個理論解釋如何識別系統(tǒng)的性能依賴于特征屬性(例如其PDF的標(biāo)準(zhǔn)偏差),測量精度(先決條件獲得的一個高精度高的圖像分辨率),臉姿勢和表達,照明條件,和噪聲。因此,基
42、于分析(它們之間的關(guān)系),它提供了一個可靠的方法來設(shè)計一個實用的人臉識別系統(tǒng),以滿足他們的特殊要求。這種方法還提供了一種替代框架,國家的最先進的其他可靠的人臉表示技術(shù)整合到一個可靠的(穩(wěn)?。?,實用多生物統(tǒng)計識別系統(tǒng)。 圖8.從PDF文件相同的測試的人用不同的ΔX的顯示出類似的標(biāo)準(zhǔn)偏差。 (一)與PDF作為σ10.75。 (二)與PDF作為σ11.16。 表一,比較SFV-FR與FRBF-3-DMM適合面部識別 表二,比較方法進行人臉識別 致謝 筆者想感謝麻省理工學(xué)院技術(shù)中心生物和計算的學(xué)習(xí)用于提供面部圖像數(shù)據(jù)庫,并的人臉識別和人工視覺組(FRAV)胡安·卡洛斯國王
43、大學(xué)提供的FRAV3D的臉數(shù)據(jù)庫。 參考 [1] A. K. Jain, A. Ross, and S. Prabhakar, “An introduction to biometric recognition,” IEEE Trans. Circuits Syst. Video Technol., vol. 14, no. 1, pp. 4–20, Jan. 2004. [2] W. Zhao, R. Chellappa, P. J. Phillips, and A. Rosenfeld, “Face recognition: A literature survey,” AC
44、M Comput. Surv., vol. 35, no. 4, pp. 399–458,Dec. 2003. [3] M. Turk and A. Pentland, “Eigenfaces for recognition,” J. Cogn.Neurosci., vol. 3, no. 1, pp. 71–86, 1991. [4] P. Belhumeur, J. Hespanha, and D. Kriegman, “Eigenfaces vs. Fisherfaces:Recognition using class specific linear projection,” IEE
45、E Trans. PatternAnal. Mach. Intell., vol. 19, no. 7, pp. 711–720, Jul. 1997. [5] H. Sellahewa and S. A. Jassim,“Image-quality-based adaptive face recognition,” IEEE Trans. Instrum. Meas., vol. 59, no. 4, pp. 805–813,Apr. 2010. [6] A. S. Mian and M. Bennamoun, “Keypoint detection and local featurem
46、atching for textured 3D face recognition,” Int. J. Comput. Vis., vol. 65, no. 1, pp. 63–85, 2007. [7] A. S. Mian, M. Bennamoun, and R. A. Owens, “An efficient multimodal2D–3D hybrid approach to automatic face recognition,” IEEE Trans.Pattern Anal. Mach. Intell., vol. 29, no. 11, pp. 1927–1943, Nov
47、. 2007. [8] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” in Proc. IEEE Conf. Comput. Vis. Pattern Recog., 2001,pp. 511–518. [9] S. J. D. Prince, J. H. Elder, J. Warrell, and F. M. Felisberti, “Tied factor analysis for face recognition across large pos
48、e differences,” IEEE Trans.Pattern Anal. Mach. Intell., vol. 30, no. 6, pp. 970–984, Jun. 2008. [10] J. Huang, B. Heisele, and V. Blanz,“Component-based face recognition with 3D morphable models,” in Proc. Int. Conf. Audio Video-Based Biometric Person Authentication, 2003, pp. 27–34. [11] K. W. Bo
49、wyer, K. Chang, and P. Flynn, “A survey of approaches andchallenges in 3D and multi-modal 3D +2D face recognition,” Comput. Vis. Image Understand., vol. 101, no. 1, pp. 1–15, Jan. 2006. [12] G. Gokberk, A. Salah, and L. Akarun, “Rank-based decision fusion for 3D shape-based face recognition,” in P
50、roc. Int. Conf. AudioVideo-Based Biometric Person Authentication, 2005, pp. 1019–1028. [13] P. J. Besl and N. D. McKay, “A method for registration of 3-D shapes,”IEEE Trans. Pattern Anal. Mach. Intell., vol. 14, no. 2, pp. 239–256, Feb. 1992. [14] X. Lu, A. K. Jain, and D. Colbry, “Matching 2.5D
51、scans to 3D models,”IEEE Trans. Pattern Anal. Mach. Intell., vol. 28, no. 1, pp. 31–43, Jan. 2006. [15] C. D. Castillo and D. W. Jacobs, “Using stereo matching with general epipolar geometry for 2D face recognition across pose,” IEEE Trans.Pattern Anal. Mach. Intell., vol. 31, no. 12, pp. 2298–230
52、4, Dec. 2009. [16] I. N. Bronshtein, K. A. Semendyayev, G. Musiol, and H. Muehing,Handbook of Mathematics, 5th ed. New York: Springer-Verlag,2007. [17] H. Stark and J. W. Woods, Probability and Random Processes WithApplications to Signal Processing, 3rd ed. Englewood Cliffs, NJ:Prentice-Hall, 2002
53、. [18] C. Beumier and M. Acheroy, “Automatic 3D face authentication,” ImageVis. Comput., vol. 18, no. 4, pp. 315–321, Mar. 2000. [19] B.Weyrauch, J. Huang, B. Heisele, and V. Blanz, “Component-based face recognition with 3D morphable models,” in Proc. 1st IEEE Workshop Face Process. Video, Washin
54、gton, DC, 2004, p. 85. [20] C. Beumier and M. Acheroy, “Face verification from 3D and grey level cues,” Pattern Recognit. Lett., vol. 22, no. 12, pp. 1321–1329, Oct. 2001. [21] C. Conde, A. Serrano, and E. Cabello, “Multimodal 2D, 2.5D, and 3D face verification,” in Proc. IEEE ICIP, Atlanta, GA, 2
55、006,pp. 2061–2064. [22] M. J. Lyons, S. Akamatsu, M. Kamachi, and J. Gyoba, “Coding facial expressions with Gabor wavelets,” in Proc. 3rd IEEE Int. Conf. Autom. Face Gesture Recog., Nara, Japan, 1998, pp. 200–205. [23] FG-NET Aging Database, 2010. [Online]. Available: http://www.fgnet. [24] Z.
56、Xu, H. R. Wu, B. Qiu, and X. Yu, “Geometric features based filtering for suppression of impulse noise in color images,” IEEE Trans. Image Process., vol. 18, no. 8, pp. 1742–1759, Aug. 2009. [25] Z. Xu, D. Toncich, and H. R.Wu, “Vision-based high accuracy work piece inspection from profile,” Mach
57、. Graph. Vis., vol. 10, no. 2, pp. 155–174, 2001. [26] V. Blanz and T. Vetter, “Face recognition based on fitting a 3D morphable model,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 25, no. 9, pp. 1063– 1074, Sep. 2003. [27] X. Geng, Z.-H. Zhou, and K. Smith-Miles, “Automatic age estimation based on facial aging patterns,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 29, no. 7, pp. 2234–2240, Dec. 2007. [28] U. Park, Y. Tong, and A. K. Jain, “Age-invariant face recognition,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 32, no. 5, pp. 747–954, May 2010.
- 溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。