中科院-模式識別考題總結(jié)(詳細答案).doc
《中科院-模式識別考題總結(jié)(詳細答案).doc》由會員分享,可在線閱讀,更多相關(guān)《中科院-模式識別考題總結(jié)(詳細答案).doc(11頁珍藏版)》請在裝配圖網(wǎng)上搜索。
1. 簡述模式的概念及其直觀特性,模式識別的分類,有哪幾種方法。(6’) 答(1):什么是模式?廣義地說,存在于時間和空間中可觀察的物體,如果我們可以區(qū)別它們是否相同或是否相似,都可以稱之為模式。 模式所指的不是事物本身,而是從事物獲得的信息,因此,模式往往表現(xiàn)為具有時間和空間分布的信息。 模式的直觀特性:可觀察性;可區(qū)分性;相似性。 答(2):模式識別的分類: 假說的兩種獲得方法(模式識別進行學(xué)習(xí)的兩種方法): l 監(jiān)督學(xué)習(xí)、概念驅(qū)動或歸納假說; l 非監(jiān)督學(xué)習(xí)、數(shù)據(jù)驅(qū)動或演繹假說。 模式分類的主要方法: l 數(shù)據(jù)聚類:用某種相似性度量的方法將原始數(shù)據(jù)組織成有意義的和有用的各種數(shù)據(jù)集。是一種非監(jiān)督學(xué)習(xí)的方法,解決方案是數(shù)據(jù)驅(qū)動的。 l 統(tǒng)計分類:基于概率統(tǒng)計模型得到各類別的特征向量的分布,以取得分類的方法。特征向量分布的獲得是基于一個類別已知的訓(xùn)練樣本集。是一種監(jiān)督分類的方法,分類器是概念驅(qū)動的。 l 結(jié)構(gòu)模式識別:該方法通過考慮識別對象的各部分之間的聯(lián)系來達到識別分類的目的。(句法模式識別) l 神經(jīng)網(wǎng)絡(luò):由一系列互相聯(lián)系的、相同的單元(神經(jīng)元)組成。相互間的聯(lián)系可以在不同的神經(jīng)元之間傳遞增強或抑制信號。增強或抑制是通過調(diào)整神經(jīng)元相互間聯(lián)系的權(quán)重系數(shù)來(weight)實現(xiàn)。神經(jīng)網(wǎng)絡(luò)可以實現(xiàn)監(jiān)督和非監(jiān)督學(xué)習(xí)條件下的分類。 2. 什么是神經(jīng)網(wǎng)絡(luò)?有什么主要特點?選擇神經(jīng)網(wǎng)絡(luò)模式應(yīng)該考慮什么因素?(8’) 答(1):所謂人工神經(jīng)網(wǎng)絡(luò)就是基于模仿生物大腦的結(jié)構(gòu)和功能而構(gòu)成的一種信息處理系統(tǒng)(計算機)。由于我們建立的信息處理系統(tǒng)實際上是模仿生理神經(jīng)網(wǎng)絡(luò),因此稱它為人工神經(jīng)網(wǎng)絡(luò)。這種網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜程度,通過調(diào)整內(nèi)部大量節(jié)點之間相互連接的關(guān)系,從而達到處理信息的目的。 人工神經(jīng)網(wǎng)絡(luò)的兩種操作過程:訓(xùn)練學(xué)習(xí)、正常操作(回憶操作)。 答(2):人工神經(jīng)網(wǎng)絡(luò)的特點: l 固有的并行結(jié)構(gòu)和并行處理; l 知識的分布存儲; l 有較強的容錯性; l 有一定的自適應(yīng)性; 人工神經(jīng)網(wǎng)絡(luò)的局限性: l 人工神經(jīng)網(wǎng)絡(luò)不適于高精度的計算; l 人工神經(jīng)網(wǎng)絡(luò)不適于做類似順序計數(shù)的工作; l 人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和訓(xùn)練往往是一個艱難的過程; l 人工神經(jīng)網(wǎng)絡(luò)必須克服時間域順序處理方面的困難; l 硬件限制; l 正確的訓(xùn)練數(shù)據(jù)的收集。 答(3):選取人工神經(jīng)網(wǎng)絡(luò)模型,要基于應(yīng)用的要求和人工神經(jīng)網(wǎng)絡(luò)模型的能力間的匹配,主要考慮因素包括: l 網(wǎng)絡(luò)大?。? l 所需輸出類型; l 聯(lián)想記憶類型; l 訓(xùn)練方法; l 時間的限定。 3. 畫出句法模式識別的框圖,并解釋其工作原理。(8’) 答(1):句法模式識別框圖如下: 答(2):句法模式識別系統(tǒng)的組成:圖像預(yù)處理,圖像分割,基元及其關(guān)系識別,句法分析。 基于描述模式的結(jié)構(gòu)信息,用形式語言中的規(guī)則進行分類,可以更典型地應(yīng)用于景物圖片的分析。 因為在這類問題中,所研究的模式通常十分復(fù)雜,需要的特征也很多,僅用數(shù)值上的特征不足以反映它們的類別。 句法模式識別系統(tǒng)處理過程:基元本身包含的結(jié)構(gòu)信息已不多,僅需少量特征即可識別。如果用有限個字符代表不同的基元,則由基元按一定結(jié)構(gòu)關(guān)系組成的子圖或圖形可以用一個有序的字符串來代表。假如事先用形式語言的規(guī)則從字符串中推斷出能生成它的文法,則可以通過句法分析,按給定的句法(文法)來辨識由基元字符組成的句子,從而判別它是否屬于由該給定文法所能描述的模式類,達到分類的目的。 4. (1)解釋線性判別函數(shù)進行模式分類的概念;(2)既然有了線性判別函數(shù),為什么還要用非線性判別函數(shù)進行模式分類?(3)兩類模式,每類包括5個3維不同的模式,且良好分布。如果它們是線性可分的,問權(quán)向量至少需要幾個系數(shù)分量?假如要建立二次的多項式判別函數(shù),又至少需要幾個系數(shù)分量?(設(shè)模式的良好分布不因模式變化而改變。)(8’) 答(1):模式識別系統(tǒng)的主要作用是判別各個模式所屬的類別。線性判別函數(shù)分類就是使用線性判別函數(shù)將多類樣本模式分開。 一個n維線性判別函數(shù)的一般形式: 其中稱為權(quán)向量(或參數(shù)向量),。 也可表示為: 其中,稱為增廣模式向量,稱為增廣權(quán)向量。 兩類情況:判別函數(shù): 多類情況:設(shè)模式可分成共M類,則有三種劃分方法: l 多類情況1 用線性判別函數(shù)將屬于類的模式與不屬于類的模式分開,其判別函數(shù)為: 這種情況稱為兩分法,即把M類多類問題分成M個兩類問題,因此共有M個判別函數(shù),對應(yīng)的判別函數(shù)的權(quán)向量為。 l 多類情況2 采用每對劃分,即兩分法,此時一個判別界面只能分開兩種類別,但不能把它與其余所有的界面分開。 其判別函數(shù)為:若,,則 重要性質(zhì): 要分開M類模式,共需M(M-1)/2個判別函數(shù)。 不確定區(qū)域:若所有,找不到,的情況。 l 多類情況3(多類情況2的特例) 這是沒有不確定區(qū)域的兩分法。假若多類情況2中的可分解成:,則相當(dāng)于,。這時不存在不確定區(qū)域。此時,對M類情況應(yīng)有M個判別函數(shù): 即,,,則,也可寫成,若,則。 該分類的特點是把M類情況分成M-1個兩類問題。 模式分類若可用任一個線性函數(shù)來劃分,則這些模式就稱為線性可分的,否則就是非線性可分的。一旦線性函數(shù)的系數(shù)wk被確定,這些函數(shù)就可用作模式分類的基礎(chǔ)。 對于M類模式的分類,多類情況1需要M個判別函數(shù),而多類情況2需要M*(M-1)/2個判別函數(shù),當(dāng)M較大時,后者需要更多的判別式(這是多類情況2的一個缺點)。 采用多類情況1時,每一個判別函數(shù)都要把一種類別的模式與其余M-1種類別的模式分開,而不是將一種類別的模式僅與另一種類別的模式分開。 由于一種模式的分布要比M-1種模式的分布更為聚集,因此多類情況2對模式是線性可分的可能性比多類情況1更大一些(這是多類情況2的一個優(yōu)點)。 答(2)廣義線性判別函數(shù)出發(fā)點: l 線性判別函數(shù)簡單,容易實現(xiàn); l 非線性判別函數(shù)復(fù)雜,不容易實現(xiàn); l 若能將非線性判別函數(shù)轉(zhuǎn)換為線性判別函數(shù),則有利于模式分類的實現(xiàn)。 采用廣義線性判別函數(shù)的概念,可以通過增加維數(shù)來得到線性判別,但維數(shù)的大量增加會使在低維空間里在解析和計算上行得通的方法在高維空間遇到困難,增加計算的復(fù)雜性。所以某些情況下使用非線性判別函數(shù)或分段線性判別函數(shù)效果更好。 解(3)假設(shè)該兩類模式是線性可分的,則在三維空間中一個線性平面可以將這兩類模式分開,所以判別函數(shù)可以寫成: 所以權(quán)向量需要4個系數(shù)。 對于n維x向量,采用r次多項式,d(x)的權(quán)系數(shù)w的項數(shù)為: 當(dāng)r=2,n=3時, 所以,此時權(quán)向量需要10個系數(shù)分量。 5. 設(shè)一有限態(tài)自動機,定義如下: 試求等價的正則文法,使得L(G)=T(A)。(10’) 解:設(shè)由A得一正則文法,則,, 由,得生成式 由,得生成式 由,得生成式 由,得生成式 由,得生成式 由,得生成式 對比實例:當(dāng)掃描字符串1110時,A按以下狀態(tài)序列接受該字符串 用對應(yīng)的正則文法G推導(dǎo),得: l 按有限態(tài)自動機確定正則文法 給定一個有限態(tài)自動機,可確定一個正則文法,使得L(G) = T(A)。 由 ,可確定:,,,。 從求G中的生成式P可按如下原則: (1) 若,則 (2) 若,則 6. K-均值算法聚類:K=2,初始聚類中心為,數(shù)據(jù)為:(10’) 算法: 第一步:選個初始聚類中心,,其中括號內(nèi)的序號為尋找聚類中心的迭代運算的次序號。可選開始的 個模式樣本的向量值作為初始聚類中心。 第二步:逐個將需分類的模式樣本按最小距離準(zhǔn)則分配給個聚類中心中的某一個。即,則,其中 為迭代運算的次序號,第一次迭代,表示第個聚類,其聚類中心為。 第三步:計算各個聚類中心的新的向量值, 求各聚類域中所包含樣本的均值向量: 其中為第個聚類域中所包含的樣本個數(shù)。以均值向量作為新的聚類中心,可使如下聚類準(zhǔn)則函數(shù)最?。? 在這一步中要分別計算K個聚類中的樣本均值向量,所以稱之為K-均值算法。 第四步:若,則返回第二步,將模式樣本逐個重新分類,重復(fù)迭代運算; 若,則算法收斂,計算結(jié)束。 7. 給出兩類模式分布,每一列代表一個樣本: : : 試用K-L變換來做一維特征的提?。?2’)。 解:首先將所有樣本看作一個整體,求出樣本均值向量: 由于均值為0,符合K-L變換的最佳條件。如果均值不為0,則所有樣本要減去均值向量。由于和的樣本數(shù)相同,所以認為他們的先驗概率相同,即: 求出總體的自相關(guān)矩陣或協(xié)方差矩陣: 解特征方程,求出的特征值: 求出對應(yīng)于特征值的特征向量: 選取對應(yīng)的特征向量作為變換矩陣,由得出變換后的一維模式: : : 8. 用第二類勢函數(shù)的算法進行分類(10’) 選擇指數(shù)型勢函數(shù),取α=1,在二維情況下勢函數(shù)為: 這里:ω1類為x①=(0 0)T, x②=(2 0)T;ω2類為x③=(1 1)T, x④=(1 -1)T 解:可以看出,這兩類模式是線性不可分的。算法步驟如下: 第一步:取 ,則 第二步:取 因, 故 第三步:取 因, 故 …… 后面同理,就是不斷將樣本帶入,如果分類正確,則勢函數(shù)保持不變,即: 如果分類錯誤,則有兩種情況: l ,則 l ,則 經(jīng)過迭代,全部模式都已正確分類,因此算法收斂于判別函數(shù)。 得出: 9. 有一種病,正常為 ,不正常為 ,已知: 現(xiàn)對某人進行檢查,結(jié)果為,由概率曲線查出: 風(fēng)險代價矩陣為: 對該檢查者進行判決: (1) 用貝葉斯最小錯誤概率判別,求出判決函數(shù)和決策分界面。 (2) 用貝葉斯最小風(fēng)險判別,求出判別函數(shù)和決策分界面。 解(1): 由于 所以。 解(2): 由于 所以。 10. 闡述誤差反傳算法(BP算法)的原理,并寫出其訓(xùn)練步驟。 答(1): l BP算法推算過程: 當(dāng)加入第k個輸入時,隱蔽層h結(jié)點的輸入加權(quán)和為: 如果令第一層的加權(quán)矩陣為 ,則還可以表示為: 相應(yīng)節(jié)點的輸出為: 寫成矩陣形式為: 同樣,輸出層j結(jié)點的輸入加權(quán)和為: 令第二次的加權(quán)矩陣為,則可以寫成: 相應(yīng)點的輸出: 寫成矩陣形式為: 這里,各結(jié)點的閾值等效為一個連接的加權(quán)或,這些連接由各結(jié)點連到具有固定值-1的偏置結(jié)點,其連接加權(quán)也是可調(diào)的,同其它加權(quán)一樣參與調(diào)節(jié)過程。 誤差函數(shù)為: 為了使誤差函數(shù)最小,用梯度下降法求得最優(yōu)的加權(quán),權(quán)值先從輸出層開始修正,然后依次修正前層權(quán)值,因此含有反傳的含義。根據(jù)梯度下降法,由隱蔽層到輸出層的連接的加權(quán)調(diào)節(jié)量為: 其中為輸出結(jié)點的誤差信號: 在BP算法中常采用Sigmoid函數(shù): 其導(dǎo)數(shù)為: 對應(yīng)的誤差為: 對于輸入層到隱蔽層結(jié)點連接的加權(quán)修正量,必須考慮將對求導(dǎo),因此利用分層鏈路法,有: 其中: 這樣就可以根據(jù)和分別調(diào)整輸出層和隱層的權(quán)值了。 l BP訓(xùn)練算法實現(xiàn)步驟 準(zhǔn)備:設(shè)網(wǎng)絡(luò)具有m層,表示第m層中第j個結(jié)點的輸出,(零層輸出)等于,即第j個輸入。表示從到的連接加權(quán)。這里,m代表層號,而不是向量的類號。 1.(初始化加權(quán)矩陣)將各加權(quán)隨機置為小的隨機數(shù)??捎镁鶆蚍植嫉碾S機數(shù),以保證網(wǎng)絡(luò)不被大的加權(quán)值所飽和。 2.(輸入數(shù)據(jù))從訓(xùn)練數(shù)據(jù)組中選一數(shù)據(jù)對,將輸入向量加到輸入層(m=0),使得對所有端點i:,k表示向量類號。 3.(輸出預(yù)測數(shù)據(jù))信號通過網(wǎng)絡(luò)向前傳播,即利用關(guān)系式: 計算從第一層開始的各層內(nèi)每個結(jié)點i的輸出,直到輸出層的每個結(jié)點的輸出計算完為止。 4.(計算輸出層誤差)計算輸出層每個結(jié)點的誤差值,對Sigmod函數(shù): 它是由實際輸出和要求目標(biāo)值之差獲得。 5.(誤差反傳)計算前面各層各結(jié)點的誤差值 這里逐層計算反傳誤差,直到將每層內(nèi)每個結(jié)點的誤差值算出為止。 6.(修改權(quán)值)利用加權(quán)修正公式: 修正所有連接權(quán)。一般,稱為訓(xùn)練速率系數(shù)。 7.(運算至權(quán)值收斂)返回第2步,為下一個輸入向量重復(fù)上述步驟,直至網(wǎng)絡(luò)收斂。- 1.請仔細閱讀文檔,確保文檔完整性,對于不預(yù)覽、不比對內(nèi)容而直接下載帶來的問題本站不予受理。
- 2.下載的文檔,不會出現(xiàn)我們的網(wǎng)址水印。
- 3、該文檔所得收入(下載+內(nèi)容+預(yù)覽)歸上傳者、原創(chuàng)作者;如果您是本文檔原作者,請點此認領(lǐng)!既往收益都歸您。
下載文檔到電腦,查找使用更方便
9.9 積分
下載 |
- 配套講稿:
如PPT文件的首頁顯示word圖標(biāo),表示該PPT已包含配套word講稿。雙擊word圖標(biāo)可打開word文檔。
- 特殊限制:
部分文檔作品中含有的國旗、國徽等圖片,僅作為作品整體效果示例展示,禁止商用。設(shè)計者僅對作品中獨創(chuàng)性部分享有著作權(quán)。
- 關(guān) 鍵 詞:
- 中科院 模式識別 考題 總結(jié) 詳細 答案
鏈接地址:http://m.appdesigncorp.com/p-6523495.html