中國科學院大學2012年《機器學習》試卷及其答案

上傳人:小** 文檔編號:49533035 上傳時間:2022-01-18 格式:DOC 頁數(shù):5 大?。?26.50KB
收藏 版權(quán)申訴 舉報 下載
中國科學院大學2012年《機器學習》試卷及其答案_第1頁
第1頁 / 共5頁
中國科學院大學2012年《機器學習》試卷及其答案_第2頁
第2頁 / 共5頁
中國科學院大學2012年《機器學習》試卷及其答案_第3頁
第3頁 / 共5頁

下載文檔到電腦,查找使用更方便

15 積分

下載資源

還剩頁未讀,繼續(xù)閱讀

資源描述:

《中國科學院大學2012年《機器學習》試卷及其答案》由會員分享,可在線閱讀,更多相關(guān)《中國科學院大學2012年《機器學習》試卷及其答案(5頁珍藏版)》請在裝配圖網(wǎng)上搜索。

1、中國科學院大學 20139310班 中國科學院大學2012年《機器學習》試卷及其答案 任課教師:卿來云 一、基礎(chǔ)題(共36分) 1、 請描述極大似然估計 MLE和最大后驗估計 MAP之間的區(qū)別。請解釋為什么 MLE比MAP 更容易過擬合。(10分) MLE :取似然函數(shù)最大時的參數(shù)值為該參數(shù)的估計值, ymie=argmax[p(x|y)] ; MAP :取后驗 函數(shù)(似然與先驗之積)最大時的參數(shù)值為該參數(shù)的估計值, ymap=argmax[p(x|y)p(y)]。因為 MLE只考慮訓(xùn)練數(shù)據(jù)擬合程度沒有考慮先驗知識,把錯誤點也加入模型中,導(dǎo)致過擬合。 2、 在年度百花獎評獎

2、揭曉之前, 一位教授問80個電影系的學生,誰將分別獲得8個獎項(如 最佳導(dǎo)演、最佳男女主角等)。評獎結(jié)果揭曉后,該教授計算每個學生的猜中率,同時也計 算了所有80個學生投票的結(jié)果。他發(fā)現(xiàn)所有人投票結(jié)果幾乎比任何一個學生的結(jié)果正確率 都高。這種提高是偶然的嗎?請解釋原因。( 10分) 設(shè)x為第i個學生的猜中率(要么 0要么1) x~Ber( 0 ),E(x)= 0 ,V(x)= 0 (1- 0 ) mean(x)~N( 0 , 0 (1- 0 )/N),E(mean(x))= 0 ,V(mean(x))= 0 (1- 0 )/N

3、隨機變量,y為待預(yù)測的二值變量。 A c y 0 1 0 4 ] 4 1 a 0 9 9 g I 1 1 1 t J 1 0 0 1 i a 6 1 ⑻ 對一個新的輸入 A=0, B=0, C=1 ,樸素貝葉斯分類器將會怎樣預(yù)測 y?( 10分) y~Ber( 0 ) p(y=0)=3/7,p(y=1)=4/7 p(y=0|A=0B=0C=1) x p(y=0)*p(A=0|y=0)*p(B=0|y=0)*p(C=1|y=0)=3/7*2/3*1/3*1/3=2/63 p(y=1|A=0B=0C=1) x p(y=

4、1)*p(A=0|y=1)*p(B=0|y=1)*p(C=1|y=1)=4/7*1/4*2/4*2/4=1/28 ,因此 屬于y=1類 (b)假設(shè)你知道在給定類別的情況下 A、B、C是獨立的隨機變量,那么其他分類器(如Logstic 回歸、SVM分類器等)會比樸素貝葉斯分類器表現(xiàn)更好嗎?為什么?(注意:與上面給的 數(shù)據(jù)集沒有關(guān)系。)(6分) 不會。因為已知獨立同分布的前提下 NBC只用3個參數(shù),不用NBC貝U需要23-1=7個參數(shù)。 若不獨立,則其他基于數(shù)據(jù)本身的判別式分類器效果較好。 二、回歸問題。(共 24分) 現(xiàn)有N個訓(xùn)練樣本的數(shù)據(jù)集 D={(xi,yi)},其中xi,yi

5、為實數(shù)。 1. 我們首先用線性回歸擬合數(shù)據(jù)。 為了測試我們的線性回歸模型, 我們隨機選擇一些樣本 作為訓(xùn)練樣本,剩余樣本作為測試樣本?,F(xiàn)在我們慢慢增加訓(xùn)練樣本的數(shù)目, 那么隨著訓(xùn)練 樣本數(shù)目的增加,平均訓(xùn)練誤差和平均測試誤差將會如何變化?為什么?( 6分) 平均訓(xùn)練誤差:A、增加 B、減小 平均測試誤差:A、增加 B、減小 因為當訓(xùn)練樣本增多時,模型參數(shù)發(fā)生改變以擬合新增的樣本, 因而使得模型原先的擬合程 度下降,平均訓(xùn)練誤差增加;而訓(xùn)練樣本增多,模型越接近真實的分布,因而使得平均測試 誤差減小。 2. 給定如下圖(a)所示數(shù)據(jù)。粗略看來這些數(shù)據(jù)不適合用線性回歸模型表示。因此我們

6、采 用如下模型斗?岡卜即7 其中八耳QJ)。假設(shè)我們采用極大似然估計 w,請給出log 似然函數(shù)并給出 w的估計。(8分) 4 - A f 嚴八.... V *7 ¥4 k ij| nd g p(yi|w,xi)~N(exp(wxi),1) L(w)=logp(y|w,x)=-0.5* 工(yi-exp(wx)) 令 g(w)=工[(yi-exp(wxi))*exp(wxi)*xi]=0 求得 w 3. 給定如下圖(b)所示的數(shù)據(jù)。從圖中我們可以看出該數(shù)據(jù)集有一些噪聲,請設(shè)計一個對 噪聲魯棒的線性回歸模型,并簡要分析該模型為什么能對噪聲魯棒。( 10分) 如圖離群點較多

7、(heavy tail),使用魯棒線性回歸模型: y=wTx+ & ~Laplace(vifx,b) 因為當 y 服從拉式分布時 L( 0 )=logp(D|X,w,b)=工 logLap(yi|Txi,b)=-N*log(2b)- 才剛血,其 損失為殘差絕對值和,對離群點不敏感; 而當y服從正態(tài)分布時, L( 0 )=logp(D|X,w,b)= 工 logN(yi|w>-(N/2)*log(2 2)-冕(yi-Jxi)2/2 % 其損失為殘差平方和, 放大了誤差,對離群點敏感。因此使用 Laplace(或Student)線性回歸模型能對噪聲魯棒。 三、SVM分類。(第1~5題各

8、4分,第6題5分,共25分) 下圖為采用不同核函數(shù)或不同的松弛因子得到的 SVM決策邊界。但粗心的實驗者忘記記錄 每個圖形對應(yīng)的模型和參數(shù)了。請你幫忙給下面每個模型標出正確的圖形。 Ihf-eix * A 1 ■ * ■ ■ ? A ■ '■ 1 ■ >■ i '■ -i * *、、 ■■ ? 墓沖上旦巧?cip -|i-r| |* 答:1.c 2.b 3.d 4.a 5.e 6、考慮帶松弛因子的線性 SVM分類器: it-7.也〉;Wf 兇 Yr WJ" F面有一些關(guān)于某些變量隨參數(shù) C的增

9、大而變化的表述。如果表述總是成立,標示 如果表述總是不成立,標示 否”;如果表述的正確性取決于 C增大的具體情況,標示 是”; 不一 (1) w0不會增大(不一定) ⑵||w||增大(不一定) (3) ||w||不會減小 (是) (4) 會有更多的訓(xùn)練樣本被分錯 (否) ⑸間隔(Margin)不會增大(是) 四、一個初學機器學習的朋友對房價進行預(yù)測。 他在一個N=1000個房價數(shù)據(jù)的數(shù)據(jù)集上匹 配了一個有533個參數(shù)的模型,該模型能解釋數(shù)據(jù)集上 99%的變化。 1、請問該模型能很好地預(yù)測來年的房價嗎?簡單解釋原因。( 5分) 2、如果上述模型不能很好預(yù)測新的房價, 請你設(shè)計一個合適的模型,給出模型的參數(shù)估計, 并解釋你的模型為什么是合理的。( 10分) 答:1?不能。因為模型參數(shù)過多太復(fù)雜,訓(xùn)練集上擬合太好,把錯誤點也考慮進來,因此發(fā) 生了過擬合,預(yù)測誤差較大。 2.對之進行 L1正則,即Lasso回歸。y~N(wTx,知w~Lap(0,t) L( 0 )=C-工(yl-w) 2/2 2-工 |wi|/b NLL=RSS+入 ||w|| 通過調(diào)節(jié)L1正則系數(shù)入大小避免模型過擬合,而且估計w參數(shù)的同時進行了特征選擇, 得系數(shù)w盡可能多的為0,簡化了模型。 第5頁共4頁

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關(guān)資源

更多
正為您匹配相似的精品文檔
關(guān)于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權(quán)所有   聯(lián)系電話:18123376007

備案號:ICP2024067431-1 川公網(wǎng)安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務(wù)平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對上載內(nèi)容本身不做任何修改或編輯。若文檔所含內(nèi)容侵犯了您的版權(quán)或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!