碩士畢業(yè)論文: 行人車輛檢測算法研究與改進研究

上傳人:冷*** 文檔編號:18815785 上傳時間:2021-01-04 格式:DOCX 頁數(shù):7 大?。?7.70KB
收藏 版權申訴 舉報 下載
碩士畢業(yè)論文: 行人車輛檢測算法研究與改進研究_第1頁
第1頁 / 共7頁
碩士畢業(yè)論文: 行人車輛檢測算法研究與改進研究_第2頁
第2頁 / 共7頁
碩士畢業(yè)論文: 行人車輛檢測算法研究與改進研究_第3頁
第3頁 / 共7頁

下載文檔到電腦,查找使用更方便

18 積分

下載資源

還剩頁未讀,繼續(xù)閱讀

資源描述:

《碩士畢業(yè)論文: 行人車輛檢測算法研究與改進研究》由會員分享,可在線閱讀,更多相關《碩士畢業(yè)論文: 行人車輛檢測算法研究與改進研究(7頁珍藏版)》請在裝配圖網(wǎng)上搜索。

1、碩士畢業(yè)論文: 行人車輛檢測算法研究與改進研究   1.1 研究背景與意義   隨著智慧城市建設的發(fā)展,獲取當前環(huán)境的位置信息有著重要作用.目標檢測從提出之初就成為了廣泛研究的熱點,尤其在自然場景下有更加廣泛應用.圖像檢測技術主要通過攝像機獲取圖像作為原始圖像,并在原始圖像上進行目標檢測實現(xiàn)[1].其中應用在城市建設中的影像服務方式主要是城市街景影像,城市街景作為一種全新的地圖服務方式,從推出以來就被寄予更多關注.街景影像地圖瀏覽服務通過對城市主要組成道路,建筑等目標進行拍攝,然后將這些照片經過處理,再根據(jù)實際需求應用于地圖瀏覽與地圖使用服務.   作為

2、城市街景影像,同樣存在大量目標檢測研究內容,其中行人車輛信息構成了街景環(huán)境中重要的組成部分,針對城市街景中行人車輛檢測已經成為城市治理能力綜合提升的重要環(huán)節(jié),對于提升城市品質具有不可替代的作用.城市街景影像雖然在為城市綜合服務方面提供了便利,但目前在影像中要實現(xiàn)良好的目標檢測效果仍然存在一些問題,具體在城市影像行人車輛定位中的問題有:1.街景背景復雜性:相較于普通圖像,街景中存在大量的目標,如行人、車輛、建筑物、交通標志等等,在考慮實際定位過程時,需要從復雜的背景中提取出來我們想要獲取的目標信息,但是由于背景復雜性,在匹配過程中容易出現(xiàn)匹配錯誤的現(xiàn)象.2.影像檢索時間長:獲取大量的街景數(shù)據(jù)信息

3、,采用對圖像的單一特征進行提取研究(例如角點、直線、紋理)導致目標檢測時間更長.同 時不同大小,外觀,光照遮擋等現(xiàn)象的存在導致在目標檢測的準確性上無法保證.3.影像目標尺度變化較大:復雜場景下的行人、車輛檢測面臨著尺度變化、外觀姿態(tài)變化和遮擋等問題.例如存在較遠處的小目標行人、車輛被歸為小尺度信息難以被識別.另外密集場景下目標之間互相遮擋,使得算法很難做出較為準確全面的檢測,影響算法的精度,導致結果不準確.   與此同時,以機器學習、知識圖譜為代表的人工智能技術逐漸變得普及.從最初的簡單目標分類識別、發(fā)展到后續(xù)的圖像綜合應用,再到實際應用場景下的自動駕駛,逐 漸滲透到人們的日常

4、生活中.可見計算機視覺是一門使機器"看"的學科.它使計算機和其他設備代替人眼進行目標檢測和進一步的圖像處理[2].圖像處理和計算機視覺成為研究的新趨勢,用于構建人工智能系統(tǒng)從圖像中獲取信息等智能交通監(jiān)控系統(tǒng).目標檢測也逐漸成為計算機視覺的一個重要分支.在不斷地發(fā)展中,其中基于深度學習的目標檢測在速度和精度方面的表現(xiàn)要優(yōu)于傳統(tǒng)的特征提取算法.   基于以上背景,本文利用城市街景影像,研究一種對于街景影像行人車輛目標檢測的深度學習方法.旨在解決城市街景影像中由于背景復雜,遮擋尺度變化問題帶來的目標檢測精度問題.   1.2 國內外研究現(xiàn)狀   在影像

5、目標檢測課題發(fā)展的四十余年中,行業(yè)內眾多學者取得了優(yōu)秀的成果.本論文研究方向是在城市街景影像中利用深度學習的方法進行行人車輛檢測,屬于計算機視覺的目標檢測任務的分支方向.因此,本節(jié)分別從影像行人檢測和車輛檢測兩個角度分析國內外研究現(xiàn)狀.   1.2.1 行人檢測研究現(xiàn)狀   行人檢測是目標檢測的一個重要研究分支,也是目標檢測實例中較為基礎的應用.其中主要應用在行人形態(tài)分析,行人識別等領域.此外,其在視頻監(jiān)控,人流量統(tǒng)計,自動駕駛中都有重要的地位.目前針對行人檢測的相關研究方法主要分為兩類,一類是基于傳統(tǒng)特征提取的方法進行行人檢測,另一種是基于深度學習算法實現(xiàn)行人

6、檢測.   起初,傳統(tǒng)的行人檢測的最主流的方法是基于單一特征進行影像中行人特征的選擇,國內針對行人的特征選擇主要是利用基于方向梯度直方圖特征(HOG)[3]進行行人特征的提取,葉林[4]提出了一種基于空間梯度直方圖的行人檢測算法,在不降低檢測效果的前提下,保證了行人檢測的效率.曲永宇[6]在梯度直方圖的基礎上,針對檢測精度有待提高、向量維數(shù)較大的問題,提出了利用梯度統(tǒng)計特征的直方圖加上顏色頻率和膚色特征來描述行人檢測的實現(xiàn).高修祥[5]提出了一種改進的方向梯度直方圖(directionalgradient histogram)算法,將 HOG 特征向量分成兩部分,然后結合殘差網(wǎng)

7、絡進行特征融合,提高了行人檢測的準確性,降低了檢測的失敗率.陳銳[7]提出了一種基于多特征融合的行人檢測算法.利用主成分分析(PCA)對 HOG 進行降維,并與局部二值特征(LBP)融合.在 INDIA 數(shù)據(jù)庫上進行了實驗,以提高訓練和檢測的速度.   由于行人檢測的影像大部分屬于自然場景,往往選取單一的特征提取思路會造成結果的不準確,精度無法滿足要求.在后續(xù)的行人檢測工作研究中,研究者們將影像預處理與行人本身特點進行結合,對算法模型進行了優(yōu)化與設計,汪成亮[8]對于快速移動人體檢測,首先采用高斯混合模型進行背景剔除,減少了檢測掃描的時間.最后將主成分分析與梯度直方圖相結合,提

8、高了檢測窗口的分類速度.王波[9]提出了一種有效的行人特征點模型,用于街景視頻監(jiān)控中的行人檢測,并對行人的輪廓特征進行了研究.然后利用 Canny 算子邊緣檢測方法對行人樣本圖像邊緣進行檢測,并結合形態(tài)學對圖像進行進一步處理.從而有效、準確地獲取行人輪廓.在針對行人特點進行了一系列的探索后,后續(xù)的研究者還加入了級聯(lián)的思想,王奕波[10]在街景圖像中,提出了基于級聯(lián)特征的行人檢測方法.首先確定可能包含行人的潛在區(qū)域,利用基于概率接受度的方法,根據(jù)方向梯度的直方圖特征進行強化掃描分類,最后通過非最大抑制(NMS)過程對分類結果進行匯總.實驗結果表明,基于級聯(lián)特征的方法一方面可以使兩種特征互補,提高

9、檢測精度.另一方面,基于概率接受的強化掃描分類方法使檢測時間顯著縮短.   國外傳統(tǒng)行人檢測的研究主要集中在區(qū)分行人與其他目標的分類算法研究與分類器使用上,David McAllester 等人[11]提出了一種基于邊緣特征的數(shù)據(jù)挖掘方法,考慮行人檢測中邊緣特征信息,利用多尺度的學習特征提高行人檢測的速度和精度.Payam 等 人[12]提出了在行人檢測過程中使用 shapelet 特征的算法,這種特征有利于區(qū)分行人與非行人信息的梯度構建,使用 AdaBoost 分類器,shapelet 特性可以把行人檢測的重點放在更小的特征集上,最后在 INRIA 數(shù)據(jù)集上證實了算法的有效性

10、.在模型結構與優(yōu)化方面,創(chuàng)新性的提出了 DPM 思想.Rodrigo Benenson 等人[13]針對過去十幾年在行人檢測方面的算法進行了總結,概括了主流算法包括 HOG+SVM 特征提取檢測、可變形部分檢測器(DPM),將傳統(tǒng)的行人檢測算法應用在 Caltech-USA 數(shù)據(jù)集上,對比不同算法的效果評價特征.   傳統(tǒng)的行人檢測算法大多在低層特征表達基礎上構建復雜的模型來提升檢測精度,但是仍然存在單一特征帶來的精度問題,使用特征融合的方式會提升一部分的精度,但是會帶來特征提取成本的增加.之后卷積神經網(wǎng)絡應運而生,優(yōu)秀的網(wǎng)絡結構層次,更加準確的特征信息描述,高維特征提取,以及

11、針對不同場景下特征的多元化描述都使得神經網(wǎng)絡發(fā)揮出更大的優(yōu)勢.基于深度學習的行人檢測的思路成功地應用在場景檢測中,從 2006 年以來,大量深度神經網(wǎng)絡的論文被發(fā)表,2012 年,Hinton 課題組通過構建 CNN網(wǎng)絡 AlexNet[14]一舉奪得圖像識別比賽冠軍,從此神經網(wǎng)絡開始受到廣泛的關注.   在深度學習算法獲取候選框區(qū)域的研究中,夏金銘[15]在 Fast R-CNN 基礎上引入了困難樣本挖掘的策略,提升檢測的泛化能力.王斌[16]利用深度學習網(wǎng)絡身視覺特征提取的優(yōu)越性,在此基礎上設計了多種策略融合的窗口選擇方法,改變傳統(tǒng)滑動窗口耗時長的問題.采用了選擇性搜索算法

12、,提高特征提取的性能.劉芷含[17]提出了通過挖掘遺漏的負樣本來充實分類器的訓練樣本,提出一種新的網(wǎng)絡結構以實現(xiàn)多層特征融合,利用獨立模塊進行候選區(qū)域的選擇.   針對候選區(qū)域的選擇依然會帶來檢索時間長的問題,后續(xù)深度學習目標檢測發(fā)展的進程轉向了由端到端的研究中,胡振寰[18]針對遮擋行人檢測問題,提出了在 SSD 算法的前置網(wǎng)絡中加入更加先進的 SE-Inception 結構,對 SSD 的先驗框進行重新設計,修改了相應的 Loss,保證遮擋情況下行人檢測的精度.祝慶發(fā)[20]針對密集場景下的行人檢測,改進了 Yolo 算法的網(wǎng)絡結構和損失函數(shù),在人工標注的實際場景中進行測試

13、和訓練.胡超超[19]以 Yolo V2 網(wǎng)絡作為目標檢測的基礎模型,在獲取小目標的基礎上加入了殘差網(wǎng)絡,構建訓練的行人樣本庫,并且修改網(wǎng)絡參數(shù),訓練出更符合行人檢測的網(wǎng)絡模型,通過匹配算法進一步對行人進行分類,利用卡爾曼濾波進行跟蹤,大大提升檢測速度.   針對行人特征的卷積網(wǎng)絡過程中,國外更加側重于結合多特征進行卷積網(wǎng)絡的實現(xiàn),Shao 等人[21]結合圖像的多光譜特征,提出了四種卷積網(wǎng)絡融合體系結構,結合了不同通道的特征,針對 KAIST 數(shù)據(jù)集上的精度提高了 11%.Garrick Brazil 等人[22]提出了一種融合了語義分割和行人檢測功能的分割融合網(wǎng)絡,針對場景

14、中遮擋和形狀變化問題都有了很大的提高.Ping 等人[23]提出一種新的深度模型,從多個任務和多個數(shù)據(jù)源中學習行人高層特征,將已有的場景分割數(shù)據(jù)集中的屬性信息轉移到行人數(shù)據(jù)集,減少數(shù)據(jù)集之間的差異,在 Caltech 數(shù)據(jù)集上測試,失誤率降低了 17%.   1.2.2 車輛檢測研究現(xiàn)狀   車輛識別同樣作為場景應用中常見的檢測目標,在相關目標檢測研究中具有重要的意義.保證車輛識別速度快,得到準確率高的車輛檢測信息,決定了能否更好地服務于城市發(fā)展管理工作中.車輛信息檢測作為當前圖像處理領域正在研究和廣泛關注的課題, 在衡量城市綜合發(fā)展水平中具有良好的發(fā)展前景.

15、   最初針對傳統(tǒng)的車輛檢測算法中主要是采用人工特征提取的檢測方法.錢晉[24]研究了基于背景差法的晝間視頻車輛檢測算法的相關問題,提出了背景提取與更新算法,滿足視頻車輛動態(tài)檢測的要求.郭磊[27]提出了一種應用單目視覺進行車輛檢測的方法,以車輛陰影以及邊緣作為檢測的主要特征并且結合雷達探測數(shù)據(jù),提高車輛檢測的準確率.張濤[25]研究了車輛檢測區(qū)域設置特定模型,在 Haar 特征的基礎上,修改了遍歷邏輯,提高了系統(tǒng)檢測的實時性.金立生[26]提出了一種將圖像特征與分類器融合的思想識別算法,實現(xiàn)了對前方車輛的準確識別.   在國外進行車輛檢測的研究中研究者們多側重于

16、車輛進行實時檢測的思路上,Amirali Jazayeri 等人[28]介紹了一種在多種環(huán)境條件下對視頻目標車輛進行定位的綜合方法.從視頻中提取的幾何特征被連續(xù)地投射到一維剖面上,根據(jù)場景特征和車輛運動模型,對視場中的運動進行概率建模,實現(xiàn)實時檢測車輛的效果.Jun-Wei Hsieh 等人[29]研究了 SURF 算法特征,提出了一種新的車輛檢測方案來檢測移動攝像機中的車輛.該方案的優(yōu)點是不需要背景建模,就能實現(xiàn)良好的檢測結果.Margrit Betke 等人[30]提出了一種實時視覺系統(tǒng),使用顏色、邊緣和運動信息的組合來識別和跟蹤道路邊界、車道標記和道路上的其他車輛,利用多種特征融合的思路

17、進行車輛的檢測.Tehrani 等人[31]提出了一種基于 HOG 特征和 SVM 的車輛檢測方法來實現(xiàn)城市道路中的車輛檢測.   傳統(tǒng)的學習方法只支持對少量數(shù)據(jù)的訓練,因此對車輛多樣性的檢測仍然存在不足.近年來,隨著 CNN 的發(fā)展,物體的分類和檢測方法也相應飛速發(fā)展.利用神經網(wǎng)絡訓 練對于圖像的精確度有了明顯的提升.網(wǎng)絡特征的使用擺脫了傳統(tǒng)目標檢測方法的限制,受外界環(huán)境變化小,不易受圖像基本特征的影響,應用在復雜場景中也有較好的檢測識別效果.   劉敦強[33]在 Faster R-CNN 基礎上進行了改進,使用多尺度預測分支,增加樣本挖掘機制,適當?shù)倪x取正

18、負樣本,滿足車輛檢測的精度要求.黃皓宇[32]對 Mask R-CNN 算法模型進行改進,在進行預處理操作后,車輛檢測的精度達到了 80%左右.宋煥生[34]在進行車輛檢測過程中選取了不同的分類情況與構建不同視角下的數(shù)據(jù)測試集與驗證集, 將檢測的精度提升了近 10%.   王宇寧[36]提出一種基于 Yolo 算法的車輛實時檢測方法,選擇交通監(jiān)控視頻作為數(shù)據(jù)集進行車輛檢測試驗.達到了 89.3%的查準率.卞山峰[35]針對傳統(tǒng)的車輛檢測算法存在魯棒性差、檢測速度慢和準確率低等問題,提出基于改進 Yolo V2 模型的車輛實時檢測算法.通過目標框維度聚類、網(wǎng)絡結構改進以及輸入圖像

19、多尺度變換等方法對 YoloV2 算法進行改進,明顯提升了檢測的精度和速度.Moran Ju 等人[37]提出了一種基于 YoloV3 的多尺度目標檢測方法.基于 IOU 的數(shù)學推導方法,為改進的 Yolo V3 的每個尺度選擇候選錨盒的數(shù)量和長寬比維數(shù),同時將輸出檢測層前的 6 個卷積層轉化為 2 個殘差單元, 最后在 PASCAL VOC 數(shù)據(jù)集和 KITTI 數(shù)據(jù)集上進行了對比實驗,改進后的網(wǎng)絡能提高目標檢測的平均精度.Chi Ma 等人[38]提出了一種基于 Yolo 深度學習算法的航空圖像車輛檢測方法.集成了一個適合 Yolo 訓練的航空圖像數(shù)據(jù)集.該訓練模型特別是對小目標、旋轉以及

20、緊湊密集目標,滿足實時性檢測的要求.   1.3 研究內容及技術路線   1.3.1 研究內容   本文針對城市街景影像中的行人、車輛目標信息,利用深度學習的算法實現(xiàn)街景影像中行人車輛檢測.在已有研究的基礎上針對城市街景影像數(shù)據(jù)來源大,數(shù)據(jù)量豐富,影像尺度特征變化大的特點,提出了改進的 Yolo V3 算法,保證檢索速度提高的情況下,同時對圖像中行人,車輛數(shù)量多,存在遮擋及尺度變化明顯等問題,進行了精度的提升.最后進行了不同算法的對比,得到改進的算法在檢測目標上精度與準確度上的提高.具 體研究內容主要包含以下部分:   (1)解決

21、街景中行人車輛檢測中數(shù)量多、尺度變化大的問題   針對城市街景影像中行人車輛目標數(shù)量多,重復目標出現(xiàn)的特點,結合街景數(shù)據(jù)集本身的特征,由此帶來的目標檢測尺度變化大,存在遮擋的問題.主要思路為利用深度學習適用于處理圖像視覺中目標檢測識別的思想.   文章中采用目前深度學習主流的不同代表算法應用于街景影像中的行人與車輛目 標檢測中,即采用 Two-stage 算法代表 Faster R-CNN 算法與 One-stage 算法代表 Yolo V3算法實現(xiàn).在基于 One-stage 算法的快速檢索的前提下,本文同時也選取一種輕量級主 干網(wǎng)絡的 Yolo 算法最后結果的對比.最后采用改進算法與其他三類算法進行對比分析.   (2)改進 Yolo 算法實現(xiàn)行人車輛檢測   本文在已有深度學習算法基礎上,提出了一種改進的 Yolo V3 算法,在保證檢索速度的同時,能夠將街景場景中的尺度變化明顯導致識別精度不高的行人車輛能夠準確檢測.文章最后通過精度速度評價指標對比以及不同算法影像輸出結果,進行四種不同深度學習算法的比較,得出改進算法具有良好的實驗結果,驗證算法的有效性.

展開閱讀全文
溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

相關資源

更多
正為您匹配相似的精品文檔
關于我們 - 網(wǎng)站聲明 - 網(wǎng)站地圖 - 資源地圖 - 友情鏈接 - 網(wǎng)站客服 - 聯(lián)系我們

copyright@ 2023-2025  zhuangpeitu.com 裝配圖網(wǎng)版權所有   聯(lián)系電話:18123376007

備案號:ICP2024067431-1 川公網(wǎng)安備51140202000466號


本站為文檔C2C交易模式,即用戶上傳的文檔直接被用戶下載,本站只是中間服務平臺,本站所有文檔下載所得的收益歸上傳人(含作者)所有。裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對上載內容本身不做任何修改或編輯。若文檔所含內容侵犯了您的版權或隱私,請立即通知裝配圖網(wǎng),我們立即給予刪除!